## 参考
- `psych` [CRAN レポジトリへのリンク](https://cran.r-project.org/web/packages/psych/index.html)
- [CRANリポジトリの PDFマニュアル](https://cran.r-project.org/web/packages/psych/psych.pdf)(500ページ近くあります)
- [psych 作者のホームページ](https://personality-project.org/r/psych/)
## 例: 1つのサンプルを2つの試薬で評価する研究
一つの血漿サンプルをもちいて、2つの試薬A、Bで測定してその一致性を見る研究をおこなっています。
以下はサンプルコードです。このまま [[RStudio]] に貼り付けて動かしてください。
```R
# データ削除(データが消えてしまうので注意)
rm(list=ls())
# 必要なパッケージの読み込み
library(psych)
# データの手動入力
data <- data.frame(
A = c(4.12, 3.89, 4.25, 4.10, 3.95, 4.20, 3.85, 4.05, 4.15, 4.00),
B = c(3.95, 4.05, 4.30, 4.00, 4.10, 4.15, 3.90, 4.00, 4.25, 3.95)
)
# データの表示
print(data)
# ICCの計算
icc_result <- ICC(data)
print(icc_result)
```
結果はこちら
```
> print(icc_result)
Call: ICC(x = data)
Intraclass correlation coefficients
type ICC F df1 df2 p
Single_raters_absolute ICC1 0.68 5.3 9 10 0.0075
Single_random_raters ICC2 0.68 5.3 9 9 0.0100
Single_fixed_raters ICC3 0.68 5.3 9 9 0.0100
Average_raters_absolute ICC1k 0.81 5.3 9 10 0.0075
Average_random_raters ICC2k 0.81 5.3 9 9 0.0100
Average_fixed_raters ICC3k 0.81 5.3 9 9 0.0100
lower bound upper bound
Single_raters_absolute 0.17 0.91
Single_random_raters 0.17 0.91
Single_fixed_raters 0.14 0.91
Average_raters_absolute 0.29 0.95
Average_random_raters 0.29 0.95
Average_fixed_raters 0.25 0.95
Number of subjects = 10 Number of Judges = 2
See the help file for a discussion of the other 4 McGraw and Wong estimates,
```
多くの結果が示されていますが、`ICC2` 、すなわち ICC (2, 1) の結果を採用します。
```
Single_random_raters ICC2 0.68 5.3 9 9 0.0100
```
ICC(2, 1) は、**absolute agreement = 値そのものがどれくらい「ピッタリ一致」してるか** をみています。
> [!NOTE] どのICCを使うか
> 置き換え性(interchangeability)**を評価する多くの論文で、**ICC(2,1)**を使用しています。固定効果モデル(ICC(3,1))でも計算可能ですが、測定誤差まで含めて一致を問いたいならICC(2,1) が推奨される場面が多いです(とくに診断機器や試薬評価において)。