## 参考 - `psych` [CRAN レポジトリへのリンク](https://cran.r-project.org/web/packages/psych/index.html) - [CRANリポジトリの PDFマニュアル](https://cran.r-project.org/web/packages/psych/psych.pdf)(500ページ近くあります) - [psych 作者のホームページ](https://personality-project.org/r/psych/) ## 例: 1つのサンプルを2つの試薬で評価する研究 一つの血漿サンプルをもちいて、2つの試薬A、Bで測定してその一致性を見る研究をおこなっています。 以下はサンプルコードです。このまま [[RStudio]] に貼り付けて動かしてください。 ```R # データ削除(データが消えてしまうので注意) rm(list=ls()) # 必要なパッケージの読み込み library(psych) # データの手動入力 data <- data.frame( A = c(4.12, 3.89, 4.25, 4.10, 3.95, 4.20, 3.85, 4.05, 4.15, 4.00), B = c(3.95, 4.05, 4.30, 4.00, 4.10, 4.15, 3.90, 4.00, 4.25, 3.95) ) # データの表示 print(data) # ICCの計算 icc_result <- ICC(data) print(icc_result) ``` 結果はこちら ``` > print(icc_result) Call: ICC(x = data) Intraclass correlation coefficients type ICC F df1 df2 p Single_raters_absolute ICC1 0.68 5.3 9 10 0.0075 Single_random_raters ICC2 0.68 5.3 9 9 0.0100 Single_fixed_raters ICC3 0.68 5.3 9 9 0.0100 Average_raters_absolute ICC1k 0.81 5.3 9 10 0.0075 Average_random_raters ICC2k 0.81 5.3 9 9 0.0100 Average_fixed_raters ICC3k 0.81 5.3 9 9 0.0100 lower bound upper bound Single_raters_absolute 0.17 0.91 Single_random_raters 0.17 0.91 Single_fixed_raters 0.14 0.91 Average_raters_absolute 0.29 0.95 Average_random_raters 0.29 0.95 Average_fixed_raters 0.25 0.95 Number of subjects = 10 Number of Judges = 2 See the help file for a discussion of the other 4 McGraw and Wong estimates, ``` 多くの結果が示されていますが、`ICC2` 、すなわち ICC (2, 1) の結果を採用します。 ``` Single_random_raters ICC2 0.68 5.3 9 9 0.0100 ``` ICC(2, 1) は、**absolute agreement = 値そのものがどれくらい「ピッタリ一致」してるか** をみています。 > [!NOTE] どのICCを使うか > 置き換え性(interchangeability)**を評価する多くの論文で、**ICC(2,1)**を使用しています。固定効果モデル(ICC(3,1))でも計算可能ですが、測定誤差まで含めて一致を問いたいならICC(2,1) が推奨される場面が多いです(とくに診断機器や試薬評価において)。