ضریب کاپا (kappa coefficient) برای تعیین قابلیت اطمینان یا توافق و یا پایایی بین ارزیابان (inter-rater reliability) استفاده می شود. در بیشتر کاربردها، بزرگی کاپا اغلب مهمتر از اهمیت آماری کاپا است.
بر اساس مقدار کاپا کوهن (Cohen’s Kappa value)، طبقه بندی های زیر برای تفسیر “قدرت توافق” توسط Altman و Landis JR در سال 1977 پیشنهاد شده است
مقدار K |
قدرت توافق |
< 0 |
ضعیف |
0.01 – 0.20 |
خفیف |
0.21-0.40 |
منصفانه |
0.41-0.60 |
متوسط |
0.61-0.80 |
قابل توجه |
0.81 – 1.00 |
تقریباً عالی |
از سوی دیگر، این دیدگاه اجازه میدهد تا توافق بسیار کمی در میان ارزیابان به عنوان «قابل توجه» طبقهبندی شود.
با توجه به جدول، 61 درصد توافق خوب تلقی می شود، اما بسته به زمینه، ممکن است دردسرساز باشد.
تقریباً 40 درصد از داده های مجموعه داده اشتباه است. این می تواند منجر به توصیه هایی برای اصلاح شیوه ها بر اساس شواهد نادرست در تحقیقات پهداشت و درمان شود. به عنوان مثال برای یک آزمایشگاه بالینی، اگر 40 درصد از ارزیابیهای نمونه نادرست باشد ، مسئله کیفیت با مشکل مواجه خواهد بود.
به همین دلیل است که بسیاری از متون از توافق بین ارزیابان 80 درصدی به عنوان حداقل سطح قابل قبول حمایت می کنند.
اگر کاپا کمتر از 0.6 باشد، توافق کافی بین ارزیابان وجود ندارد و نتایج مطالعه باید با احتیاط مورد بررسی قرار گیرند.
به گفته Fleiss و همکارانش (2003)، برای اکثر اهداف، مقادیر بیشتر یا مساوی 0.75 ممکن است به عنوان توافق عالی فراتر از شانس، مقادیر کمتر یا مساوی 0.4 به عنوان توافق ضعیف فراتر از شانس و مقادیر بین 0.40 و 0.75 ممکن است به عنوان منصفانه به توافق خوب فراتر از شانس تفسیر شوند.
جدول زیر تفسیر منطقی دیگری از کاپا را ارائه شده توسط McHugh در سال 2012 نشان می دهد.
مقدار K |
سطح توافق |
0 – 0.20 |
هیچ (0 – 4%) |
0.21 – 0.39 |
حداقل (4 – 15%) |
0.40 – 0.59 |
ضعیف (15 – 35%) |
0.60 – 0.79 |
متوسط (35 – 63%) |
0.80 – 0.90 |
قوی (64 – 81%) |
> 0.90 |
تقریبا عالی (82 – 100%) |
ستون «درصد دادههای قابل اعتماد» در جدول بالا با کاپا مجذور مطابقت دارد که همتای مستقیم ضریب همبستگی مجذور است.
11 پاسخ