Definicje statystyk > Statystyka Kappa Cohena
Co to jest statystyka Kappa Cohena?
Statystyka kappa Cohena mierzy wiarygodność międzyosobniczą (czasami nazywaną zgodnością międzyobserwacyjną). Wiarygodność między obserwatorami, lub precyzja, ma miejsce, gdy osoby oceniające dane (lub zbierające dane) przyznają ten sam wynik tej samej pozycji danych.
Tę statystykę należy obliczać tylko wtedy, gdy:
- Dwóch oceniających ocenia po jednej próbie na każdej próbie, lub.
- Jeden ocenia dwie próby na każdej próbie.
Dodatkowo, Kappa Cohena ma założenie, że oceniający są celowo wybrani. Jeśli Twoi oceniający są wybierani losowo z populacji oceniających, użyj zamiast tego kappa Fleissa.
Historycznie, procentowa zgodność (liczba punktów zgodności / całkowita liczba punktów) była używana do określenia wiarygodności międzyosobniczej. Jednakże, przypadkowa zgodność spowodowana zgadywaniem przez oceniających jest zawsze możliwa – w ten sam sposób, w jaki możliwa jest przypadkowa „poprawna” odpowiedź w teście wielokrotnego wyboru. Statystyka Kappa bierze pod uwagę ten element szansy.
Statystyka Kappa waha się od 0 do 1, gdzie.
- 0 = zgodność równa szansie.
- 0,1 – 0,20 = niewielka zgodność.
- 0,21 – 0,40 = dobra zgodność.
- 0,41 – 0,60 = umiarkowana zgodność.
- 0,61 – 0,80 = znaczna zgodność.
- 0,81 – 0,99 = prawie doskonała zgodność
- 1 = doskonała zgodność.
Należy pamiętać, że te wytyczne mogą być niewystarczające dla badań i testów związanych ze zdrowiem. Pozycje takie jak odczyty radiogramów i wyniki badań są często oceniane subiektywnie. Podczas gdy zgodność międzystanowiskowa na poziomie .4 może być w porządku w przypadku ogólnej ankiety, jest ona generalnie zbyt niska dla czegoś takiego jak badania przesiewowe w kierunku raka. W związku z tym, jeśli chodzi o zdrowie, wymagany jest wyższy poziom akceptowalnej wiarygodności międzystanowiskowej.
Przykład obliczeń
Większość programów statystycznych ma możliwość obliczania k. Dla prostych zestawów danych (tj. dwóch oceniających, dwie pozycje) ręczne obliczanie k jest dość proste. W przypadku większych zbiorów danych, prawdopodobnie będziesz chciał użyć oprogramowania takiego jak SPSS.
Następujący wzór jest używany dla porozumienia pomiędzy dwoma oceniającymi. Jeśli masz więcej niż dwóch oceniających, będziesz musiał użyć zmiennej formuły. Na przykład, w SAS procedurą dla Kappa jest PROC FREQ, natomiast dla wielu oceniających należy użyć makra SAS MAGREE.
Wzór do obliczenia kappa Cohena dla dwóch oceniających to:
gdzie:
Po = względne obserwowane porozumienie między oceniającymi.
Pe = hipotetyczne prawdopodobieństwo przypadkowego porozumienia
Przykładowe pytanie: Poniższe hipotetyczne dane pochodzą z testu medycznego, w którym dwóch radiologów oceniło 50 obrazów jako wymagające dalszych badań. Badacze (A i B) albo powiedzieli Tak (do dalszego badania) albo Nie (nie wymaga dalszego badania).
- 20 obrazów zostało ocenionych na Tak przez obu.
- 15 obrazów zostało ocenionych na Nie przez obu.
- Ogółem, badacz A powiedział Tak do 25 obrazów i Nie do 25.
- Ogółem, badacz B powiedział Tak do 30 obrazów i Nie do 20.
Oblicz kappa Cohena dla tego zestawu danych.
Krok 1: Oblicz po (obserwowaną proporcjonalną zgodność):
20 obrazów zostało ocenionych na Tak przez obu oceniających.
15 obrazów zostało ocenionych przez obu jako Nie.
Więc,
Po = liczba zgodna / całkowita = (20 + 15) / 50 = 0,70.
Krok 2: Znajdź prawdopodobieństwo, że oceniający losowo obaj powiedzą Tak.soba oceniająca A powiedziała Tak dla 25/50 obrazów, czyli 50%(0,5).
Order B powiedział Tak dla 30/50 obrazów, czyli 60%(0,6).
Całkowite prawdopodobieństwo, że obaj oceniający losowo powiedzą Tak wynosi:
0,5 * 0,6 = 0,30.
Krok 3: Oblicz prawdopodobieństwo, że oceniający losowo obaj powiedzą Nie.
Operator A powiedział Nie dla 25/50 obrazów, lub 50%(0,5).
Operator B powiedział Nie dla 20/50 obrazów, lub 40%(0,6).
Całkowite prawdopodobieństwo, że oceniający obaj losowo powiedzą Nie wynosi:
0,5 * 0,4 = 0,20.
Krok 4: Oblicz Pe. Dodaj swoje odpowiedzi z kroków 2 i 3, aby uzyskać całkowite prawdopodobieństwo, że oceniający losowo się zgodzą.
Pe = 0,30 + 0,20 = 0,50.
Krok 5: Wstaw swoje obliczenia do wzoru i rozwiąż:
k = (Po – pe) / (1 – pe = (0.70 – 0,50) / (1 – 0,50) = 0,40.
k = 0,40, co wskazuje na uczciwą zgodność.
Beyer, W. H. CRC Standard Mathematical Tables, 31st ed. Boca Raton, FL: CRC Press, s. 536 i 571, 2002.
Agresti A. (1990) Categorical Data Analysis. John Wiley and Sons, New York.
Kotz, S.; et al., eds. (2006), Encyclopedia of Statistical Sciences, Wiley.
Vogt, W.P. (2005). Dictionary of Statistics & Methodology: A Nontechnical Guide for the Social Sciences. SAGE.
Stephanie Glen. „Cohen’s Kappa Statistic” From StatisticsHowTo.com: Elementarna statystyka dla reszty z nas! https://www.statisticshowto.com/cohens-kappa-statistic/
—————————————————————————–
Potrzebujesz pomocy w rozwiązaniu zadania domowego lub testu? Dzięki Chegg Study możesz uzyskać rozwiązania swoich pytań krok po kroku od eksperta w danej dziedzinie. Pierwsze 30 minut z korepetytorem Chegg jest bezpłatne!