Cohen’s Kappa Statistic

Share on

p>Definições Estatísticas > Estatística Kappa de Cohen

O que é a Estatística Kappa de Cohen?

A estatística Kappa de Cohen mede a fiabilidade entre observadores (por vezes chamada acordo interobservador). A fiabilidade ou precisão intra-operador acontece quando os seus avaliadores de dados (ou colectores) dão a mesma pontuação ao mesmo item de dados.


Esta estatística só deve ser calculada quando:

  • Dois avaliadores avaliam cada um um ensaio em cada amostra, ou.
  • Um avaliador avalia dois ensaios em cada amostra.

Além disso, a Kappa de Cohen tem a suposição de que os avaliadores são deliberadamente escolhidos. Se os seus avaliadores forem escolhidos aleatoriamente a partir de uma população de avaliadores, utilize a Kappa de Fleiss.

Histórico, foi utilizada uma concordância percentual (número de pontuações de concordância / pontuação total) para determinar a fiabilidade entre avaliadores. No entanto, a concordância casual devido à adivinhação dos avaliadores é sempre uma possibilidade – da mesma forma que uma resposta casual “correcta” é possível num teste de escolha múltipla. A estatística Kappa tem em conta este elemento de acaso.

A estatística Kappa varia de 0 a 1, onde.

  • 0 = acordo equivalente ao acaso.
  • 0.1 – 0.20 = ligeiro acordo.
  • 0,21 – 0,40 = acordo justo.
  • 0,41 – 0,60 = acordo moderado.
  • 0,61 – 0,80 = acordo substancial.
  • 0,81 – 0,99 = acordo quase perfeito
  • 1 = acordo perfeito.

Notem que estas directrizes podem ser insuficientes para investigação e testes relacionados com a saúde. Itens como leituras de radiografias e resultados de exames são frequentemente julgados subjectivamente. Embora a concordância entre os examinadores de 0,4 possa ser boa para um inquérito geral, é geralmente demasiado baixa para algo como um rastreio do cancro. Como tal, geralmente deseja-se um nível mais elevado de fiabilidade aceitável entre avaliadores quando se trata de saúde.

Exemplo de cálculo

O software de estatística tem a capacidade de calcular k. Para conjuntos de dados simples (ou seja, dois avaliadores, dois itens) calcular k à mão é bastante simples. Para conjuntos de dados maiores, é provável que queira usar software como SPSS.

A seguinte fórmula é usada para o acordo entre dois avaliadores. Se tiver mais de dois avaliadores, terá de utilizar uma variação da fórmula. Por exemplo, em SAS o procedimento para Kappa é PROC FREQ, enquanto que será necessário utilizar o macro MAGREE SAS para múltiplos avaliadores.

A fórmula para calcular a kappa de Cohen para dois avaliadores é:
estatística da kappa de Cohen's kappa statisticbr>onde:
Po = a concordância relativa observada entre os avaliadores.
Pe = a probabilidade hipotética de concordância do acaso

Questão de exemplo: Os seguintes dados hipotéticos provêm de um teste médico em que dois radiologistas classificaram 50 imagens por necessitarem de mais estudo. Os investigadores (A e B) disseram Sim (para estudo adicional) ou Não (não é necessário estudo adicional).

  • 20 imagens foram avaliadas Sim por ambos.
  • 15 imagens foram avaliadas Não por ambos.
  • Overall, o avaliador A disse Sim a 25 imagens e Não a 25.
  • Overall, o avaliador B disse Sim a 30 imagens e Não a 20.

Calcular a kappa de Cohen para este conjunto de dados.

P>Passo 1: Calcular po (o acordo proporcional observado):
20 imagens foram avaliadas Sim por ambos.
15 imagens foram classificadas como Não por ambos.
So,
Po = número em concordância / total = (20 + 15) / 50 = 0.70.

Passo 2: Encontrar a probabilidade de os avaliadores dizerem aleatoriamente Sim.
Rater A disse Sim a 25/50 imagens, ou 50%(0,5).
Rater B disse Sim a 30/50 imagens, ou 60%(0,6).
A probabilidade total dos avaliadores ambos dizendo Sim aleatoriamente é:
0,5 * 0,6 = 0,30.

P>Passo 3: Calcular a probabilidade de ambos os avaliadores dizerem Aleatoriamente Não.
Rater A disse Não a 25/50 imagens, ou 50%(0,5).
Rater B disse Não a 20/50 imagens, ou 40%(0,6).
A probabilidade total dos avaliadores ambos dizerem Não aleatoriamente é:
0,5 * 0,4 = 0,20.

P>Passo 4: Calcular a Pe. Adicione as suas respostas dos passos 2 e 3 para obter a probabilidade total de os avaliadores concordarem aleatoriamente.
Pe = 0,30 + 0,20 = 0,50.

Passo 5: Insira os seus cálculos na fórmula e resolva:


k = (Po – pe) / (1 – pe = (0.70 – 0,50) / (1 – 0,50) = 0,40.

k = 0,40, o que indica um acordo justo.

Beyer, W. H. CRC Standard Mathematical Tables, 31st ed. Boca Raton, FL: CRC Press, pp. 536 e 571, 2002.
Agresti A. (1990) Análise de Dados Categóricos. John Wiley and Sons, New York.
Kotz, S.; et al., eds. (2006), Encyclopedia of Statistical Sciences, Wiley.
Vogt, W.P. (2005). Dicionário de Estatística & Metodologia: Um Guia Não Técnico para as Ciências Sociais. SAGE.

CITA ESTE AS:
Stephanie Glen. “Cohen’s Kappa Statistic” de StatisticsHowTo.com: Estatísticas Elementares para o resto de nós! https://www.statisticshowto.com/cohens-kappa-statistic/

——————————————————————————
p>Need help with a homework or test question? Com o Chegg Study, pode obter soluções passo a passo para as suas perguntas de um especialista na matéria. Os seus primeiros 30 minutos com um tutor do Chegg são gratuitos!

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *