Le Coefficient Kappa

Introduction   

Définition de l'accord

Accord entre 2 juges

Accord entre plusieurs juges

Limites du test

Usages du test

Applications pratiques

Conclusion

Annexes

Références

 

Téléchargement 

Liens Internet

Note de l'auteur

Contact

Accord entre plusieurs juges

Cas avec 2 modalités de jugement

L’identité entre le coefficient de corrélation intra-classe et le coefficient Kappa est exploitée par Fleiss[11] pour formuler le test statistique Kappa via une analyse de variance des informations obtenue en codant les jugements positifs à 1 et les jugements négatifs à 0.

Soit m juges (³ 2) qui de manière indépendante sont appelés à classer n observations d’un échantillon dans deux catégories de jugements : positive et négative. On définit la proportion de classement des n observations par les m juges dans la catégorie positive, soit :

avec

xi : le nombre de jugements dans la catégorie + pour l’observation i

et

 

qui est le nombre moyen de jugements par observation et mi le nombre total de jugements pour l’observation i.

 

La moyenne des carrés des écarts entre les observations (BMS) est approximativement égale à :

 

si n ³ 20.

 

La moyenne des carrés des écarts intra-observation (WMS) est égale à :

 

 

Le coefficient de corrélation intra-classe est estimé par :

 

 

avec

Si le nombre d’observations n est grand, m0 et le nombre moyen de jugements par observation ( ) sont peu différents ; ils sont égaux si le nombre de jugements est constant pour toutes les observations.

Si on remplace m0 par , l’expression du coefficient de corrélation intra-classe et de Kappa deviennent :

 

 

ce qui est équivalent à écrire :

 

avec

 

Cas avec plus de 2 modalités de jugement

Signification statistique

Cas où le nombre de jugements est constant entre les observations

Exemple

 

Pour tout savoir ou presque sur le test statistique Kappa...