Le Coefficient Kappa

Introduction   

Définition de l'accord

Accord entre 2 juges

Accord entre plusieurs juges

Limites du test

Usages du test

Applications pratiques

Conclusion

Annexes

Références

 

Téléchargement 

Liens Internet

Note de l'auteur

Contact

Applications pratiques

Estimation de l'accord entre deux juges

        A) Kappa non pondéré entre 2 neurologues

        B) Kappa pondéré entre 2 neurologues

Landis et Koch ont proposé d’associer au tableau de contingence la matrice de poids de concordance présentée dans le tableau XVI.

 

Tableau XVI - Matrice de poids de concordance

 

 

Neurologue n°1

 

 

Diagnostic

1

2

3

4

 

1

1,0

1,0

0,0

0,0

Neurologue

2

1,0

1,0

0,0

0,0

n°2

3

0,0

0,0

1,0

1,0

 

4

0,0

0,0

1,0

1,0

 

Par cette matrice, on transforme les désaccords de jugement en des concordances, entre les catégories 1 et 2 et entre les catégories 3 et 4.

 

Le fichier de paramétrage du programme est en annexe 2.

Les résultats (annexe 2) sont rassemblés dans le tableau XVII.

 

Tableau XVII - Résultat du Kappa pondéré entre les deux neurologues

Po

Pe

Kappa

SK0

Z

p

SK

0,745

0,569

0,408

0,073

5,616

< 1,0E-6

0,072

 

L’accord pondéré global des neurologues est modéré mais il est significativement supérieur à la valeur précédente du Kappa sans pondération au risque d’erreur de 5% (test bilatéral) :

 

 

Cette pondération peut se justifier car la majorité des désaccords entre les neurologues est portée par les catégories de jugements intermédiaires.

 

Estimation de l'accord multi-juges

Estimation du Kappa maximal

 

Pour tout savoir ou presque sur le test statistique Kappa...