Le Coefficient Kappa

Introduction   

Définition de l'accord

Accord entre 2 juges

Accord entre plusieurs juges

Limites du test

Usages du test

Applications pratiques

Conclusion

Annexes

Références

 

Téléchargement 

Liens Internet

Note de l'auteur

Contact

Introduction

Si nos jugements reflètent notre pensée, ils sont plus rarement en accord avec ceux d’autrui. 

Cette variabilité inter-individuelle bénéfique pour l’Homme, est cependant pénalisante dans de nombreuses disciplines scientifiques,  où il est souvent nécessaire d’évaluer et d’améliorer l’accord entre des informations de même nature appliquées au même objet dans une exigence de contrôle de la qualité ou d’assurance qualité.

Le test non paramétrique Kappa (K) de Cohen[1]  permet de chiffrer l’accord entre deux ou plusieurs observateurs ou techniques lorsque les jugements sont qualitatifs, contrairement au coefficient u de Kendall[3] par exemple, qui évalue le degré d’accord entre des jugements quantitatifs.

Prenons le cas dans le domaine médical où deux ou plusieurs praticiens examinant le même patient proposent des diagnostics différents ou des décisions thérapeutiques différentes. En l’absence d’une référence, cette multiplication des avis n’apporte pas la sécurité attendue d’un parfait accord diagnostique ou thérapeutique pour le médecin traitant et le patient. Il est donc important que l’accord dans une équipe de travail ou entre plusieurs équipes soit le meilleur possible pour garantir la qualité et la continuité des soins.

Une solution consiste ici à réaliser une séance de «concordance» entre les médecins pour estimer leur taux d’accord par le coefficient Kappa et d’étudier leurs désaccords pour y remédier.

Plus généralement, le test statistique Kappa est utilisé dans les études de reproductibilité qui nécessitent d’estimer l’agrément entre deux ou plusieurs cotations lorsqu’on étudie une variable discontinue.

 

Pour tout savoir ou presque sur le test statistique Kappa...