Kappa de Cohen

En statistiques, le test du Kappa mesure l'accord entre observateurs lors d'un codage qualitatif en catégories.



Catégories :

Test statistique - Statistiques - Méthode d'analyse

Page(s) en rapport avec ce sujet :

  • . 3 Le cœfficient d'accord (kappa) de Cohen Le cœfficient d'accord de Cohen permet lui aussi d évaluer l'accord observé en tenant compte de l'accord... (source : books.google)
  • On a recouru au test statistique Kappa de Cohen (Κ) pour mesurer les niveaux d'accord entre les deux premiers médecins codeurs.... (source : who)
  • 4 Le cœfficient kappa donne une estimation de la proportion d'accord entre les ... l'accord dû au hasard (Cohen, 1968 Cohen J. Weighted kappa : Nominal scale... Le kappa pondéré est utilisé car certaines discordances entre les codeurs... (source : em-consulte)

En statistiques, le test du Kappa mesure l'accord entre observateurs lors d'un codage qualitatif en catégories.

Le calcul du Kappa se fait de la manière suivante :

\kappa = \frac{\Pr(a) - \Pr(e)}{1 - \Pr(e)}, \!

Où Pr (a) est l'accord relatif entre codeurs et Pr (e) la probabilité d'un accord aléatoire. Si les codeurs sont complètement en accord κ = 1. S'ils sont complètement en désaccord (ou en accord dû seulement au hasard) κ ≤ 0.

L'article introduisant le kappa a pour auteur Jacob Cohen – d'où sa désignation de Kappa de Cohen – est paru dans je journal Educational and Psychological Measurement en 1960.

Le kappa est une mesure d'accord entre deux codeurs uniquement. Pour une mesure de l'accord entre plus de deux codeurs, on utilise le kappa de Fleiss (1981).

Ordres de grandeur

Landis et Koch[1] ont proposé la table suivante pour interpréter le Kappa de Cohen. Il s'agit d'ordres de grandeurs qui ne font pas consensus dans la communauté scientifique[2], surtout parce que le nombre de catégories influe sur l'estimation obtenue – moins il y a de catégories, plus le kappa est élevé[3].

κ Interpretation
< 0 Désaccord
0.0 — 0.20 Accord particulièrement faible
0.21 — 0.40 Accord faible
0.41 — 0.60 Accord modéré
0.61 — 0.80 Accord fort
0.81 — 1.00 Accord presque parfait

Notes et références

  1. Landis, J. R. and Koch, G. G. (1977) pp. 159--174
  2. Gwet, K. (2001)
  3. Sim, J. and Wright, C. C. (2005) pp. 257--268

Liens externes

Recherche sur Amazon (livres) :



Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/Kappa_de_Cohen.
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 07/04/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu