Beschikbare vergelijkingen

overeenstemming
locatiegroepbeoordeeld dooropglobaalspecifiekref

Toelichting

De overeenstemming tussen beoordelaars wordt hier bepaald door middel van de berekening van kappa.

Deze maat heeft een maximale waarde van 1 wanneer beide observatoren alle items dezelfde score geven. Is er sprake van een hoge overeenstemming (maar lager dan 100%), dan kan de kappa-waarde toch lager uitvallen. Dat komt doordat er bij de berekening rekening wordt gehouden met het percentage overeenkomst dat is gebaseerd op kans.

Kappa-waarden (k) worden hier als volgt geïnterpreteerd (Landis & Koch, 1977):

  • ‘slecht’ (k < 0)
  • ‘gering’ (0-0.20)
  • ‘matig’ (0.21-0.40)
  • ‘redelijk’ (0.41-0.60)
  • ‘voldoende tot goed’ (0.61-0.80)
  • ‘bijna perfect’ (0.81-1.00) en
  • ‘perfect’ (1.00)

We maken hier een onderscheid tussen de specifieke overeenstemming (waarbij het gaat of de beide beoordelaars exact dezelfde itemscore hebben gegeven) en globale overeenstemming. Bij deze laatste gaat het erom of beoordelaars dezelfde richting (positief of negatief) hebben gegeven.