Intra-Klassen-Korrelation

Intra-Klassen-Korrelation

Die Intra-Klassen-Korrelation (auch Intraclass-Korrelation) ist ein parametrisches statistisches Verfahren zur Quantifizierung der Übereinstimmung (Interrater-Reliabilität) zwischen mehreren Beurteilern (Ratern) in Bezug auf mehrere Beobachtungsobjekte. Das dazugehörige Maß, der Intraklassen-Korrelationskoeffizient (engl. Intra-Class-Correlation oder ICC, Asendorpf & Wallbott 1979, Shrout & Fleiss 1979, McGraw & Wong 1996, Wirtz & Caspar 2002) setzt intervallskalierte Daten voraus und wird in der Regel berechnet, wenn mehr als zwei Beobachter vorhanden sind oder/und mehrere Beobachtungszeitpunkte miteinander verglichen werden sollen.

Zur Bestimmung der Interrater-Reliabilität wird die Varianz zwischen verschiedenen Ratings in Bezug auf dasselbe Meßobjekt (=Beobachtungsgegenstand, Fall, Person/Merkmalsträger usw.) verglichen mit der über alle Ratings und Meßobjekte entstandenen Varianz.

Von einer reliablen Beobachtung kann ausgegangen werden, wenn die Unterschiede zwischen den Meßobjekten relativ groß sind (was auf systematische Unterschiede zwischen den beobachteten Fällen hinweist) und gleichzeitig die Varianz zwischen den Beobachtern in Bezug auf die Meßobjekte klein. Bei großer Urteilskonkordanz (also geringer Varianz zwischen den Einschätzungswerten) liegt der ICC dann hoch.

Wie bei anderen Korrelationskoeffizienten kann der ICC Werte zwischen -1.0 und +1.0 annehmen. Da sich Reliabilitätsmaße definitionsgemäß auf einen Wertebereich von 0 bis 1 beschränkt sind, indizieren negative ICC's eine Reliabilität von 0 (Wirtz & Caspar (2002, S. 234). Im Scatterplot für die beiden Messwerte bedeutet der Intraklassenkorrelationskoeffizient ICC die Abweichung der Werte von der Winkelhalbierenden.

Inhaltsverzeichnis

Arten des ICC

Es lassen sich bis zu sechs verschiedene Arten des ICC unterscheiden (Shrout & Fleiss 1979), je nachdem ob alle Rater alle oder verschiedene Fälle einschätzen oder ob die Rater zufällig aus einer größeren Menge von Ratern ausgewählt wurden oder nicht. Außerdem macht es einen Unterschied, ob die Einzelwerte der Rater miteinander verglichen werden oder es (z.B. um die Stabilität zu erhöhen) um gemittelte Einschätzungen einer Ratergruppe handelt.

Arten und Auswahl des ICC
Frage 1 Wird jeder Fall von allen Ratern eingeschätzt?
Nein, Ja
Frage 2 die Rater wurden zufällig ausgewählt. Wurden die Rater zufällig ausgewählt?
Ja Nein
Frage 3

Sind Ratingrohwerte einzelner Rater oder Mittelwerte k verschiedener Rater Datengrundlage?

Einzelwert Mittelwert Einzelwert Mittelwert Einzelwert Mittelwert
ICC-Typ ICC(1,1) ICC(1,k) ICC(2,1) ICC(2,k) ICC(3,1) ICC(3,k)
SPSS-Modell one-way random two-way random two-way mixed
single measure average measure single measure average measure single measure average measure

Eine weitere Unterscheidung, die SPSS beim two-way Modell benötigt, ist, ob die Schätzung justiert oder unjustiert erfolgen soll. Justiert und unjustiert bezieht sich darauf, ob Unterschiede zwischen den Ratern im Modell aus der Fehlervarianz herausgerechnet werden oder, wie beim unjustierten Modell, als Teil der Fehlervarianz erhalten bleiben (Wirtz & Caspar 2002). SPSS bezeichnet das justierte Modell als Consistency und das unjustierte als Absolut Agreement. Das unjustierte Modell entspricht der strengeren Prüfung.

Berechnung

Das Grundprinzip der Berechnung (d.h. das mathematische Modell) des ICC entspricht dem einer Varianzanalyse; auch hier geht es um die Zerlegung von Varianzbestandteilen und deren Verhältnis. Wenn

  • k die Anzahl der Rater ist,
  • n die Anzahl der Meßobjekte (Fälle),
  • MSzw die Varianz zwischen den Fällen (=Meßobjekten, Personen) (mit df = n − 1),
  • MSinn die Varianz innerhalb der Fälle (mit df = n(k − 1)),
  • MSzwrat die Varianz zwischen den Ratern (mit df = k − 1) und
  • MSerr die Restvarianz (mit df = (n − 1)(k − 1)),

so gilt:

ICC(1,1)=\frac {MS_{zw} - MS_{inn}} {MS_{zw} + (k-1)MS_{inn}}

ICC(1,k)=\frac {MS_{zw} - MS_{inn}} {MS_{zw}}

ICC(2,1)=\frac {MS_{zw} - MS_{err}} {MS_{zw} + (k-1)MS_{err} + \frac {k(MS_{zwrat}-MS_{err})}{n}}

ICC(2,k)=\frac {MS_{zw} - MS_{err}} {MS_{zw} + \frac {(MS_{zwrat}-MS_{err})}{n}}

ICC(3,1)=\frac {MS_{zw} - MS_{err}} {MS_{zw} + (k-1)MS_{err}}

ICC(3,k)=\frac {MS_{zw} - MS_{err}} {MS_{zw}}.

Literatur

  • Asendorpf, J. & Wallbott, H. G. (1979). Maße der Beobachterübereinstimmung: Ein systematischer Vergleich. Zeitschrift für Sozialpsychologie, 10, 243-252.
  • Fleiss, J. L. and Cohen, J. (1973). The equivalence of weighted kappa and the intraclass correlation coefficient as measures of reliability. Educational and Psychological Measurement 33, 613-619.
  • Müller, R. & Büttner, P. (1994). A critical discussion of intraclass correlation coefficients. Statistics in Medicine, 13, 2465-76.
  • McGraw, K. O., & Wong, S. P. (1996). Forming inferences about some intraclass correlation coefficients. Psychological Methods, 1, 30-46.
  • Shrout, P. E. & Fleiss, J. L. (1979). Intraclass correlation: Uses in assessing rater reliability. Psychological Bulletin, 86, 420-428.
  • Wirtz, M. & Caspar, F. (2002). Beurteilerübereinstimmung und Beurteilerreliabilität. Göttingen: Hogrefe.

Weblinks


Wikimedia Foundation.

Игры ⚽ Поможем написать реферат

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Interrater-Reliabilität — bzw. Urteilerübereinstimmung bezeichnet in der empirischen (Sozial )Forschung (u. a. Psychologie, Soziologie, Epidemiologie, ...) das Ausmaß der Übereinstimmungen (= Konkordanzen) der Einschätzungsergebnisse bei unterschiedlichen Beobachtern …   Deutsch Wikipedia

  • Fleiss' Kappa — Cohens Kappa ist ein statistisches Maß für die Interrater Reliabilität von Einschätzungen von (in der Regel) zwei Beurteilern (Ratern), das Jacob Cohen 1960 vorschlug. Die Gleichung für Cohens Kappa lautet wobei p0 der gemessene… …   Deutsch Wikipedia

  • Fleiss' kappa — Cohens Kappa ist ein statistisches Maß für die Interrater Reliabilität von Einschätzungen von (in der Regel) zwei Beurteilern (Ratern), das Jacob Cohen 1960 vorschlug. Die Gleichung für Cohens Kappa lautet wobei p0 der gemessene… …   Deutsch Wikipedia

  • Gaagudju — Kakadu Gesprochen in Australien Sprecher ausgestorben Sprachcodes ISO 639 1: ISO 639 2: aus ISO 639 3 …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”