Inklusion ist ein Menschenrecht. Deutschland wurde für die mangelhafte Umsetzung der Inklusion im Schulsystem bereits gerügt. Die Hattie-Studie zeigt, dass alle Kinder, im Sinne von Kinder mit und ohne sonderpädagogischem Förderbedarf, in inklusiven Settings mindestens genau so gut lernen, wie unter der Bedingung der Seperation von Menschen mit Behinderungen. Selektion bzw. Tracking hat keinen bedeutenden Effekt auf das Lernen.
J. Hatties Ergebnisse kann man in der Pfeife rauchen; mein ceterum censeo:
Spoiler anzeigen
Der Umfang seiner Metaanalysen alleine ist Qualitätsmerkmal. Der Umfang ergibt sich mithin aus der Metaanalyse von Metaanalysen: So inkorporiert bspw. eine Metaanalyse eine Menge N an Einzelstudien mit einer Menge N an aggregierten Probanden – J. Hattie aggregiert nun N dieser Metaanalysen und hat damit am Ende die enorme Menge N an Einzelstudien und Probanden, dafür aber letztlich erheblich weniger (immer noch viele, ungenommen) Studien gesichtet, als man meinen könnte (eben nur die N an Metaanalysen, nicht die diesen zugrundeliegenden Einzelstudien). Das mag auf den ersten Blick beeindrucken, ist aber eigtl. nicht besonders beeindruckend, lediglich recht konkurrenzlos in der Bildungsforschung.
2.
Die Probleme der Methode von J. Hattie sind evident:
(a) M. Kunczik und A. Zipfel resümierten zeitlos bzgl. Metaanalysen, „dass schlechte und methodisch problematische Studien in ihrer Aussagekraft nicht dadurch besser werden, dass man sie in eine Meta-Analyse einbezieht. […] Das Gesamtergebnis mag bestimmte Schlussfolgerungen über den Forschungsstand zum untersuchten Thema suggerieren, viele Artefakte bzw. unzutreffende Befunde addieren sich deshalb aber noch lange nicht zu einem zutreffenden Ergebnis“ (https://www.gmk-net.de/wp-content/t3a…-gewalt1998.pdf, S. 169 f.).
Metanalysen von Metaanalysen machen die Problematik nicht besser, im Gegenteil.
Eines der (vielen) Probleme der einschlägigen Studien von J. Hattie ist leider eine oftmals unkritisch-affirmative Inkorporation von Studien bzw. Metaanalysen in seine eigene Metaanalyse, ohne hier bei Ersteren analytisch zu würdigen, ob die entsprechenden Studien designtechnisch und mit Blick auf deren Ergebnisse die behaupteten Effekte überhaupt tatsächlich demonstrieren konnten und ohne bei Metaanalysen bspw. Differenzierungen in deren interne Studienauswahlen/-differenzierungen, z.B. nach methodisch-technisch unterschiedlichen Qualitätsstandards/-niveaus (so dass sich bspw. kulminierende Ergebnisse für best practices-Studien im Vergleich zu den kulminierten raw data-Ergebnisen o.ä. darstellen ließe) zu verlangen.
Entsprechend findet sich diese Problematik auch in seiner eigenen Forschung, inkl. des Problems, Studien miteinander zu vergleichen, die von ihrer Ausrichtung und Methodik her nicht wirklich vergleichbar sind. Und nicht zu vergessen, dass J. Hattie auch zu anderen Schulsystemen mit anderen sozio-politischen, -kulturellen und -ökonomischen Rahmenbedingungen forschte. Äpfel… und Birnen.
(b) Da wird in den zugrundeliegenden Einzelstudien der Metaanalysen z.B. ein vermeintl. ‘Lernerfolg’ durchaus grundverschieden und von unterschiedlicher Güte der Validität operationalisiert, was letztlich dann Aussagekraft und Vergleichbarkeit der Einzelstudien reduziert. Dies in einer Metaanalyse nicht zu beachten, bedeutet am Ende Äpfel mit Birnen zu vergleichen.
Es täte den Metaanalysen von J. Hattie gut, in zukünftigen Iterationen für die einzelnen Effekte zumindest einmal eine Differenzierung in die Qualität der aggregierten Einzelstudien vorzunehmen (wobei er dann keine Metaanalyse von Metaanalysen vornehmen könnte, weil die zugrundeliegenden Metaanalysen dies ja bereits nicht bewerkstelligen).
Um mein Desiderat am Bsp. des potenziellen Einflusses der "Gruppierungen in Schulen" auf den ‘Lernerfolg’ zu verdeutlichen (und den üblichen Reaktionen vorzubeugen): Notwendig wäre erst einmal, neben der obligatorischen Differenzierung der Einzelstudien in Studiengattungen (Experimental-, Feld-, Interventions-, Quer-, Längsschnittstudie etc.), eine basale Differenzierung der Studien in unterschiedliche Kategorien der Operationalisierung der (vermeintl.) abhängigen Variablen des ‘Lernerfolgs’, um sicherzustellen, dass der Untersuchungsgegenstand der Einzelstudien überhaupt der Gleiche ist.
Diese ‘cluster‘ an Studien müssten dann gem. ihrer methodisch-technischen Qualität differenziert werden, d.h. hinsichtlich der Fragen, ob und wie eine Drittvariablenkontrolle stattgefunden hat, Alter und Geschlecht sollte eigtl. obligatorisch sein (und man würde sich wundern, wie oft dies nicht kontrolliert wird), aber auch bspw. die Größen der Lerngruppen, die Leistungsheterogenität (auch bzgl. Sprachkompetenzen etc.) der Lerngruppen, die Dauer und wöchentliche Anzahl der Unterrichtsstunden, soziodemographische Einflussfaktoren etc. Ebenso ist notwendig, entsprechende Modelle der ggf. reziproken Interdependenzen der verschiedenen Variablen zu haben und hier eine entsprechende Kategorisierung vorzunehmen. Nicht zu vergessen wäre auch eine Differenzierung der Studien(ergebnisse) in unterschiedliche Alterskohorten (was für Sechsjährige gilt, gilt nicht zwingend für Sechszehnjährige…).
Man kann daraus sehr differenzierte Ergebnisse extrahieren, die eine Vielzahl unterschiedlicher Wirkungsfaktoren und deren Wechselwirkungen berücksichtigen.
Und man kann letztlich best practices-Studien identifizieren, d.h. diejenigen, die möglichst viele dieser Drittvariablen möglichst adäquat (differenzierend elaboriert) kontrollieren, und deren Ergebnisse für die metaanalytische Auswertung kulminieren, diese Ergebnisse mit denen der nicht best practices-Studien (dem gesamten Sample, den nicht best practices-Studien etc.) vergleichen).
3.
Warum der ganze Aufwand?
Es ist ja ein erheblicher Mehraufwand, der hier betrieben werden müsste, ein erhebliches Mehr an Daten, das generiert wird (und sich übrigens auch nicht so gut ‘vermarkten’ ließe, wie die aktuellen Daten).Ganz einfach: Um strapazierbare Daten zu generieren und (systematische) Verzerrungen zu vermeiden. Wenn ich den (vermeintl.) Effekt der unabhängigen Variable A auf die abhängige Variable B metaanalytisch untersuche, mein Sample aber voller Studien ist, die all die Gütekriterien, die ich skizzierte, nicht beachten, dann kann das Gesamtergebnis vom eigtl. (vermeintl.) Effekt von A auf B (der erst sichtbar wird, wenn ich entsprechend kontrolliere) u.U. im Wesentlichen abweichen. Kurz: Wir wissen einfach nicht, ob die Effekte, die uns J. Hattie in seiner Metaanalyse präsentiert, (zufällig) den tatsächlichen Effekten entsprechen. Kann sein, muss aber nicht. Die Wahrscheinlichkeit, dass dem nicht so ist, ist allerdings recht hoch…
Das Inklusion ein Menschenrecht ist, ist ungenommen, Art. 3 GG und 24 UN-BRK stehen weder einer Selektion nach Leistungsfähigkeit, -bereitschaft und -demonstration und der darauf(!) basierenden Zuordnung an entsprechende Schulformen, noch einem Förderschulsystem entgegen. Deutschland ist aber natürlich verpflichtet, Inklusion denjenigen Schülern zu gewährleisten, die Aufgrund entsprechender Barrieren entsprechende Schulformen nicht besuchen können, wobei sie das Recht haben, entsprechende Bedingungen vorzufinden, die Inklusion nicht zur Farce machen (und Lehrer inklusiven Unterricht nicht verinmöglichen) - hier hat Deutschland flächendeckend versagt.
Hat aber mit dem Thema was zu tun?
ZitatSelektion fördert soziale Ungerechtigkeit und widerspricht dem Leistungsgedanken
Was für ein Unsinn.