Sonderpädagogische Förderprogramme im Vergleich

Michael Fingerle & Stephan Ellinger

Diesem Buch liegt eine sehr einfache Idee zugrunde: Wir wollten wissen, was über die Wirksamkeit von Förderkonzepten bekannt ist, dieses Wissen zusammentragen und den Kolleginnen und Kollegen in den sonderpädagogischen Arbeitsfeldern zugänglich machen.

Die systematische Darstellung von Förderkonzepten für einzelne Förderbereiche, ihre Bewertung anhand vorliegender Evaluationsstudien und auf diese Weise begründete Empfehlungen für wirkungsvolle Förderung sollen Studierenden und bereits praktisch tätigen Pädagoginnen und Pädagogen im Schuldienst und in anderen Handlungsfeldern Orientierungshilfen hinsichtlich theoriegeleiteter Fördermöglichkeiten geben. Dabei soll in jedem Kapitel auch ein Überblick über den Forschungsstand zu denjenigen Förderansätzen gegeben werden, deren Wirksamkeit als empirisch abgesichert gelten kann.

Jeder Beitrag gliedert sich in zwei Hauptpunkte:

  1. Überblick über den jeweiligen Stand der Forschung und die empirische Absicherung verschiedener Förderprogramme,
  2. Empfehlungen für Förderansätze oder Förderprinzipien.

Die Herausgeber sind der Überzeugung, dass die Evaluation von Förderprogrammen empirischen Mindeststandards genügen muss, um aus den Ergebnissen Empfehlungen ableiten zu können. Dies setzt einerseits fassbare Erfolgsindikatoren der Programme und andererseits methodische Konzeptionen der Evaluationsstudien voraus, die Fehlschlüsse möglichst nachhaltig ausschließen. Dabei handelt es sich um einen sehr hohen Anspruch. Empirische Studien können eigentlich nie beweisen, dass ein bestimmtes Förderprogramm universell wirksam ist. Aus erkenntnistheoretischen und methodologischen Gründen können sie – strenggenommen – lediglich überprüfen, ob ein Förderansatz untauglich ist. Aus diesem Grund sollte ein Förderprogramm mehrere Versuche durchlaufen, seine Tauglichkeit empirisch zu widerlegen, bevor es auch nur als „vermutlich wirksam“ eingestuft werden kann. Da sich die Fähigkeiten und das Verhalten von Menschen gerade während der Kindheit und Jugendzeit auch positiv verändern können, ohne dass hierfür eine pädagogische Förderung verantwortlich ist, muss von Evaluationsstudien auch verlangt werden, dass sie Vergleiche mit nicht geförderten Kontrollgruppen anstellen und die gewählten Stichproben und Auswertungsmethoden müssen aussagekräftige Schlüsse zulassen. Nicht zuletzt ist ein Förderansatz eigentlich nur dann zu empfehlen, wenn die Ergebnisse der Studien in einer Weise publiziert wurden, die es einem kompetenten Leser ermöglicht, sich eine eigene, unabhängige Meinung über die Wirksamkeit des Programms zu bilden.

Derartige Studien lassen sich methodisch und forschungsökonomisch am einfachsten als sogenannte summative Evaluationen durchführen, die sich quantitativer Methoden bedienen. Wir möchten an dieser Stelle betonen, dass wir damit nicht weiteres Öl ins Feuer des offenbar nie endenden Streits um die Gültigkeit des quantitativen oder qualitativen Forschungsparadigmas gießen wollen. Wir sind der Ansicht, dass sich summative Evaluationen grundsätzlich auch mit qualitativen Forschungsmethoden durchführen ließen – allerdings nur mit einem Aufwand, der den vergleichbarer quantitativer Evaluationsstudien bei weitem übersteigt. Quantitative und qualitative Methoden haben ihre jeweiligen Vor- und Nachteile, durch welche sie jeweils für unterschiedliche Forschungsfragen besser oder weniger gut geeignet sind. Die Wirksamkeit eines Förderansatzes mit Hilfe von quantitativen Methoden zu überprüfen hat – bedingt durch den dazu nötigen Reduktionismus – erkennbare Nachteile und eignet sich zum Beispiel wenig, um komplexere Veränderungen in subjektiven Deutungsmustern oder Einzelheiten individueller Entwicklungsverläufe herauszuarbeiten. Allerdings lassen die Ergebnisse reduktionistischer Evaluationsstudien in vielen Fällen belastbarere Urteile zu, als es der Fall wäre, wenn man sich ausschließlich auf anekdotische Eindrücke verlassen müsste.

Es geht also in diesem Buch um einen Überblick über die besten verfügbaren Förderansätze und Forschungsbefunde, die sowohl empirisch abgesichert als auch nach dem aktuellen Stand der Theorieentwicklung begründet sind. Die Kategorisierung der Verfahren orientiert sich an Beurteilungskriterien, die in den letzten Jahren in der internationalen Bildungsforschung (vgl. NCEE 2003) und der Psychotherapieforschung (vgl. Levant 2005; APA 2002) diskutiert wurden und stellen eine Synthese aus diesen Einzelempfehlungen dar. Im deutschsprachigen Bereich entwickelt Hartke (2005) in seiner Untersuchung zu vertretbaren Maßnahmen in der schulischen Präventionsarbeit ebenfalls drei Kategorien, die er „empfehlenswert“, „bedingt empfehlenswert“ und „nicht empfehlenswert“ nennt (Hartke 2005, 17) und zu deren Festlegung er ähnliche Kriterien zugrunde legt. Im vorliegenden Buch geht es jedoch um Förderprogramme, wobei die Kategorie „Potentiell effektiv“ zugleich den besonderen Bedingungen sonderpädagogischer Forschung gerecht zu werden versucht, die oft mit sehr kleinen Stichproben oder Einzelfallstudien arbeiten muss.

Im Buch werden in erster Linie Förderansätze/-prinzipien vorgestellt, die nach diesen, derzeitig gängigen Kriterien als „Empirisch bewährt“ oder als „Vermutlich effektiv“ eingestuft werden können. Darüber hinaus werden auch Ansätze vorgestellt, die noch nicht so gut abgesichert sind, für die aber in Fachpublikationen veröffentlichte empirische Befunde vorliegen und deren Konzeption auf empirisch fundierten Gegenstandstheorien beruhen. Solche Ansätze sollen als „Potentiell effektiv“ eingestuft werden. Der Leser und die Leserin finden also in den einzelnen Beiträgen zu spezifischen Förderbereichen möglichst explizit vorgenommene Zuordnungen analysierter Förderprogramme. Darüber hinaus werden in manchen Kapiteln am Ende der Abschnitte vielversprechende, aber noch zu überprüfende Verfahren erwähnt. Die drei Kategorien sind wie folgt definiert:

Kategorie 1: „Bewährte Ansätze“

Kategorie 2: „Vermutlich effektive Ansätze“

Kategorie 3: „Potentiell effektiv“

Nach Lage der Dinge konnten in einzelnen Bereichen nur wenige Ansätze den Kategorien „Bewährt“ oder „Vermutlich effektiv“ zugeordnet werden. Dies kann nur konstatiert und als Aufforderung zu weiterer Forschung dargestellt werden. In einzelnen Beiträgen wurden sowohl empirisch gestützte als auch falsifizierte, d. h. widerlegte Ansätze dargestellt. Wir haben uns dabei von der Annahme leiten lassen, dass es für die Leser dieses Buches ebenso wichtig ist zu erfahren, welche Ansätze sich bislang bewährt haben, wie auch zu erfahren, ob bestimmte Ansätze oder theoretische Positionen nach Lage der Dinge als nicht wirksam eingestuft werden müssen. In Anbetracht des Umfangs der in manchen Bereichen vorhandenen Literatur war es außerdem nötig, sich schwerpunktmäßig auf Ansätze zu beschränken, die während der letzten zehn Jahre publiziert wurden.

Wir wünschen allen Leserinnen und Lesern durch die Lektüre wertvolle Impulse (auch) für die pädagogische Praxis!

Frankfurt, im Juli 2008

Michael Fingerle und Stephan Ellinger

APA (2002): American Psychological Association: Criteria for evaluation treatment guidelines. In: American Psychologist, Dec, 1052–1059.

Hartke, B. (2005): Schulische Prävention – welche Maßnahmen haben sich bewährt? In: Ellinger, S./Wittrock, M. (Hg.): Sonderpädagogik in der Regelschule, 11–37.

Levant, F. (2005): Report of the 2005 presidental task-force on evidence-based practice. American Psychological Association.

NCEE (2003): National Center for Education Evaluation and Regional Assistance: Identifying and implementing educational practices supported by rigorous evidence: A user friendly guide. Institute of Education Sciences.

Offener Unterricht und Projektunterricht

Matthias Grünke

1 Merkmale des Offenen und des Projektunterrichts

Offener und Projektunterricht sind beides Methoden zum selbstgesteuerten Lernen. Sie gelten als die populärsten Ansätze der Reformpädagogik. Es handelt sich bei diesem Begriff um eine Sammelbezeichnung für verschiedene internationale Bestrebungen, traditionelle frontale Unterrichtsformen mit ihrer dominanten Lehrerrolle durch kindzentrierte und demokratische Alternativen zu ersetzen. Die Geschichte der Reformpädagogik beginnt mit dem Anbruch der Moderne. Im ersten Drittel des 20. Jahrhunderts erlebt sie mit so prominenten Vertretern wie Maria Montessori, Célestin Freinet, Peter Petersen und John Dewey ihre Hochphase. Zentrales Merkmal aller reformpädagogischer Modelle ist die Prämisse, dass Kinder nicht zu „belehren“ sind, sondern sie ihr Wissen durch eine aktive und bewusste Auseinandersetzung mit der Umwelt selbst erschließen sollen (Hartke, 2002; Hillenbrand, 2007). Man geht hierbei von der humanistischen Annahme aus, „... dass es die Bestimmung des Menschen ist, seine Menschlichkeit zu gewinnen, sie zu entfalten, indem er selbstbestimmt zusammen mit anderen Menschen die Welt erkennt“ (Sehrbrock, 1997, 9). Weitere wichtige reformpädagogische Konzepte sind neben dem Offenen und dem Projektunterricht die Freiarbeit, der Wochenplanunterricht, das Stationslernen oder der Handlungsorientierte Unterricht. Die Modelle werden jedoch nicht einhellig als eigenständig, sondern oftmals auch als Bestandteile einer jeweils anderen reformpädagogischen Richtung betrachtet (so gelten etwa die Freiarbeit oder der Wochenplanunterricht häufig als unentbehrliche Elemente eines Offenen Unterrichts).

Für alle diese Ansätze finden sich in der Literatur so gut wie keine präzisen Definitionen. Ein Umschreibungsversuch für den Offenen Unterricht stammt von Reiß und Werner (2007), die sich auf Wallrabenstein (1994) berufen und diesen Ansatz als ein Konzept beschreiben, das sich durch folgende Merkmale auszeichnet:

Beim Projektunterricht wählen Schüler und Lehrer hingegen gemeinsam eine Problemstellung aus, planen deren Bearbeitung gemeinsam und führen die Vorhaben dann bis zur Erreichung eines sinnvollen Ergebnisses gemeinsam durch (Heimlich, 2007). Frey (2002) beschreibt im Wesentlichen fünf Komponenten, die bei der Realisierung dieses Konzepts durchlaufen werden:

Was für die beiden eben skizzierten Modelle gilt, trifft weitgehend auf alle reformpädagogischen Unterrichtsmethoden zu: Sie sind kaum voneinander abzugrenzen. Ein Unterricht, bei dem die Schüler die Lernziele und -inhalte eigenständig auswählen, bei dem sie ihr Tempo (weitgehend) selbst bestimmen und bei dem sie der Lehrer lediglich dabei begleitet, ihre individuellen Lernwege mittels authentischer, lebensnaher Aufgaben zu entdecken und ihr Wissen unter Rückgriff auf persönliche Vorerfahrungen zu konstruieren, gilt wohl für alle reformpädagogischen Konzepte als typisch. Gleiches trifft auf eine strenge Ablehnung aller „geschlossenen“ Unterrichtsformen zu, bei denen die Lehrkraft das Geschehen steuert und kontrolliert. Es scheint somit keine Kriterien zu geben, anhand derer Offener oder Projektunterricht als solcher erkannt von anderen Ansätzen abgegrenzt werden kann (vgl. Hartke, 2002). Sowohl in der hiesigen als auch in der angloamerikanischen Fachwelt ist seit vielen Jahrzehnten das Aufkommen und Abebben verschiedener reformpädagogischer Modewellen zu beobachten. Das starke Bedürfnis, die Selbststeuerung und die Eigenverantwortlichkeit der Schüler in den Vordergrund zu rücken, taucht immer wieder in Form von Konzepten mit unterschiedlichen Bezeichnungen in der einschlägigen Literatur auf (Mayer, 2004). Als Beispiele für entsprechende Begriffe aus dem angloamerikanischen Raum können an dieser Stelle Open Education, Constructivist Approach, Discovery Method, Informal Education oder Problem- bzw. Inquiry-based Teaching genannt werden. Als Hauptgrund für den großen Zuspruch, den der Offene Unterricht, der Projektunterricht und viele andere reformpädagogischen Ansätze v.a. in der Praxis und auf politischer Ebene erfahren, nennen Lloyd, Forness und Kavale (1998) nicht ihre theoretische und empirische Fundiertheit oder ihre Effektivität, sondern ihr zugrundliegendes Menschenbild und ihre Ideologie: „...the ideas on which they are based or the words that are used to promote them have appeal – they look good and they feel right“ (Lloyd et al., 1998, 195).

2 Maßstäbe zur Bewertung des Offenen und des Projektunterrichts

Die Zielsetzung des Offenen und des Projektunterrichts besteht darin, Schülerinnen und Schüler beim Erwerb der Kulturtechniken zu unterstützen. Es geht hierbei im Sinne der Lernzieltaxonomie nach Bloom (1956) allerdings nicht um „bloßes“ Wissen, sondern um komplexere Anliegen wie das Verstehen, das Anwenden, das Analysieren, das Synthetisieren und das Evaluieren von Lerninhalten. Es sollen v.a. fächerübergeifende Problemlösekompetenzen herausgebildet werden. Des Weiteren besteht der Zweck des Offenen und des Projektunterrichts darin, dass die Kinder und Jugendlichen Autonomie und die Fähigkeit zur Selbstbestimmung entwickeln, dass sie sozial kompetenter werden und Teamfähigkeit ausbilden, dass sie Verantwortung übernehmen, dass sie sich selbst verwirklichen, dass sie kritikfähig werden und dass sie ihre Kreativität zur Entfaltung bringen. Hartke (2002) weist in diesem Kontext jedoch auf das Problem hin, dass sich in den Ausführungen der Vertreter reformpädagogischer Konzepte kaum Hinweise darauf finden, was nun konkret unter diesen übergeordneten, humanistischen Zielen verstanden werden soll: „Ist mit Selbstständigkeit beispielsweise ein selbstständiges Bearbeiten eines Lernprogramms oder eine eigenverantwortliche Organisation einer Schülerdemonstration gegen die Schulleitung gemeint oder beides?“ (ebd., 128). Abgesehen davon muss die kritische Frage gestellt werden, ob derartige reformpädagogische Unterrichtsformen Schülern mit sonderpädagogischem Förderbedarf tatsächlich besser dabei helfen Lerninhalte zu verinnerlichen als andere, stärker übungsbetonte, lehrkraftzentrierte und systematisch aufeinander aufbauende Vorgehensweisen.

Möchte man eine solche Antwort auf einer möglichst soliden empirischen Basis formulieren, so erscheint es zunächst angebracht, sich den herkömmlichen Prozess der wissenschaftlichen Erkenntnisgewinnung im Hinblick auf die Wirksamkeit von Maßnahmen vor Augen zu führen. Man unterscheidet hierbei üblicherweise zwischen Grundlagen-, Interventions- und Evaluationsforschung (vgl. Bortz & Döring, 2006). Die Grundlagenforschung hat die Entwicklung und Überprüfung von wissenschaftlichen Theorien zum Ziel. Es geht also primär darum, einen Sachverhalt oder ein Phänomen möglichst genau zu beschreiben, zu erklären und die formulierten Annahmen einem empirischen Test zu unterziehen. Problemstellungen aus der Grundlagenforschung mit pädagogischer Relevanz beziehen sich beispielsweise auf die menschliche Informationsverarbeitung. Einschlägige empirische Arbeiten haben seit der kognitiven Wende der 1960er Jahre eine Unmenge an Befunden hervorgebracht, die einen recht genauen Rahmen dafür bilden, wie Informationen enkodiert, konsolidiert und abgerufen werden. Von besonderer Bedeutung für die Instruktionsforschung sind dabei Befunde zum Problemlösen, der Entwicklung von Expertise, dem Fertigkeitserwerb und der Architektur und Funktionsweise des Gedächtnisses. Bei der „reinen“ Grundlagenforschung fragt man nicht nach dem praktischen Nutzen oder den Anwendungsmöglichkeiten der Ergebnisse. Allein die Tatsache, dass in einem bestimmten Bereich ein relatives Wissensvakuum existiert, ist Ansporn genug, um intensiv zu forschen.

Die Umsetzung von Erkenntnissen aus der Grundlagenforschung in ein therapeutisches Vorgehen, ein didaktisches Konzept, ein Trainingsprogramm o.ä. ist demgegenüber Aufgabe der Interventionsforschung. Geht es beispielsweise um Wege der praktischen Nutzbarmachung wissenschaftlicher Theorien für den Schulunterricht, so gilt es hierbei zu berücksichtigen, dass menschliches Lernen nicht beliebig ist. Es folgt den Möglichkeiten, die durch die Architektur des kognitiven Systems vorgegeben sind. Ein Unterrichtsansatz, der die Prozesse und die Art menschlicher Informationsverarbeitung ignoriert, kann kaum effektiv sein. Bei der Interventionsforschung wird also versucht, gut bestätigte Einzelannahmen aus der Grundlagenforschung in anwendungsbezogene Fragestellungen zu überführen und empirisch zu überprüfen. Dies geschieht jedoch unter eher „künstlichen“ als unter „realen“ Bedingungen. Wenn man also zu wissen glaubt, wie unser Gedächtnis im Grundsatz funktioniert, so kann man untersuchen, ob Lernbedingungen, die diesen Erkenntnissen entsprechen, zu besseren Resultaten führen als solche, die sich nicht mit der einschlägigen Befundlage vereinbaren lassen.

Hat man aus der Interventionsforschung ausreichend Wissen zu einzelnen Fragestellungen unter „Laborbedingungen“ gesammelt, kann man dieses zu alltagstauglichen Konzepten verarbeiten und deren Wirkungen in Alltagssituationen überprüfen. Dieser Aspekt ist die Aufgabe der Evaluationsforschung. Sie soll zeigen, inwieweit verschiedene Interventionsmethoden tatsächlich den selbst gesetzten Ansprüchen genügen. Mittlerweile liegen extrem viele kontrollierte Effektivitätsstudien und auch zahlreiche entsprechende Metaanalysen aus dem sonderpädagogischen Bereich vor, die differenziert darüber Auskunft geben können, welche Methoden bei Kindern mit welchem Förderbedarf und welchen Umständen am erfolgversprechendsten sind (siehe zusammenfassend Grünke, 2006a oder Walter, 2007). Darüber hinaus hat etwa Swanson (2001) differenziert herausgearbeitet, welche gemeinsamen Wirkfaktoren für die positiven Effekte aller erfolgversprechenden Modelle verantwortlich zu sein scheinen.

Im Folgenden soll nun analysiert werden, inwieweit der Offene und der Projektunterricht auf einer soliden grundlagenwissenschaftlichen Basis aufbauen, inwieweit ihre Konzeption im Sinne der Interventionsforschung empirisch geleitet ist und inwieweit Befunde aus der Evaluationsforschung bestätigen, dass sie die in sie gesetzten Erwartungen erfüllen. Die Ausführungen beziehen sich hierbei auf den Einsatz der beiden Ansätze bei Kindern und Jugendlichen mit einem sonderpädagogischen Förderbedarf, der sich in den meisten Fällen in einer eingeschränkten Lernfähigkeit äußert. Die Schwierigkeiten zeigen sich im Einklang mit Lauth und Grünke (2005) in konkreten Lernsituationen vorwiegend auf folgende Art und Weise: (1) mangelnde metakognitive Handlungsorganisation und -steuerung (der Schüler plant den Verlauf der Aufgabenlösung nicht gut genug und ist zu wenig in der Lage, den eigenen Lernprozess zu beobachten, zu kontrollieren und ggf. zu optimieren), (2) mangelnde Anwendung von Lern- und Gedächtnisstrategien (auch wenn das Vorgehen gut geplant und überwacht wird, so bedeutet dies noch nicht zwangsläufig, dass der Schüler gut genug dazu in der Lage ist, das Vorhaben mittels geeigneter Lern- und Gedächtnisstrategien auch zu verwirklichen), (3) mangelnde Motivation und/oder Konzentration (die Fähigkeiten zur metakognitiven Handlungssteuerung und -organisation sowie zur Anwendung von Lern- und Gedächtnisstrategien müssen letztendlich auch in ausreichendem Maße umgesetzt werden, um eine Aufgabe erfolgreich zu lösen) und/oder (4) mangelndes bereichsspezifisches Wissen (bei einer zu schmalen Wissensbasis können Schüler neuen Lernstoff nur schlecht verarbeiten und mit vorhandenen Erfahrungen verknüpfen). Abgesehen von den eben dargestellten Schwierigkeiten weist ein Großteil der jungen Menschen mit einem sonderpädagogischen Förderbedarf auch Auffälligkeiten im Sozialverhalten auf.

3 Stand der Forschung und empirische Absicherung

3.1 Wichtige Befunde aus der Grundlagenforschung

Relevante Erkenntnisse aus der Grundlagenforschung tragen einerseits zur Aufklärung der Hintergründe für erfolgreiches Lernen bei, andererseits liefern sie Hinweise darauf, wie Lerninhalte präsentiert werden müssen, um sie leicht verinnerlichen zu können. Der erste Aspekt wird unter der Überschrift „Bedingungen erfolgreichen Lernens auf Seiten der Lernenden“, der zweite unter der Rubrik „Bedingungen erfolgreichen Lernens auf Seiten der Aufgabenstruktur“ behandelt.

Bedingungen erfolgreichen Lernens auf Seiten der Lernenden

Lange Verweildauer von Informationen im Kurzzeitgedächtnis: Das in der Kognitionsforschung dominante Modell des menschlichen Gedächtnisses geht auf die Arbeiten von Atkinson und Shiffrin (1968) zurück. Die Autoren gliederten es in drei Module: das sensorische Gedächtnis, das Kurzzeitgedächtnis und das Langzeitgedächtnis. In diesem Beitrag soll auf das sensorische Gedächtnis, das v.a. bei Fragen zur Perzeption und Objekterkennung von Bedeutung ist, nicht näher eingegangen werden. Interessanter für das Verständnis von (schulischem) Lernen scheint vielmehr das Kurzzeitgedächtnis zu sein. Es speichert in Registern eine stark begrenzte Zahl an Informationen. Diese bilden den Teil des Gedächtnisses, der uns, zumindest im Sinne einer Zugänglichkeit, bewusst ist. Im ursprünglichen Modell von Atkinson und Shiffrin findet die Informationsverarbeitung seriell statt, Perzeptionen werden also zunächst im sensorischen Gedächtnis gespeichert, dann dem Kurzzeitgedächtnis übergeben, um schließlich dauerhaft im Langzeitgedächtnis abgelegt zu werden. Eine entscheidende Frage ist nun, unter welchen Bedingungen eine langfristige Speicherung der Informationen aus dem Kurzzeitgedächtnis gelingt. Im Modell von Atkinson und Shiffrin ist die Wahrscheinlichkeit für ein solches dauerhaftes Memorieren durch die Verweildauer im Kurzzeitgedächtnis bedingt. Je länger also eine Information im Kurzzeitspeicher aufrechterhalten wird, umso eher wird sie dauerhaft gespeichert. Wie die Namensgebung aber schon verrät, verläuft das Vergessen (der Spurenzerfall) im Kurzzeitgedächtnis recht schnell. Peterson und Peterson wiesen bereits 1959 nach, dass die mittlere Verweildauer dort etwa 30 Sekunden beträgt. Hinzu kommt die begrenzte Anzahl an Registerplätzen, also Einheiten, die memoriert werden können. Auf den frühen Arbeiten von Ebbinghaus (1913; 1992; 1885) aufbauend zeigte Miller (1956), dass die meisten Erwachsenen in der Lage sind, sieben plus-minus zwei Informationen („magical number seven“) zugleich zu behalten. Eine dieser fünf bis neun Einheiten kann etwa aus einer einzelnen Zahl oder einem komplexen Schema zur Lösung eines bestimmten Gleichungstyps bestehen. Kommen dann weitere Informationen hinzu, muss zunächst ein Registerplatz freigemacht werden. Eine dauerhafte Speicherung von Inhalten wird somit umso schwieriger, je mehr Einheiten zugleich abzulegen sind.

Sinnvolles Kategorisieren von Informationen im Kurzzeitgedächtnis: Die Kapazität des Kurzzeitgedächtnisses von sieben plus-minus zwei Einheiten lässt sich durch pädagogische Maßnahmen so gut wie nicht beeinflussen. Seine Aufnahmefähigkeit steigt reifungsbedingt bis in die Pubertät hinein an und bleibt bei einem gesunden Menschen bis ins hohe Alter konstant (Anderson & Funke, 2007; Mähler & Hasselhorn, 2001). Die vorhandene Kapazität lässt sich jedoch unterschiedlich gut nutzen. Werden mehrere Informationen zu einer Einheit zusammengefasst, so können faktisch mehr Inhalte ins Langzeitgedächtnis gelangen. Versucht man beispielsweise, sich die Ziffern einer Telefonnummer nicht einzeln, sondern in Form so genannter Chunks zu merken, so erleichtert dies sowohl die Abspeicherung als auch den späteren Abruf. Lautet die Rufnummer etwa 651 860, so lässt sie sich in die Zahl zerlegen, die momentan für das reguläre Rentenalter steht und in die Zahl, die das Gründungsjahr des Fußballclubs 1860 München markiert. Somit wären nur zwei der zur Verfügung stehenden Einheiten „belegt“. Wem es gelingt, Zusammenhänge schnell zu erfassen und die Komplexität von Informationen auf ein überschaubares Maß an Kategorien zu reduzieren, der kann die Möglichkeiten seines Kurzzeitgedächtnisses besser ausnutzen als ein Mensch, dem dies weniger gut gelingt (Hasselhorn, 1996).

Inneres Wiederholen der Informationen im Kurzzeitgedächtnis: Um die jeweiligen Informationen im Gedächtnis behalten zu können, bedarf es eines Prozesses, mittels dessen die Dauer der Verfügbarkeit im Kurzzeitgedächtnis verlängerbar ist. Ein solcher Prozess ist das innere Wiederholen der Informationen, die aufrecht erhalten werden sollen (Rehearsal) (Atkinson & Shiffrin, 1971). Durch lautes Wiederholen wird mittels Perzeption der eigenen Sprache die Information neu ins Kurzzeitgedächtnis eingeführt. Beim stillen Wiederholen ist es die Vorstellung, die Apperzeption, die die Information erneut ins Gedächtnis einspeist. Entsprechend des Modells ist die Methode der Wahl zur langfristigen Speicherung von Informationen das häufige Wiederholen (siehe Shepard & Teghtsoonian, 1961). Die zeitlichen Intervalle zwischen den Wiederholungen dürfen dabei nicht zu lang werden und die Information muss gleichförmig bleiben, darf also keinen Paraphrasierungen, Erläuterungen und Variationen unterliegen. In der Alltagssprache wird dies als Auswendiglernen bezeichnet.

Bedeutungshaltige Verarbeitung von Informationen im Kurzzeitgedächtnis: Dass Rehearsal zwar ein wichtiger, aber nicht der einzig bedeutende Faktor ist, der die Konsolidierung im Langzeitgedächtnis bedingt, wurde u.a. durch eine Untersuchung von Glenberg (1977) aufgezeigt. Er konnte dokumentieren, dass die Memorierungsdauer bei inzidentellen (unbeabsichtigten) Lernsituationen keine signifikanten Effekte auf die Wiedergabeleistung nach sich zieht. Craik und Lockhart (1972) proklamierten in ihrem Modell der Verarbeitungstiefe, dass sich die menschliche Informationsverarbeitung auf das Verstehen der Umwelt ausrichtet und dass die Konsolidierung im Langzeitgedächtnis umso stärker ist, je mehr die Informationen während der Enkodierung semantisch angereichert werden. Bei der Verarbeitung von Wörtern differenzieren Craik und Lockhart in ihrem Modell drei Ebenen unterschiedlicher Tiefe: eine strukturelle (diese betrifft die physische Erscheinung: wie sieht das Wort aus?), eine phonemische (diese betrifft den Klang des Wortes) und eine semantische (dies betrifft die Bedeutung des Wortes). Rehearsal findet nur dann statt, wenn Informationen auf der phonemischen Ebene verarbeitet werden. Craik und Tulving (1975) validierten das Modell empirisch. Sie ließen Probanden Wörter nach bestimmten Kriterien beurteilen und führten im Anschluss einen Gedächtnistest durch. Dabei variierten sie in drei Versuchsgruppen die Tiefe, mit der die Wörter bei der Beurteilung verarbeitet wurden. In einer Bedingung mussten die Teilnehmer lediglich entscheiden, ob das Wort in Groß- oder Kleinbuchstaben geschrieben ist, in einer zweiten Bedingung mussten reimende Worte zu dem präsentierten Wort generiert werden und in der Bedingung mit der höchsten Verarbeitungstiefe mussten die Versuchspersonen beurteilen, ob das Wort in einem bestimmten Satzkontext sinnvoll ist. Die Ergebnisse dieser Studie belegen, dass mit zunehmender Verarbeitungstiefe die dargebotenen Wörter zunehmend gut im Arbeitsgedächtnis abgespeichert werden und anschließend abrufbar sind.

Trotz der gut replizierbaren Befunde wurde eingehende Kritik an dem Modell der Verarbeitungstiefe angebracht. Zum einen könnte die erfolgreichere Kodierung bei semantischer Verarbeitung nicht auf die Verarbeitungstiefe zurückgehen, sondern durch die erhöhte Anstrengung bei der Kodierung erklärt werden (z. B. Tyler et al., 1979). Zum anderen geht eine höhere Verarbeitungstiefe eher mit einer längeren Verarbeitungszeit einher. Beide Dimensionen sind häufig miteinander konfundiert: Viele Befunde ließen sich alternativ auch durch die Dauer der Aufmerksamkeit erklären, mit der die bearbeitete Information versehen wurde.

Bedingungen erfolgreichen Lernens auf Seiten der Aufgabenstruktur

Wenig Komplexität der Informationen und wenig Wechselbeziehungen untereinander: Baddeley und Hitch (1974; Baddeley, 1986) erweiterten das Gedächtnismodell von Atkinson und Shiffrin (1968). Sie ersetzen das Modul des Kurzzeitgedächtnisses durch das Arbeitsgedächtnis, das deutlich komplexer strukturiert ist und in enger Wechselwirkung zum Langzeitgedächtnis steht. Das Arbeitsgedächtnis setzt sich aus einer zentralen Exekutive und mindestens zwei Hilfssystemen zusammen. Die zentrale Exekutive übernimmt Steuerungs- und Kontrollfunktionen bei der Informationsverarbeitung. Dazu gehört die

  1. Auslenkung von Aufmerksamkeit auf bedeutende Informationen,
  2. die Hemmung irrelevanter Information,
  3. das Zusammenfassen einzelner Informationseinheiten zu bedeutungshaltigen übergeordneten Entitäten im Austausch mit dem Arbeitsgedächtnis (das chunking) und
  4. die Zuordnung der Informationen in modalitätsspezifische Hilfssysteme.

Die Hilfssysteme sind funktional nach der Modalität der Perzeption eingeteilt. Im Modell von Baddeley (1986) ist dies für die visuelle Modalität der räumlichvisuelle Notizblock und für die auditorische Modalität die artikulatorische Schleife. Die zentrale Exekutive ist für das Verständnis von schulischem Lernen von besonderer Bedeutung. Durch diese Modellierung rückt das Konzept der Aufmerksamkeit in den Fokus der Informationsverarbeitung, sowie die Frage nach dem Austausch von Informationen zwischen Langzeitgedächtnis und Kurzzeitgedächtnis. Vor diesem Hintergrund entwickelte Sweller (1988) das zentrale Modell des cognitive load. Im Mittelpunkt dieses Konzepts steht die kognitive Belastung, der das Inforationsverarbeitungssystem beim Ausführen einer bestimmten Aufgabe ausgesetzt ist. Sweller unterteilt diesen Load zunächst in zwei und später in drei Komponenten, die im Folgenden erläutert werden.

Der intrinsic load (die innewohnende Belastung) ist die Komplexität der Wechselbeziehungen von Informationen, die beim Lernen miteinander verknüpft werden müssen. Die niedrigste intrinsic load haben Aufgaben, bei denen lediglich zwei Informationen assoziiert werden müssen, wie dies z. B. beim reinen Vokabellernen der Fall ist. Die Belastung ist hier gering, da lediglich die zwei Informationen im Arbeitsgedächtnis zu aktivieren und miteinander zu verknüpfen sind. Je größer aber die Abhängigkeiten und die Anzahl zu lernender Elemente wird, die es bei der Bearbeitung einer Aufgabe miteinander zu verbinden gilt, umso höher ist die kognitive Belastung (Halford et al., 1986; Maybery et al., 1986) und der instrinsic load der Aufgabe. Dies sei anhand des folgenden Beispiels demonstriert: a > b und b > c. Welches Element ist das Größte? Hier ist der intrinsic load größer als bei einer reinen Assoziation zweier Vokabeln, da zur Beantwortung der Aufgabe sowohl zwei Aussagen über Größenverhältnisse im Gedächtnis aktiviert werden müssen, als auch beide Verhältnisse miteinander in Beziehung zu setzen sind.

Wenig irrelevante Zusatzinformationen: Als zweite Komponente führt Sweller den extraneous load (die irrelevante Belastung) an. Dieser wird bestimmt durch die Art der Instruktion einer Aufgabe. Je mehr irrelevante Zusatzinformationen zu der eigentlichen Zielaufgabe gegeben werden, desto höher ist der extraneous load. Etwa ließe sich das zuvor angebrachte Beispiel auch folgendermaßen formulieren: a + 17 > 22 + (b – 5) und b + 3 > 4: 2 + c + 1. Welches Element ist das Größte? Der extraneous load ist bei dieser Aufgabe höher als beim ersten Beispiel.

Neue Informationen mit bereits bekannten Inhalte in Verbindung bringen: Die dritte Komponente in Swellers Modell ist der germane load (die passende Belastung). Dieser ist die Anstrengung, die benötigt wird, um das zu Lernende in Form eines Schemas im Langzeitgedächtnis zu speichern. Je einfacher die zu memorierenden Informationen an bisherige Wissensstrukturen im Langzeitgedächtnis des Lerners angebunden werden können, umso niedriger ist der germane load. So ließe sich etwa die zuvor formulierte Aufgabe durch eine Visualisierung einfacher verstehen (siehe Abbildung 1). Eine solche Erleichterung entsteht dadurch, dass Größenrelationen auf visueller Ebene bei den meisten Kindern im Vorschulalter bereits überlernt sind. Die Aufgabe lässt sich dann perzeptuell lösen. Ein weiteres Beispiel sind Informationsanreicherungen durch Eselsbrücken (z. B. Nie Ohne Seife Waschen zur Memorierung der Himmelsrichtungen). Die willkürliche Anordnung N, O, S, W wird hierbei durch die semantische Bedeutung des Satzes in eine nicht beliebige Reihenfolge gebracht.

img

Abb. 1: Visualisierung einer Aufgabe

Die drei Belastungsfaktoren im cognitive load Modell verhalten sich additiv zueinander: Die Summe der drei Belastungen ergibt die Gesamtbelastung. Wenn die Belastung in einer Komponente herabgesetzt werden kann, so bleiben mehr Ressourcen für die anderen Komponenten übrig. Dabei ist effektives Lernen im Sinne dauerhafter Speicherung von Informationen im Langzeitgedächtnis nur möglich, wenn die Gesamtbelastung nicht die Kapazität des Lerners überschreitet.

Insgesamt lässt sich an dieser Stelle konstatieren, dass sich nur an wenigen Stellen Verbindungen zwischen den eben skizzierten Befunden aus der Grundlagenforschung und den Annahmen erkennen lassen, die dem Offenen oder dem Projektunterricht zugrunde liegen. Als Beispiel für eine Vereinbarkeit lässt sich allerdings das Bemühen im Rahmen der hier thematisierten reformpädagogischen Ansätze anführen, mittels einer starken Handlungsorientierung und einer Berücksichtigung der Lebenswelt der Kinder die neu zu lernenden Inhalte mit bereits Bekanntem zu verknüpfen. Beim Ansatz von Montessori, der oftmals als Beispiel für ein offenes Unterrichtskonzept angeführt wird, besteht ein wichtiges Grundprinzip in der Isolation der Schwierigkeiten. Die Lernmaterialien sind hier so gestaltet, dass jeweils nur ein ganz spezifischer Inhalt im Mittelpunkt steht. Des Weiteren spielt in der Montessori-Pädagogik die ausgiebige Wiederholung von Übungen eine zentrale Rolle. Schließlich sind viele Materialien danach ausgelegt, beim Kind die Fähigkeit zum Strukturieren, Klassifizieren und Kategorisieren auszubilden (Lillard, 2007). Allerdings muss hier differenzierend angemerkt werden, dass der Ansatz nach Montessori gerade hinsichtlich der genannten Kriterien nicht unbedingt als repräsentativ für Offene Unterrichtsmethoden angesehen werden kann. Der Wissenserwerb geschieht relativ gelenkt und weniger „konstruktivistisch“ als es bei den meisten reformpädagogischen Modellen der Fall ist.

3.2 Wichtige Konsequenzen für die Interventionsforschung

Im Folgenden sollen aus den bisher dargestellten Befunden der Grundlagenforschung Konsequenzen für die Gestaltung von effektiven Unterrichtsmethoden abgeleitet werden.

Auf Seiten des Lerners ergeben sich aus den Erkenntnissen über Aufbau und Funktion des Gedächtnissystems einige grundlegende Anforderungen an Instruktionsmethoden:

Wenige Informationen innerhalb einer Lerneinheit erhöhen den Lernerfolg

Die Kapazität der Aufnahme neuer Informationen ist begrenzt. Sollen komplexe Zusammenhänge vermittelt werden, so sollten diese in kleine, in sich geschlossene Sinneinheiten eingeteilt werden, die nacheinander vermittelt werden. Nimmt man hinzu, dass Lernende auch immer noch Lernkontexte und Aufgabenstellungen im Gedächtnis aktiv halten müssen, können schon mehr als drei neue Informationen zur gleichen Zeit das Gedächtnis überfordern.

Wiederholungen erhöhen den Lernerfolg

Wiederholungen kommt eine wichtige Funktion bei der Konsolidierung von Wissen zu. Damit ist hier die identische Darbietung des zu lernenden in kurzen Zeitabständen gemeint, nicht das Paraphrasieren oder das Darstellen an einem alternativen Beispiel. Letztere Wiederholungsmethoden erhöhen die Belastung des Kurzzeitgedächtnisses und können dadurch einen ungewünschten negativen Effekt nach sich ziehen.

Bedeutungshaltige Verarbeitung erhöht den Lernerfolg

Neues Wissen wird besser gelernt, wenn es mit auf die Bedeutung bezogenen Aufgaben bearbeitet wird. Vokabeln werden z. B. besser memoriert, wenn sie nach Bedeutungskontexten gruppiert werden müssen, anstatt nach Worttyp. Farbe und Form als Ordnungsmerkmal, wie sie gerne in bunten Schulbüchern eingesetzt werden um das Lernen zu erleichtern, bergen die Gefahr, die Enkodierung auf eine niedrige Verarbeitungstiefe zu drücken und damit die dauerhafte Memorierung zu verschlechtern.

Selbst generiertes Wissen wird besser erinnert als vorgegebenes

Werden die zu memorierenden Informationen von dem Lernenden selbst aus dem Gedächtnis abgerufen, dann werden diese in dem neuen Lernkontext besser gelernt. Behandelt die Lehrkraft in der Schule z. B. das Thema eierlegende vs. lebendgebärdende Tiere, dann wird dies besser von den Schülern gelernt, wenn diese selbst die Exemplare zu diesen beiden Kategorien benennen, als wenn ihnen eine Liste mit den Tieren vorgelegt wird. Dieser Vorteil ist dann nutzbar, wenn die Lernenden bereits über reichlich Vorwissen verfügen. Liegt allerdings kein Wissen bei dem Schüler vor, dann lässt sich dieser Vorteil nicht nutzen. Die Befunde zum Generierungseffekt auf das Selbstentdecken von Zusammenhängen und selbst generierte Inferenzen zu beziehen, wäre eine Übergeneralisierung der Befunde.

Wie sich Aufgabenstruktur und die kognitiven Kapazitäten der Lerner zueinander verhalten, stellt die weiter oben beschriebene cognitive load theory dar. Welche Implikationen enthält diese für die Gestaltung von Instruktionssituationen? Entscheidend ist aus Sicht der cognitive load theory, möglichst viele kognitive Ressourcen für die eigentliche Lernaufgabe freizusetzen, also alle ungünstigen Belastungen zu verringern und günstige zu befördern. Wie kann dies erreicht werden? Per Definition kann der intrinsic load einer Aufgabe nicht beeinflusst werden, da er direkt von der zu lernenden Entität abhängt. Lediglich das Lernziel bzw. der Lerninhalt selbst kann von einem Lehrer individuell der Kapazität des Lerners angepasst werden, um diesen nicht zu überfordern. Anders verhält es sich mit dem extraneous und der germane load: Optimale Instruktionen minimieren den extraneous load und erhöhen den germane load. Dadurch werden möglichst viele kognitive Ressourcen zur Aufgabenbearbeitung und Informationsspeicherung freigesetzt.

Nach der cognitive load Theorie wird also dann am erfolgreichsten gelernt, wenn die zu lernenden Zusammenhänge möglichst klar und direkt für den Lerner zu erkennen sind. Dazu bedarf es von Seiten des Lehrenden einer genauen Vorstellung über das, was von dem Lernenden in einer Instruktionsituation gelernt werden soll. Aufgrund der Begrenztheit kognitiver Ressourcen sinkt der Lernerfolg mit der Anzahl parallel zu lernender Informationen. Eine Lerneinheit etwa, die zugleich verschiedene Inhalte vermitteln will, läuft Gefahr, die Lernsituation für den Lernenden so komplex zu gestalten, dass für die erfolgreiche Schemabildung und langfristige Speicherung des Gelernten kaum Ressourcen übrig bleiben.

Dies zieht eine Reihe von Implikationen für die Gestaltung von Offenem Unterricht nach sich. So ist problemorientiertes Lernen von einem hohen extraneous load gekennzeichnet (Sweller, 1988). Bevor die Lernenden den eigentlich zu lernenden Sachverhalt erkannt haben, sind sie mit der Problemlösung befasst. Sie müssen also Suchstrategien durch den Problemraum aktivieren und anwenden (z. B. mittels heuristischer Prozesse oder Mittel-Ziel Analysen) (Sweller, 1994). Das Finden und die Anwendung solcher Lösungsstrategien sind hoch anspruchsvolle kognitive Verarbeitungsprozesse. Dabei bleiben wenige Ressourcen zur erfolgreichen Verarbeitung der eigentlichen Lernaufgabe übrig. Was beim Problemorientierten Lernen demnach gelernt wird, ist vor allem die Anwendung von Problemlösungsstrategien, nicht aber der am Ende der Problemlösung stehende Lerninhalt (ebd., 1994). Nun kann es sein, dass Lehrende diese Problemlösefähigkeit als zentrales Lernziel ansehen (Kuhn, 2007). Die entscheidende Erkenntnis aus den bisherigen Ausführungen besteht aber darin, dass das Lernen von Problemlösestrategien und das Lernen z.B. mathematischer Zusammenhänge zwei unterschiedliche Lernziele sind. Der Versuch beides zugleich zu vermitteln scheitert an einer Überforderung des Lernenden. Und eine solche Überforderung ist umso eher erreicht, je geringer die kognitiven Kapazitäten und das Vorwissen des Lernenden sind.

Im Hinblick auf Instruktionsformen, deren Ziel es ist, möglichst keinerlei Vorgabe zu machen (z. B. konstruktivistische Instruktionstheorien), ergibt sich ebenfalls ein hoher extraneous load. Die Formulierung eigener Lernziele und die Erarbeitung und Aufrechterhaltung von Handlungsplänen zur Erreichung dieser Ziele sind ebenfalls hoch anspruchsvolle Tätigkeiten, die das kognitive System der meisten Lerner vollständig auslasten. Auch hier mag es wieder ein wünschenswertes pädagogisches Ziel sein, selbstständiges, planvolles und autonomes Lernen zu initiieren. Dabei wird aber die Lehr- und Lernmethode zum eigentlichen Lernziel und konkrete Lerninhalte können in diesem Kontext nur schwer erworben werden. Paas, Camp und Rikers (2001) weisen allerdings darauf hin, dass zieloffene Instruktionen Mittel-Ziel-Analysen der Lernenden verhindern und daher eine niedrige extraneous load besitzen (Van Merriënboer et al., 2003). Dabei gehen die Autoren jedoch von einer durch direkte Instruktion geprägten Unterrichtssituation aus, bei der der Lehrende gezielt problemfreie Aufgaben bearbeitet, um komplexe Ist-Soll Zustandsanalysen des Lernenden zu vermeiden.

Neuere Entwicklungen in der cognitive load Theorie haben vor allem die Interaktion zwischen dem Lernenden und der zu lernenden Aufgabe in den Fokus gestellt (Paas et al., 2003). Dieser dynamische Ansatz wurde durch verschiedene empirische Befunde vorangetrieben, die zeigen, dass die Wirkung von Instruktionsmethoden von den kognitiven Kapazitäten und der Expertise des Lernenden abhängig ist. So besteht die wesentliche Aussage des expertise revearsal effects (siehe Kalyuga et al., 2003) darin, dass ausgearbeitete Beispielaufgaben, die vor allem bei schwächeren Schülern eine recht hohe Lernrate aufweisen, bei stärkeren Schülern zu schlechterem Lernergebnissen führen können. Gerdes (1997) fand heraus, dass Personen mit viel Vorwissen von einer selbst gesteuerten Hypertext-Lernumgebung im Vergleich zu Lernern mit wenig Vorwissen profitieren. Allerdings wird der gleiche Lerninhalt in einem linearen vorstrukturierten Lehrbuchtext von Lernern mit wenig Vorwissen besser gelernt als von Personen mit viel Vorwissen. Dies kann durch einen hohen extraneous load für Lerner mit einem großen Vorwissen erklärt werden. Dadurch entsteht die zusätzliche Belastung für diese Lerner, die ausgearbeiteten Lernaufgaben in bisherige Wissenstrukturen zu integrieren.

Aus dieser Erkenntnis heraus hat sich das Konzept des Scaffolding (das Erstellen eines Baugerüsts) entwickelt. Der Grundgedanke besteht darin, dass Lerner immer an individuell spezifischen Stellen ihrer Kompetenz entsprechende Hilfestellungen und Aufgaben benötigen. Diese Hilfestellungen entwickeln sich hierarchisch von vielen Vorgaben bei niedriger Kompetenz zu wenigen Vorgaben bei hoher Kompetenz und von Aufgaben niedriger Komplexität zu Aufgabe hoher Komplexität (Van Merriënboer et al., 2003). Instruktionen setzen demnach immer im Sinne Vygotskys (1987) an der Zone der nächsten Entwicklung an.

Fassen wir das bis hierhin beschriebene in einige handlungsleitende Forderungen zusammen:

Schwache Lerner brauchen viele Vorgaben und Hilfestellungen um erfolgreich zu lernen

Erfolgreiches selbstreguliertes Lernen ist anspruchsvoll und erfordert einen großen Teil der kognitiven Kapazitäten des Lernenden. Vorgaben und Hilfestellungen entlasten das kognitive System und setzen Ressourcen für den eigentlichen Lerninhalt frei. Gerade schwache Lerner mit geringeren kognitiven Ressourcen profitieren daher von Vorgaben.

Lernen ist erfolgreich, wenn die Komplexität von Lerninhalten an das kognitive Niveau und das Vorwissen des Lerners angepasst wird

Der intrinsic load einer Lernsituation ergibt sich aus dem Vorwissen eines Lerners. Ist die Komplexität einer Aufgabe zu hoch, dann sinkt die Kapazität, die für die erfolgreiche Schemabildung und langfristigen Konsolidierung des Wissens notwendig ist und dadurch ist der Lernerfolg gefährdet.

Unabhängige Lerninhalte werden effektiver seriell und nicht parallel vermittelt

Das gleichzeitige Darbieten verschiedener Lerninhalte (wenn etwa bei Textaufgaben sowohl Lesen als auch Rechnen geübt oder im Sachunterricht biologisches Wissen mit Schreibübungen verknüpft wird) steigert den extraneous load einer Lernsituation erheblich. Der Lerner hat die Schwierigkeit, die Konfundierung der Lerninhalte selbst zu entwirren, damit es ihm gelingen kann, unabhängige Schemata zu konstruieren und das neu gelernte Wissen an bisheriges Wissen anzubinden. Daher ist es sinnvoller, Lerninhalte nacheinander zu vermitteln.

Lernen verläuft erfolgreicher (bei schwachen Lernern), wenn Lernziele und Instruktionsmethoden vom Lehrenden klar vorgegeben werden