Lernen wurde im 20. Jahrhundert zunehmend gleichermaßen zur sozialen Verheißung wie zum wissenschaftlichen Untersuchungsgegenstand und prägt weiterhin das Selbstverständnis westlicher Gesellschaften. Prozesse der Verwissenschaftlichung, Quantifizierung und Technisierung des Lernens führten zu einem fundamentalen Bruch mit dem vorherigen humanistisch-anthropozentrischen Verständnis des Lernens und zogen eine Refokussierung auf Ko-Konstruktionen von Lernen und Technik nach sich, die auch gegenwärtig in digitalen Gesellschaften, primär bezüglich des E-Learnings und des Maschinellen Lernens, kontrovers diskutiert werden. Mit diesen einleitenden Betrachtungen führte KEVIN LIGGIERI (Darmstadt) in das Thema der interdisziplinären Tagung ein und wies darauf hin, dass diese zentralen historischen Prozesse trotz ihrer gesellschaftlichen Relevanz bisher kaum erforscht sind. Mithin sei es das Ziel dieser Tagung, nach einer historisch-systematischen Perspektive eines quantifizierten Lernens zu fragen und die Genese heute weiterhin einflussreicher Lernkonzepte zu rekonstruieren.
ANDREAS KAMINSKI (Darmstadt) widmete sich in dem ersten Beitrag den unterschiedlichen Facetten der systemischen und historischen Rolle von Maßstäben in Bezug auf Lernen und der Prüfung von Lernerfolgen. Er erörterte die zentrale praxeologische Funktion von Maßstäben für die Beschreibung, Bewertung und das gesellschaftliche Verständnis einer Handlung im Allgemeinen. Am Beispiel des sogenannten Flynn-Effekts, der Steigerung des durchschnittlichen IQ-Wertes in westlichen Industrieländern bis in die 1990er-Jahre – bei seit den 1930er-Jahren gleichgebliebenen Maßstäben, demonstrierte Kaminski die wechselseitige Interaktion zwischen Subjekt und Maßstab. Diese unterscheide die Messung von Subjekten kategorial von der Messung von Objekten und bedeute, dass ein angelegter Maßstab potenziell das diesbezügliche Verhalten und die Selbstwahrnehmung des Subjektes verändern könne. Mithin sei der Flynn-Effekt primär auf eine solche wechselseitige Interaktion zwischen Maßstab und Subjekt zurückzuführen, da Lernformen gezielter entsprechend der bekannten Prüfungsmaßstäbe ausgerichtet werden konnten sowie Schüler:innen auch zunehmend vertrauter mit der Psychotechnik der Intelligenztests geworden seien und sich daher stärker den Maßstäben entsprechend hätten verhalten können. Folglich prädeterminierten die Prüfungsmaßstäbe die korrespondierenden Lernformen und Wissensformen, weshalb für die Aneignung, Bildung und Reproduktion von Wissen den im Lernprozess relevanten Prüfungsmaßstäben selbst eine normative Rolle zukommt. Hieran anknüpfend skizzierte Kaminski die Entwicklung psychometrischer Tests im 20. Jahrhundert von der teils sozialdarwinistisch geprägten Vorstellung der Notwendigkeit einer „ökologischen“ Selektion von Arbeitskräften nach umweltspezifischen Vorprägungen bis zu der seit den 1970er-Jahren zunehmend selbstoptimierungsorientierten „Kompetenzlehre“.
Aus einer medienpädagogischen Perspektive, thematisierte NINA GRÜNBERGER (Darmstadt) in dem zweiten Vortrag die „Relevanz der Ungleichheit von Lernen und Bildung in der Digitalität“. Hierzu hob sie zunächst die Notwendigkeit einer, wenn auch nicht immer einfachen, begrifflichen Differenzierung zwischen den Lern- und Bildungsbegriffen hervor. Der allgemeine Lernbegriff sei im vergangenen Jahrhundert empiristischer und, durch den Einfluss der Psychologie, zunehmend zielorientiert konnotiert worden. Dagegen befasse die Pädagogik sich ziel- und prozessorientiert mit dem Lernen und reflektiere diesbezügliche normative Zielsetzungen und Wertungen zumindest kritisch. Im Rahmen des pädagogischen Ziels, autonom denkende und handelnde Menschen, anstatt bloß reagierender Organismen zu erziehen, sei Lernen als „Umweltanpassung“, das heißt als die Fähigkeit der Umsetzung gespeicherten „Könnens“ nach wechselnden Umweltbedingungen, zu verstehen. Zudem bedeute Bildung heute primär das selbstständige Hervorbringen subjektiver Selbstreflexion der Umwelt. Folglich stelle die Begegnung mit und Förderung von Pluralität in Zeiten sozialer Beschleunigung ein zentrales Bildungsziel dar, auch wenn die traditionelle, humboldtsche Vorstellung von der Bildung als humanistischen Endzweck des Menschen weiterhin wirkungsvoll bliebe. Grünberger führte aus, dass die Digitalität und die allgemein beschleunigten, schwer zu antizipierenden, technologisch-gesellschaftlichen Entwicklungen eine besondere pädagogische Herausforderung darstellten. Verschiedene Erziehungswissenschaftler:innen kritisierten mittlerweile digitale Infrastrukturen, da diese häufig Lernprozesse zu eindimensional konzipierten. Abschließend appellierte Grünberger für eine eingehende diesbezügliche Diskussion und einen kritischen pädagogischen Umgang mit digitalen Medien, der nonkonformistische Nutzungsmöglichkeiten und Alternativen aufzeigen sollte.
In seinem Beitrag zum Einfluss der Computerisierung im Bildungswesen und der Gesellschaft zwischen 1970 und 1990 stellte MICHAEL GEISS (Zürich) die zeitgeschichtliche Bedeutung dieser historischen Entwicklungsphase heraus, ohne die parallele und spätere Wandlungen im Bildungswesen vieler westlicher Länder nicht verständlich seien. Während in den USA bereits in den 1960er-Jahren teils Oberschulen an Computernetzwerke angeschlossen worden waren, gewannen der Computer und die computerbezogene Wissensvermittlung erst ab den 1970er-Jahren in westeuropäischen Bildungseinrichtungen an Relevanz. Diese Entwicklung sei maßgeblich auf den wirtschaftlichen Schock im Rahmen der Ölkrise, sowie auf die damals populäre Hoffnung in Mikroprozessoren als zukunftstechnologische Allheilmittel zurückzuführen. In der BRD stellten anfangs Banken und Versicherungen selbst Weiterbildungskurse für ihre meist weiblichen Computeroperateur:innen Seit den 1980er-Jahren hielten Mikrocomputer Einzug in deutsche Schulen. Diese besaßen aber mehrheitlich eine geringe Leistungsfähigkeit und oft mangelte es an klaren Vorstellungen und Konzepten, was und wie die Schüler:innen daran lernen sollten. Im Vereinigten Königreich und Teilen der Schweiz hatte man zeitweise jeweils aus öffentlichen Mitteln nationale Bildungscomputer und Programme entwickelt. Dennoch gingen etwa in der Schweiz auch viele Entscheidungen bezüglich der Schulcomputerisierung auf engagierte Befürworter:innen in der öffentlichen Verwaltung und auf Lobbyismus der Firmen zurück. Zunehmend den Erwachsenen aus ihrer Arbeitswelt vertraut, habe sich die Verbreitung von Computern in den Schulen politisch effektiv als Zukunftsinvestition rechtfertigen lassen. Zu diesem Zweck ging man seit den 1990er-Jahren vermehrt Kooperationen mit Computerherstellern und Programmentwicklern ein. Mithin gehe Geiss zufolge die jetzige Dominanz digitaler, oft plattformabhängiger Bildungsangebote durch kommerzielle, private Anbieter auf diese historischen Entwicklungen zurück.
HANS-JÖRG RHEINBERGER (Berlin) hielt die Keynote zu der wissenschaftshistorischen Bedeutung des Experiments als „epistemischer Lernprozess“. Eingangs zitierte er aus Gaston Bachelards, 1938 erschienener, La formation de l'esprit scientifique: contribution à une psychanalyse de la connaissance objective1 und erläuterte die für das Verständnis der Bachelard‘schen Wissenschaftsphilosophie zentralen Begriffe des „epistemologischen Hindernisses“ und des „epistemologischen Bruchs“. Bachelards erkenntnistheoretischem Konzept zufolge, sei tatsächlich neuer Erkenntnisgewinn immer kontraintuitiv. Demnach könne wirklich neue wissenschaftliche Erkenntnis nur durch einen epistemologischen Bruch mit orthodoxen Wissensvorstellungen, die auf einem „sedimentierten“ Erkenntnisstand beruhten, erzeugt werden. Laut Rheinberger beschrieben Bachelards theoretische Ausführungen zur Überwindung solcher erkenntnistheoretischen Hindernisse zutreffend die epistemologische Absicht wissenschaftlicher Experimente. Mithin sei das Ziel eines jeden Experiments die Generierung von Wissen über einen bisher nicht hinreichend definierten Untersuchungsgegenstand, also die Erzeugung eines epistemologischen Bruchs. Allerdings könne insbesondere die versehentliche Übertragung der Determiniertheit des Experiments auf den Untersuchungsgegenstand zu Problemen führen. Auf den Soziologen Robert Merton rekurrierend erklärte Rheinberger, dass das im Zentrum wissenschaftlicher Forschung stehende „spezifizierte Nichtwissen“ das Experiment als Vorrichtung zur Untersuchung des epistemischen Dings benötige. Für den erfolgreichen Gewinn nicht antizipierten Wissens, welches in besonderem Maße etabliertes Wissen konfrontiert, bräuchte es hingegen eigentlich eine „Serendipitätsvorrichtung“, denn Unerwartetes würde bei Experimentiervorgängen oft als unwesentlicher Störfaktor abgetan, ohne dass es zu einem „epistemologischen Akt“ kommt. Hat einmal ein epistemologischer Bruch, stattgefunden erfordere dieser automatisch eine entsprechende Neuausrichtung der Forschung. Folglich liegt die zentrale Relevanz der Wissenschaftsgeschichte nach Rheinberger in der Feststellung und Untersuchung historisch epistemologischer Hindernisse. Diese demonstriere die epistemologische Bedeutung des Irrtums und belege die Adäquanz der Beschreibung historischen, grundsätzlich kollektiv stattfindenden Wissensgewinns als irreversible Dynamik wiederholter epistemologischer Brüche.
Wie Edward L. Thorndikes „Experimentalisierung des Lernens“ in der ersten Hälfte des 20. Jahrhunderts maßgeblich dazu beitrug, Lernerfolg zunehmend am ökonomischen Output empirisch zu messen und die Idee der Selbstoptimierung durch experimentell fundierte Übungs-Methoden popularisierte, erläuterte KEVIN LIGGIERI (Darmstadt) zu Beginn des zweiten Veranstaltungstages. Thorndikes empirische Forschung zu zoologischem und anthropologischem Lernen negierte zwar einerseits eine anthropologische Sonderstellung, teilte aber andererseits die tradierte Vorstellung zunehmender anthropologischer Perfektionierung durch lebenslanges, analytisches Lernen. Liggieri führte anhand eines kurzen historischen Films, der einige Experimente Thorndikes mit Katzen und sogenannten puzzle boxes zeigte, aus, wie Thorndike anhand dieser und ähnlicher Experimente seine grundlegenden Gesetzmäßigkeiten des Lernens formuliert hatte. Thorndike habe Lernen allgemein als das Verstärken und Abschwächen verhaltensdeterminierender Nervenverbindungen verstanden. Das „Einschleifen“ dieser quantifizierbaren neuronalen Leistungen sei gemäß Thorndike Ausgangspunkt jeglicher Erziehung. Das Thorndike’sche law of effect basiert auf der empirischen Beobachtung eines normativen Konnektivismus von Lust im Sinne einer widerstandslosen neuronalen Leitung und Leistungssteigerung. Mithin geschehen Lernprozesse nicht durch theoretische Einsicht, sondern durch Erfolg in Form befriedigender Konsequenzen wie dem Erhalt von Nahrung oder dem Entkommen aus der puzzle box, welche neuronal einprägend wirkten. Zudem besagt Thorndikes law of exercise: Je häufiger eine befriedigende Lernsituation wiederholt würde, desto erfolgreicher fiele die kognitive Optimierung aus. Liggieri resümierte, dass zentrale Ansätze Thorndikes trotz teilweiser Überlagerung durch ein informationstechnologisches Paradigma seit den 1950er-Jahren primär die „ökonomische Idee einer Steigerungslogik durch Übung“ und weiterhin signifikant den Lerndiskurs und die westliche Bildungspolitik prägen sowie grundlegend für moderne Selbstoptimierungskonzepte sind.
JEANETTE WINDHEUSER (Berlin) diskutierte in ihrem Beitrag grundsätzliche Fragen dazu, welche (Selbst-) Aufklärung die feministische Theoriebildung für die Wissenschaft bereithalte und inwiefern damit auch eine Aufklärung der Erziehungswissenschaft über ihre geschlechtliche Bedingtheit einhergehe. Windheuser fokussierte ihre Ausführungen, insbesondere auf historisch signifikante wissenschaftstheoretische Impulse aus der sogenannten zweiten Frauenbewegung zwischen den 1960er- und 1980er-Jahren. Speziell hob sie die Kontributionen der einflussreichen, kürzlich verstorbenen, US-amerikanischen Feministin und Wissenschaftsphilosophin Evelyn Fox Keller hervor, die zwar die Vorstellungen wissenschaftlicher Objektivität und Rationalität nicht generell abgelehnt, aber insofern infrage gestellt habe, indem sie das damals nahezu ubiquitäre Problem androzentrischer Verzerrungen in den Wissenschaften problematisierte. In großen Teilen der Erziehungswissenschaften bestehe Windheuser zufolge heute zunehmend ein primär abstraktes Bewusstsein für die allgemeine pädagogische Relevanz feministischer Forschung und der wissenschaftlichen Erkenntnisse auf dem Gebiet von Geschlechtskategorien. Dennoch sei die wissenschaftliche Pädagogik in der Praxis vielfach durch verschiedene, nicht hinreichend reflektierte androzentrische Verzerrungen behaftet und feministische Forschungserkenntnisse würden bislang nur gelegentlich oder unzureichend rezipiert. Um dieser ungleichzeitigen Entwicklung zu begegnen, sei eine weitreichendere Aufklärung über immanente geschlechtliche Strukturen der Erziehungswissenschaften und eine kritischere Reflexion der Bedingtheit persönlicher Erfahrung der Forschenden notwendig.
In dem Vortrag zu den kognitiven Grundlagen des Lernens setzte sich FRANK JÄCKEL (Darmstadt) mit der Frage, wie Lernen und Wissensbildung, beispielsweise in der universitären Lehre, funktionieren, aus einer lernpsychologischen Perspektive auseinander. Eingangs erklärte Jäckel, dass speziell von der kognitiven Psychologie häufig wissenschaftlich basierte Vorschläge zur Optimierung der nachhaltigen Wissensvermittlung insbesondere an Universitäten erwartet würden. Allerdings bestünden auch bei vermeintlich verbesserten Formen der traditionellen Lehre, üblicherweise bestehend aus einem Unterricht nach dem „Broadcasting-Modell“ mit Hausaufgaben zur Übung sowie angegliedertem Tutorensystem, größere, empirisch belegbare Probleme. Vor allem würde seitens der Dozierenden oft eine Tabula rasa bezüglich des Vorwissens der Studierenden angenommen und das Bestehen und Reproduzieren oftmals fehlerhaften Vorwissens nicht in Betracht gezogen. Auch würde meist vorausgesetzt, dass die Studierenden wüssten, wie man zu lernen habe. In der Praxis sei die logische Konsequenz dieser Lehre ein ineffektives „Bulimie-Lernen“ der Studierenden. Statt bloßer Wiederholung benötige man spezielle Instrumente, wie etwa reflektiertes Lernen durch Beispiele und das Erstellen von Gedächtnisprotokollen für Lösungswege, um ein tiefergehendes Verständnis der Lerninhalte und eine Abspeicherung im Langzeitgedächtnis effektiver zu fördern. Ferner müssten sich Lehrpersonen in besonderem Maße um das „Debugging“ individueller Missverständnisse und heterogenen Hintergrundwissens bemühen, da Untersuchungen gezeigt hätten, dass die einfache Information gegenteiliger Evidenz zu prägendem Vorwissen nicht automatisch das fälschliche Vorwissen nullifiziere. Deshalb müsste Jäckel zufolge nicht nur ein entsprechendes Umdenken im Rahmen der klassischen universitären Lehre stattfinden, sondern die entsprechenden Probleme müssten auch bei der Konzeption digitaler, personalisierter Tutorensysteme berücksichtigt werden. Solche könnten nachhaltig lernfördernd wirken, solange sie zur eingehenderen Reflexion von Fragen und Problemen anregten und nicht reine Repetition oder ein unreflektiertes Aufgabenlösen förderten.
SVEN SCHIBGILLA (Darmstadt) stellte im finalen Beitrag einen Auszug seiner bisherigen historischen Untersuchungen im Rahmen seines aktuellen Dissertationsprojektes zur Computerisierung in westdeutschen, primär nordrhein-westfälischen und bayrischen, Schulen zwischen den 1970er- und 2000er-Jahren vor. Im Zentrum dieser technikgeschichtlichen Ausführungen stand der Lernraum als Analysekategorie sowie die Frage danach, wie Lernräume mit Computern historisch sozial konstruiert und individuell wahrgenommen wurden. Schibgilla strukturierte seine Analyse in die Untersuchung der Raumtypen, Raumdynamiken und Raumnutzungen. Mithin schilderte er anhand beispielhafter historischer Bildmaterialien die „sozio-technologisch“ ausgehandelte Entwicklung der Computerlernraumtypen, welche zunehmend offener und zugänglicher gestaltet worden seien. Bezüglich der Raumdynamiken erklärte Schibgilla, dass anfangs der Raum eher dem Computer angepasst worden sei. So fand der Informatikunterricht der 1970er-Jahre meist in speziellen Computerfachräumen statt, in denen sich die Datensichtungsgeräte befanden, während in separaten, eher unzugänglichen Maschinenräumen der eigentliche Computer stand. Später seien die Computer hingegen zunehmend entsprechend ihrer vorgesehenen Nutzungszwecke auf unterschiedliche Räume verteilt und die Settings der physischen und virtuellen Lernräume zunehmend pädagogischer gestaltet worden. Die vermehrte Verteilung der Computer im gesamten Schulgebäude und stetige Öffnung des Raumes haben eine zunehmend diversere Nutzer:innengruppe angezogen. Damit und aufgrund vielfältigerer Anwendungsmöglichkeiten hätten ursprünglich zentrale Nutzungszwecke wie das Erlernen von Computerprogrammierfähigkeiten zusehends an Bedeutung im Rahmen der schulischen Computernutzung eingebüßt.
Abschließend bedankte sich der Organisator Kevin Liggieri für das rege interdisziplinäre Interesse sowie die vielfältigen wissenschafts-, technik- und bildungshistorischen Beiträge und resümierte, dass diese Tagung – gewissermaßen als öffentliche Auftaktveranstaltung der Emmy-Noether-Forschungsgruppe – inspirierende und motivierende Impulse für aktuelle und zukünftige Forschungsprojekte ergeben habe.
Konferenzübersicht:
Kevin Liggieri (Darmstadt): Begrüßung
Andreas Kaminski (Darmstadt): Die systematische und historische Rolle von Maßstäben in Lernprozessen
Nina Grünberger (Darmstadt): Zur Relevanz der Ungleichheit von Lernen und Bildung in der Digitalität
Michael Geiss (Zürich): Diesseits des personalisierten Lernens: Bildung im Zeichen des Computers, 1970-1990
Hans-Jörg Rheinberger (Berlin): Keynote: Hands on – Das Experiment als epistemischer Lernprozess
Kevin Liggieri (Darmstadt): Lernen durch Erfolg? Die Experimentalisierung des Lernens bei Edward L. Thorndike
Jeannette Windheuser (Berlin): Verwissenschaftlichung der Pädagogik und feministische Wissenschaftstheorie – eine Frage der Erfahrung?
Frank Jäkel (Darmstadt): Kognitive Grundlagen des Lernens
Sven Schibgilla (Darmstadt): Zwischen Experiment und Integration: Eine historische Betrachtung der Lernraumgestaltung mit Computern
Abschlussdiskussion
Anmerkung:
1 Gaston Bachelard, La formation de l'esprit scientifique: contribution à une psychanalyse de la connaissance objective, 1. Aufl. Paris 1938.