Kognitionswissenschaft
Unsere Annahmen über menschliche Kognition, unsere Wissensbegriffe und die Lernstrategien, die wir verwenden, hängen zusammen. Lernen und Lehren mit Technologien findet in virtuellen Räumen statt, die ihrerseits auf Basis von Annahmen über Eigenschaften menschlicher Kognition entwickelt wurden. Daher lohnt sich die Auseinandersetzung mit Fragen und Konzepten der kognitionswissenschaftlichen Grundlagenforschung, um sie als Instrument zu nutzen und eigene Annahmen zu hinterfragen. Die frühe klassische Kognitionswissenschaft begriff Denken als Informationsverarbeitung: Die Aufgabe mentaler Repräsentation ist die Abbildung der Welt in Symbolen und Regeln, als formales System. Die Gleichsetzung menschlicher kognitiver Leistungen mit der Arbeitsweise eines Computers, hat nicht nur Eingang in unsere Alltagssprache, sondern auch in Forschungsfelder gefunden. Problematisch ist in diesem Zusammenhang, dass so implizit ein Wissensbegriff gefördert wird, der Wissen als Objekt begreift, der einen Teil der Welt abbildet. Das hat Implikationen für Didaktik und Design von Lerntechnologien. In den Kognitionswissenschaften ist mit dem Konnektionismus und neueren Entwicklungen der *Embodied* und *Situated Cognition* ein neues Paradigma entstanden, das eine alternative Sichtweise auf Lernen und Lehren sowie neue Technologien erlaubt und nahe legt, Lehr-Lernprozesse als Gestaltung von Lernräumen zu konzeptualisieren, welche die Wissensprozesse der Lernenden unterstützen.
- Einleitung
- Das Entstehen eines neuen Forschungsfeldes
- Klassische Kognitionswissenschaft
- Konsequenzen für Lernen und Lehren mit Technologien: Die Frage des adäquaten Wissensbegriffs
- Der Übergang zu einer neuen Sicht auf Kognition: Der Konnektionismus und die Simulation neuronaler Prozesse
- Embodied and Situated Cognition, Enactivism
- Konsequenzen für unsere Sicht auf Wissen, Lernen und Technologien
- Literatur
Einleitung
In diesem Artikel werden die Auswirkungen der Kognitionswissenschaft auf unser Verstehen von Lehr-Lernprozessen und auf die Verwendung von Lerntechnologien untersucht sowie zentrale Fragestellungen und Konzepte der Kognitionswissenschaft beleuchtet.
Die Kognitionswissenschaft ist keine wissenschaftliche Disziplin im herkömmlichen Sinn, sondern ein immer noch recht junges interdisziplinäres Forschungsfeld, in dem unterschiedliche Disziplinen gemeinsam Antworten auf Fragen zur Kognition – Wahrnehmung, Denken und Handeln – suchen, die sie aus ihrer Perspektive und mit ihren Methoden allein nicht zufriedenstellend beantworten können. In gewisser Weise stellt die Kognitionswissenschaft Fragen nach der Natur des Menschen, die sich Philosophen seit jeher stellen, und versucht diese interdisziplinär mit Mitteln der Psychologie, Linguistik, Neurowissenschaft, Biologie und Informatik zu beantworten. Letzterer kommt in der Entstehungsgeschichte dieses Forschungsfelds wegen der damals neuen Methode der Computersimulation eine besondere Rolle zu.
!
Kognitionswissenschaft ist ein interdisziplinäres Forschungsfeld, das Phänomene der Kognition erforscht, mit dem Ziel, menschliche Kognition – unsere Wahrnehmung, unser Denken und letztlich Handeln – zu verstehen.
Warum ist es lohnenswert, sich in einem so anwendungsbezogenen Feld, wie Lehren und Lernen mit Technologien überhaupt, mit Fragen und Konzepten aus der kognitionswissenschaftlichen Grundlagenforschung auseinanderzusetzen? Wir sehen drei Gründe:
- Aus vielen Modellen der kognitionswissenschaftlichen Grundlagenforschung ist Kognitionstechnik geworden, mit der wir im Alltag ständig konfrontiert sind.
- Lehrende und Lernende (und natürlich auch Designer/innen von Lerntechnologien) haben notwendigerweise ein Konzept von Kognition und eine Theorie wie sie funktioniert. Die Frage ist lediglich, wie bewusst und reflektiert diese persönliche Theorie ist und damit, ob sie zur Reflexion über die eigene Praxis dienen kann.
- Unsere Konzepte von Kognition haben eine Auswirkung auf die Vorstellung was Lernen ist und was gelernt wird – und damit auf unseren Wissensbegriff. Hier sehen wir eine Nahtstelle zu Ergebnissen der Bildungsforschung, die zeigen, dass unser Wissensbegriff Lernstrategien beeinflusst.
Dieses Kapitel orientiert sich in seinem Aufbau an den Phasen der Kognitionswissenschaft seit ihrer Entstehung. Diese ideengeschichtliche Betrachtung ist notwendig, um konkrete Implikationen auf aktuelle Fragen des Lernen und Lehrens, des Wissens und zu Lerntechnologien abzuleiten. Ziel dieses Kapitels ist es zu zeigen, wie Konzepte aus der kognitionswissenschaftlichen Grundlagenforschung Eingang in die Alltagssprache, in unser Denken über Lernprozesse und Wissen und letztlich in Technologien gefunden haben, mit den wir tagtäglich interagieren, um so ein Denkwerkzeug für die Reflexion der eigenen Praxis zur Verfügung zu stellen. Kein Ziel ist es hingegen, didaktische oder Usability-Rezepte auszustellen.
Das Entstehen eines neuen Forschungsfeldes
Wurzeln der Kognitionswissenschaft
Eine fundierte Vorgeschichte würde im Rahmen dieses Buches zu weit führen, daher möchten wir hier nur vier Strömungen und Ideen aus den Disziplinen Philosophie, Psychologie, Linguistik und Informatik skizzieren, deren interdisziplinäres Zusammenwirken wesentlich für das Entstehen des neuen Forschungsfeldes Kognitionswissenschaft war:
Die Vorstellung, dass menschliches Denken letztlich Rechnen sei, findet sich schon im 17. Jahrhundert bei Gottfried Wilhelm Leibniz (1646 – 1716), der, nebenbei bemerkt, auch das Binärsystem erfand, das mit der Erfindung des Computers eine große Bedeutung erhalten sollte. Die Analytische Philosophie wurde Anfang des 20. Jahrhunderts von den britischen Philosophen Bertrand Russell (1872–1970) und George Edward Moore (1873–1958) und vom Wiener Kreis begründet und kann als eine Fortführung der Leibniz'schen Ideen begriffen werden. Ihre Vertreter wiesen folgende Gemeinsamkeiten auf: Ein systematisches, anstatt geschichtliches Herangehen an philosophische Fragen, eine Orientierung an empirischen Wissenschaften sowie der Versuch eine logische Formalsprache (widerspruchsfreie Idealsprache) zu schaffen, beziehungsweise die Analyse von Sprache mit Mitteln der Logik, mit dem Ziel, die angenommene logische Formalsprache hinter unserer Alltagssprache zu beschreiben. Es soll nicht unerwähnt bleiben, dass viele Vertreter dieser Richtung vor dem nationalsozialistischen Regime fliehen mussten und ihre Arbeit in England und den USA fortsetzten.
Disziplin | Linguistik | Mathematik (Informatik) | Philosophie | Psychologie |
---|---|---|---|---|
Beitrag zur Kognitionswissenschaft und Entstehung des Kognitivismus | Beschreibung sprachlicher Strukturen Neu: Universalgrammatik | Mathematischer Beweis, Computer Neu: formale Sprachen, Simulation | Philosophische Basis („Denken ist rechnen“) Neu: Formale Logik | Empirische Daten, Experiment Neu: in die „Black Box hineinschauen“ |
Tab. 1: Überblick über die Disziplinen und ihren Beitrag an der Entstehung der frühen Kognitionswissenschaft
In der Psychologie hatte der Behaviorismus, von John B. Watson 1913 ursprünglich als Gegenposition zur Phänomenologie formuliert, die Untersuchung von Verhalten mit naturwissenschaftlichen Methoden und damit eine Objektivierung der Psychologie eingeführt und war zum vorherrschenden Paradigma geworden. Das Gehirn wurde als Black Box betrachtet, über deren Inhalt keine Aussage möglich sei. Lediglich das beobachtbare Ereignis in der Umwelt (Reiz) und das mutmaßlich daraus resultierende Verhalten (Reaktion) durfte Gegenstand einer wissenschaftlichen Untersuchung sein. Lernen war die Assoziation von Reiz und Reaktion, der Geist eine tabula rasa. Darüber hinaus wurde über die Vorgänge und Strukturen innerhalb der Black Box nicht weiter theoretisiert, ein Umstand, der zunehmend kritisiert wurde.
1957 erschien das Buch „Verbal Behavior“, in dem der Behaviorist seiner Zeit, Burrhus Fredric Skinner, seine Hypothese zum Spracherwerb formulierte. In einer Buchbesprechung übte der Linguist Noam Chomsky (1959) harsche Kritik und argumentierte, dass ein so komplexes Verhalten wie Sprache unmöglich durch den Behaviorismus, und somit durch assoziatives Lernen, allein, erklärt werden könne. Vielmehr müsse es ein genetisch determiniertes mentales Modul geben, das es Menschen erlaubt, Sprache zu erwerben, eine universale Grammatik, welche die Basis für den Erwerb jeglicher menschlichen Sprache biete. Damit revolutionierte er nicht nur die Linguistik; die Kritik an Skinner wird auch als Meilenstein auf dem Weg zu einem neuen Paradigma gesehen: dem Kognitivismus.
Bevor der Kognitivismus näher diskutiert wird, muss auf die vielleicht für die Entstehung der Kognitionswissenschaften wesentlichste Erfindung und Voraussetzung hingewiesen werden: der Computer und seine formalen Grundlagen. 1936 hatte der Mathematiker Alan Turing (1912-1954) gezeigt, dass jede berechenbare Funktion durch eine Turingmaschine implementiert werden kann (Turing, 1936; 1950). Eine genaue Erklärung würde an dieser Stelle zu weit führen; wesentlich ist in unserem Kontext, dass sie – unendlich großen Speicher vorausgesetzt – jede berechenbare Funktion berechnen kann und, dass sie den Begriff Algorithmus exakt präzisiert. Als solche bildete sie die theoretische Basis für die Entwicklung des Computers (etwa 1946 durch den Mathematiker John von Neumann), dessen Architektur nach wie vor die Basis jedes Computers bildet (eine ausführlichere Darstellung findet sich in Bechtel und Graham, 1998, 6-14).
Zusammengefasst, lässt sich der wissenschaftsgeschichtliche Kontext um 1950 in sehr vereinfachter Form zuspitzen (Tabelle 1): In der Psychologie gab es eine weit verbreitete Unzufriedenheit mit dem Behaviorismus, dessen Methoden es nicht erlauben, etwas darüber auszusagen oder zu untersuchen was, salopp gesagt, im Kopf (der Black Box) passiert. Gerade daran hatten aber all jene Interesse, die menschliche Kognition verstehen wollten. Auf Seiten der Analytischen Philosophie gab es ein Angebot: Denken ist logisch und basiert auf einer (formalen) Sprache; wir müssen also „nur“ einen Weg finden die Formalsprache „hinter“ der Alltagssprache zu beschreiben. Chomskys Idee der Universalgrammatik bot eine neue Brücke zwischen formaler Logik und natürlichen Sprachen. Und der Computer erschloss eine vollkommen neue Herangehensweise, mit der wissenschaftliche Theorien einer Prüfung unterzogen werden konnten. Anstatt Modelle mit Papier und Bleistift durchzurechnen, konnten diese Modelle, wenn man sie in eine formalisierte Form (entspricht Algorithmen, die als Computerprogramme implementiert werden) bringt, automatisch berechnet werden und gegebenenfalls Vorhersagen für die empirische Forschung machen: die Methode der Computersimulation.
Ein weiteres wichtiges Puzzlestück für die Analogie zwischen Denken und Logik lieferten der Neurophysiologe Warren McCulloch und der Logiker Walter Pitts 1943. Die Turingmaschine (und in der Folge auch von Neumann-Computer) verwenden das von Leibniz erfundene Binärsystem, das heißt sie „kannte“ die zwei Symbole „1“ und „0“. Auch Nervenzellen kennen zwei Zustände: sie feuern („1“) oder sie feuern nicht („0“). Auf Basis dieser Überlegung entwickelten McCulloch und Pitts (1943) ein sehr vereinfachtes, abstrahiertes Neuronenmodell, mit dessen Hilfe sie zeigen konnten, dass ein Netzwerk dieser Neuronenmodelle – und damit auch das menschliche Gehirn – im Prinzip die selben Kapazitäten hat, wie eine Turingmaschine, das heißt jede berechenbare Funktion berechnen und damit auch logische Formalsprachen verkörpern kann.
Klassische Kognitionswissenschaft
Die oben beschriebene wissenschaftliche Konstellation führte zu einer neuen Sicht auf menschliche Kognition und begründete so Mitte der 1950er Jahre das Entstehen der Kognitionswissenschaft (Bechtel & Graham, 1998). Was sie einte, war die Annahme einer Vergleichbarkeit von Mensch und Computer in dem Sinne, dass der Computer ein reaktionsfähiger Mechanismus sei, der flexibles, komplexes und zielorientiertes Verhalten zeigen kann, ebenso wie Menschen. Daher sei es nur natürlich von der Hypothese auszugehen, dass ein solches System offenlege, wie Menschen zu eben dieser Flexibilität kämen, ergo zeige, wie der menschliche Geist funktioniere (Newell, 1989). Diese Annahme schlug sich im zentralen Postulat „cognition is information processing“ (Englisch für „Kognition ist Informationsverarbeitung“), nieder. Informationsverarbeitung wird in folgendem Sinne verstanden: Ein Algorithmus verarbeitet, verändert und generiert Symbole, von denen behauptet wird, dass sie einen Ausschnitt der Welt repräsentieren (zum Beispiel das Symbol „Haus“ repräsentiert ein reales Haus). Deswegen wird dieser Ansatz auch als symbolverarbeitender Ansatz bezeichnet. Aufgabe einer Wissenschaft, die menschliche Kognition verstehen wollte, war es somit, jene „Algorithmen“ menschlicher Kognition zu identifizieren, welche die Erkenntnisse aus oben genannten Disziplinen künstlich erzeugen (im Sinne von Am-Computer-Simulieren) und diese Simulationsergebnisse wiederum in empirischen (psychologischen) Experimenten zu überprüfen.
Das neue wissenschaftliche Paradigma, das – in Abgrenzung zum auf extern beobachtbares Verhalten fokussierten Behaviorismus – die Untersuchung jener innerer Mechanismen, die für menschliche Kognition verantwortlich sind, zum Ziel hatte, wird als Kognitivismus (Varela, 1990; Bechtel et al., 1998) bezeichnet. Die Grenzen zum praktisch zeitgleich entstandenen Forschungsfeld der Künstlichen Intelligenz (KI) können wir, zumindest für den Zweck dieses Lehrbuchs, als fließend erachten. Während für die KI der technische Aspekt im Vordergrund stand, war es für die Kognitionswissenschaft der Versuch, menschliche Kognition zu verstehen.
Das Revolutionäre an der neu entstandenen Kognitionswissenschaft war, dass zum ersten Mal zwei Methoden zur Verfügung standen, eine Theorie zu überprüfen: Die Empirie, die eine Untersuchung des Forschungsgegenstands „in der Welt“ ermöglicht, wurde durch ein mächtiges Instrument ergänzt, das eine Theorie in Form eines Modells auf Kohärenz testen kann – um dann seine Vorhersagen wieder mit Hilfe der Empirie zu überprüfen. Die ersten Systeme brachten schnelle Erfolge, konnten Probleme, wie den „Turm von Hanoi“ lösen und – zur damaligen Zeit als Krone menschlicher Kognition gesehen – mathematische Gleichungen lösen und Schach spielen.
?
Begeben Sie sich zur nächsten Kaffeemaschine (am besten eine Filtermaschine, jedenfalls aber kein Automat), beobachten Sie genau, wie jemand einen Kaffee kocht, bis zu dem Zeitpunkt zu dem der Kaffee trinkfertig (Milch, Zucker, etc.) ist.
- Halten Sie das bitte in einer genauen Beschreibung des Ablaufs fest, die sich auf das Wesentliche konzentriert. Auf dieser Basis soll eine fehlerfreie Wiederholung der Handlung möglich sein. (Für die Informatiker/innen unter Ihnen: Schreiben Sie bitte einen Algorithmus in Alltagssprache.)
- Versuchen Sie eine Person zu finden, die bereit ist, Ihrer Beschreibung sklavisch Folge zu leisten und zu versuchen, Ihnen (oder wenigstens sich selbst) auf Basis Ihrer Beschreibung eine Tasse Kaffee zu kochen.
Gruppenvariante: Bilden Sie Kleingruppen zur Beschreibung (optimal: Dreiergruppen) und lassen Sie zwei bis drei unterschiedliche Beschreibungen ausprobieren, bevor Sie die Fragen zur Aufgabe im Plenum besprechen. Fragen zur Aufgabe:
- War Ihre Beschreibung erfolgreich?
- Oder musste geschummelt werden, damit Sie zu Ihrem Kaffee kommen konnten, das heißt, es wurden Handlungen gesetzt, die nicht zu 100% in Ihrer Beschreibung angegeben wurden?
- Wie und warum?
Gruppenvariante:
- Gibt es unterschiedliche Beschreibungen?
- Worin unterscheiden sie sich?
- Auf welche Probleme sind Sie beim Anfertigen der Beschreibung gestoßen?
Kritiker/innen waren jedoch weniger beeindruckt. Ihrer Ansicht nach waren die Systeme nicht wirklich intelligent, sondern führten nur Programme aus. Die Probleme, die diese Programme bearbeiteten, seien so ausgewählt, dass sie in sich geschlossen und leicht als formales System zu fassen seien. Ein weiterer Kritikpunkt war, dass ein Programm, nur weil es eine Art von Problemen lösen konnte, diese Fähigkeit noch lange nicht auf einen anderen Bereich übertragen konnte, das heißt diese „kognitiven Systeme“ waren hochgradig domänenspezifisch (Dreyfus, 1972).
?
Denken Sie an Ihren „Kaffeekoch-Algorithmus“:
- Wie genau muss die Beschreibung sein und wie viel Wissen über die Welt erfordert diese relativ einfache Aufgabe?
- Wie reagiert Ihr Algorithmus auf eine plötzliche Veränderung der Umwelt (zum Beispiel einen neuen Ort für den Kaffee, eine etwas anders gebaute Maschine)?
- Welche Handlungsoptionen hat Ihr Algorithmus und was tut eine Versuchsperson, wenn sie auf ein Problem bei der Ausführung trifft?
Die Flexibilität menschlichen Denkens und Handelns zeichnet sich hingegen dadurch aus, dass wir nicht nur unterschiedliche Strategien zur Problemlösung zur Verfügung haben, die wir nach Belieben abbrechen und wechseln können, sondern darüber hinaus auch Fähigkeiten zur Adaptation haben: Wir können unser Handeln hinterfragen, verändern und improvisieren. Wir sind auch mit unvollständigen Informationen handlungsfähig, weil wir über Kontextwissen über die Welt verfügen, fehlendes Wissen nahezu automatisch vervollständigen, etc. Und wir können eines, das diese Systeme nicht konnten: Wir können lernen und tun es ständig.
Um eine lange Geschichte kurz zu machen: Es gab in der Folge viele Versuche, die Systeme dieser frühen Phase der Kognitionswissenschaft mit Weltwissen auszustatten, die im Wesentlichen mit der Erkenntnis endeten, dass unsere Sprache und unser Wissen über die Welt in Teilbereichen, aber nicht als Ganzes den Regeln einer Logik folgt, sondern vielfach widersprüchlich ist. Für uns Menschen ist es in unterschiedlichen Situationen ganz natürlich, unterschiedlichen Regeln zu folgen. Auch mit den Widersprüchen natürlicher Sprachen haben wir kein Problem: Wenn jemand meint, sich auf die nächste Bank setzen zu müssen, wissen wir, dass kein Geldinstitut gemeint sein kann.
Rückwirkend kann man die klassische Kognitionswissenschaft als Unterfangen betrachten, jahrhundertealte Vorstellungen über die menschliche Kognition mit Hilfe einer zu ihrer Zeit revolutionären neuen Methode auszutesten: der Computersimulation. Dadurch haben wir die jahrhundertealte Hypothese, menschliches Denken bestünde in der Verarbeitung von Symbolen, über Bord werfen können und eine ganze Menge über uns gelernt. Unsere Vorstellung, was menschliche Kognition in ihrem Kern ausmacht, hat sich dramatisch verschoben. Fähigkeiten, die keine weitere Beachtung fanden, wie Sprechen, den Heimweg finden oder die Fähigkeit, über einen Witz zu lachen, können gewürdigt werden. Darüber hinaus wurde auch klar, dass sowohl formale als auch natürliche Sprachen nur einen Teil der Welt repräsentieren können und in diesem Ansatz viele feine Nuancen, emotionale Zustände, implizite Bedeutungen, etc., die für kognitive Prozesse oft entscheidend sind, unberücksichtigt bleiben.
Konsequenzen für Lernen und Lehren mit Technologien: Die Frage des adäquaten Wissensbegriffs
Aber was hat das alles in einem Buch über Lernen und Lehren mit Technologien zu suchen? Der Einfluss der klassischen Kognitionswissenschaft ist in vielen wissenschaftlichen Bereichen (ebenso wie in unserer Alltagsauffassung von Kognition) nach wie vor erkennbar, was sich sowohl in den Metaphern ausdrückt, mit denen Lernprozesse beschrieben werden, als auch in deren, häufig implizit angenommenen, Wissensbegriffen.
Wann immer es um Lernen und Erinnern geht, ist die Computermetapher „Kognition ist Informationsverarbeitung“ allgegenwärtig: Es wird von Abspeichern, Updaten, Speichern, Informationsverarbeitung und Abrufen gesprochen. Unser Gedächtnis wird von der kognitiven Psychologie in sensorisches Gedächtnis, Arbeitsgedächtnis und Langzeitgedächtnis eingeteilt, zwischen denen Information fließt (Zimbardo, 2004, 298).
Wie wir gesehen haben, ist es kein Zufall, dass dieses Modell damit in wesentlichen Teilen Neumanns Computerarchitektur entspricht. Treffen diese Ausdrücke den Kern der Sache? Oder suggerieren Sie eine spezifische Sichtweise, die den Blick auf Wesentliches verstellt? Vieles deutet darauf hin, dass Letzteres der Fall ist, denn diese Sichtweise auf Kognition und Gedächtnis funktioniert nur mit einem Wissensbegriff, der folgende Eigenschaften aufweist:
- Wissen beschreibt die Welt,
- Wissen besteht aus Einheiten (und ist damit in gewisser Weise quantifizierbar),
- Wissen ist strukturunabhängig, das heißt es kann gespeichert und abgerufen werden, ohne sich qualitativ zu verändern und
- Wissenseinheiten können nach Bedarf miteinander in Beziehung gesetzt und getrennt werden.
Kurz gesagt: Wissen verhält sich wie Information, wobei mitschwingt, dass es bezüglich der Bedeutung zwischen der gesendeten und der empfangenen Information keinen Unterschied gibt. Ein solcher Wissensbegriff behandelt Wissen nicht nur als Objekt, sondern suggeriert zusätzlich eine Objektivität (im Sinne von invarianten und subjektunabhängigen Bedeutungen) von Wissen.
In einem Bildungskontext suggeriert ein solches Modell unterschwellig zumindest folgende Annahmen:
- Beim Lernen geht es darum, etwas zu memorieren und bei Bedarf korrekt zu reproduzieren,
- dieses Etwas, das gelernt werden soll, stellt für alle, die es lernen sollen, dieselbe Einheit dar und kann so kommuniziert werden,
- dieses Etwas besitzt eine gewisse Objektivität und Unveränderbarkeit und
- Lernen ist eine intellektuelle Angelegenheit, bei der dem Körper (inkl. Emotionen) und dem sozialen Umfeld bestenfalls die Rolle des Motivators zukommt.
Polemisch ausgedrückt, macht ein solcher Wissensbegriff Lehrende zu Bereitstellenden von Information, während Lernende zum beliebigen Container für Wissensobjekte werden. Selbstverständlich gehen wir nicht davon aus, dass Lehrende die skizzierte Position ernsthaft vertreten, es ist uns aber wichtig herauszuarbeiten, was in der Computermetapher für menschliches Denken implizit mitschwingt, das heißt, welche Fragen und Schlussfolgerungen sie fördert und wo sie blinde Flecken hat. Gerade im Bereich des Lehrens und Lernens mit Technologien – also unter Einsatz eines Computers – ist es besonders verführerisch, Wissen als Objekt zu behandeln, wie im Konzept von Lernobjekten. Im Bereich des E-Learning findet es sich in mediendidaktischen Konzepten wieder, die von einer De- und Rekontextualisierbarkeit von Wissen (zum Beispiel in Swertz, 2004) oder, wie das Microlearning (Hug, 2005) auf Wissensbrocken basieren. Wir möchten das nicht als Verurteilung verstanden wissen, als Elemente eines umfassenderen didaktischen Konzepts können sie durchaus sinnvoll eingesetzt werden. Was wir herausarbeiten möchten ist, wie eine Metapher – nämlich menschliche Kognition funktioniert wie ein Computer – und die Verwendung des Computers konzeptuell nahtlos zusammengehen und eine Allianz bilden, die einen naiven Wissensbegriff transportiert und eine Didaktik des Wissenstransfers nahelegt.
Nun könnte man einwenden, dass es egal sei, mit welchem Wissensbegriff jemand lernt, die Fakten seien schließlich klar durch den Kursinhalt oder vom Lehrplan vorgegeben. Der Wissensbegriff, mit dem Lernende ans Lernen herangehen, ist aber wesentlich für einen nachhaltigen Lernerfolg. Ference Marton und Roger Säljö haben in einer Studie (1976) zwei qualitativ unterschiedliche Lernstrategien identifizieren können, die sie als Surface Learning (oberflächliches Lernen) und Deep Learning (tiefes, profundes Lernen) bezeichnen. Letzteres ist der Wunsch aller Lehrenden: Lernende, die intrinsisch motiviert um profundes Verstehen ringen und das Gelernte mit Vorwissen und Erfahrung verknüpfen. Gerade im Kontext unseres Bildungssystems kommt es leider viel zu häufig zur alternativen Strategie des Surface Learning. Lernende lernen isolierte Fakten ohne eigene Motivation auswendig, um sie bei Bedarf zu reproduzieren (und ggf. gleich wieder zu vergessen), ein Verhalten das auch gerne als Bulimie-Lernen bezeichnet wird (Tabelle 2 stellt die beiden Lernstrategien noch einmal gegenüber). Ein Wissensbegriff, der auf einzelne Fakten fokussiert, also Wissen als isolierte Wissensobjekte behandelt, legt eine Surface Learning-Strategie nahe: Wenn ich alle Fakten gelernt habe, ist das Wissen erworben. Mit der Computermetapher für menschliche Kognition liefert der Kognitivismus eine Sicht auf menschliche Kognition, die eben diese Wissenskonzeption unterstützt.
Forderungen nach einer Didaktik, die mehr leistet als ein Fokussieren auf Faktenwissen, gibt es spätestens seit der Reformpädagogik. Im Laufe der letzten Jahrzehnte hat sich die Sicht auf menschliche Kognition sehr gewandelt und wir möchten Sie einladen, sich mit uns wieder auf die Ebene der kognitionswissenschaftlichen Grundlagenforschung zu begeben und Teile dieser Entwicklung mit uns nachzuvollziehen, die Konsequenzen für unser Bild von Lernen und Wissen haben sowie den Einsatz von Technologien vor diesem Hintergrund zu reflektieren.
?
Wo ist Ihnen die Computermetapher, das Benennen kognitiver Prozesse als Speichern, Abrufen, etc. bereits begegnet? Reflektieren Sie Ihre „Alltagsphilosophie“: Wie denken Sie selbst über Kognition, Lernen und Wissen? Wie, in welchen Metaphern, sprechen Sie darüber?
Surface Learning | Deep Learning |
---|---|
Stützt sich aufs Auswendiglernen | Suche nach der Bedeutung und Verstehen |
Stützt sich auf Faktenwissen & Routinen | Stützt sich auf das Wesentliche, den „Kern“ |
Fokussiert auf Regeln und Formeln, die für die Lösung eines Problems angewendet werden | Fokussiert auf zentrale Argumente, die für die Lösung eines Problems von Bedeutung sind |
Fakten und Konzepte werden unreflektiert aufgenommen und abgespeichert | Verknüpft theoretische Ansätze mit eigenem Erfahrungshintergrund |
Vernachlässigt den Kontext | Bezieht Kontext ein |
Fokussiert auf nicht vernetzte Teile einer Aufgabe | Verbindet vorhandenes Wissen mit neuem Wissen |
Motivation ist extrinsisch | Motivation ist intrinsisch |
Tab. 2: Charakteristika von Surface Learning und Deep Learning nach Marton und Säljö (1976).
Der Übergang zu einer neuen Sicht auf Kognition: Der Konnektionismus und die Simulation neuronaler Prozesse
Wie oben ausgeführt, führte die Sichtweise der klassischen Kognitionswissenschaft zu einer starken Kritik, wobei in unserem Kontext ein zentraler Punkt ist, dass die oben skizzierten Systeme nicht lernen konnten. Mitte der 1980er Jahre kam es, ausgelöst durch eine in dem Doppelband „Parallel Distributed Processing“ von David E. Rumelhart und James F. McClelland (1986) veröffentlichte Sammlung von Einzelarbeiten, zu einem Siegeszug eines neurowissenschaftlich inspirierten Modells, das bislang vom Mainstream der Kognitionswissenschaft ignoriert worden war: die Künstlichen neuronalen Netze (KNN).
Ein KNN (in der Regel eine Computersimulation, es sind aber auch physische Umsetzungen möglich) besteht aus vielen sehr einfachen, identisch aufgebauten Einheiten, die als Units oder künstliche Neuronen bezeichnet werden und über sogenannte Gewichte (diese simulieren in sehr vereinfachter Weise die Funktion von Synapsen) untereinander verbunden sind. Typischerweise haben KNN, welche für die Modellierung kognitiver Leistungen herangezogen werden, eine Schicht von Units, der Stimuli präsentiert werden (engl. „input layer“), eine Schicht von Units, die etwas ausgeben (engl. „output layer“) sowie eine oder mehrere Schichten dazwischen (engl. „hidden layer“), die jeweils linear oder rekursiv miteinander verbunden sind.
Die Aufgabe/Funktion jeder einzelnen Unit besteht darin, die Aktivierungen der eingehenden Verbindungen zu integrieren und an die jeweils benachbarten weiterzugeben. Dies geschieht durch einfaches Aufsummieren der gewichteten Inputs und Weitergabe der eigenen Aktivierung, wenn diese einen bestimmten Schwellenwert überschreitet. Dies wird von allen Units parallel durchgeführt und konstituiert das Gesamtverhalten des KNN. Wesentlich ist, dass diese Netze in ihrer Architektur (meist) fest „verdrahtet“, die Gewichte aber veränderbar sind. In Kombination mit den Inputs aus der Umwelt sind die Gewichte für die Verhaltensdynamik des Netzwerks verantwortlich. Anstatt die Gewichte von Hand einstellen zu müssen, wurde in den frühen 1980er Jahren ein Algorithmus gefunden, der die schrittweise Veränderung der Gewichte in einem Trainingsprozess in einer Weise durchführt, dass das Netz seine Aufgabe schließlich fast perfekt lösen kann: KNN können ohne Eingabe von Regeln und Symbolen, nur anhand von Beispielen, mit denen sie trainiert werden, lernen. Nach jeder Aufgabe bekommen sie ein Feedback, ob die Antwort richtig oder falsch war, indem ihre Gewichte ganz minimal in Richtung der korrekten Lösung verändert werden, bis sie fast zu 98 Prozent richtig liegen. Allerdings können sie nicht alle Aufgaben gleichermaßen gut lösen. Gut sind sie, kurz gesagt, bei Mustererkennung, Kategorisierungsaufgaben, Vorhersage von Wahrscheinlichkeiten, etc. Modelle von Aspekten menschlicher Kognition, die auf KNN basieren, weisen einige sehr charakteristische Eigenschaften auf (ausführlicher behandelt z.B. in Elman, Bates, Johnson, Karmiliff-Smith, Parisi & Plunkett, 1996):
- Bei Kategorisierungsaufgaben kann ein KNN generalisieren. Trainiert man ein solches Netz zum Beispiel dazu, Bilder von Gesichtern zu erkennen und zeigt ihm ein Gesicht, das es nicht im Rahmen seines Trainings „gelernt“ hat, kann es dieses mit sehr, sehr hoher Wahrscheinlichkeit der Kategorie „Gesicht“ zuordnen.
- Sie können dieselben Fehler bei der Generalisierung machen wie Menschen. Zum Beispiel übergeneralisieren Kinder beim Spracherwerb häufig unregelmäßige Formen, wenn sie Grammatik lernen, sagen zum Beispiel „goed“ (gehte) statt „went“ (ging).
- Die Lernkurve gleicht häufig der, die bei Menschen gefunden wurde: KNN lernen zunächst sehr schnell, dann flacht die Lernkurve zusehends ab.
- Auch wenn das Netz richtige Antworten liefert, kann es sein, dass das, was es gelernt hat, nicht der Intention der Architekten/innen des Netzes entspricht. So unterschied ein KNN, das lernen sollte Gesichter voneinander zu unterscheiden, die gezeigten Bilder auf Basis des Haaransatzes voneinander.
- Das in einem KNN repräsentierte Wissen ist in zweifacher Weise robust: (1) Beim Lernen eines neuen Assoziationspaares „vergisst“ das Netz nicht das bereits Gelernte; (2) auch vergisst das Netz nicht schlagartig alles, wenn man einzelne Neuronen und Gewichte entfernt.
Mit diesen Eigenschaften stellten KNN noch keinen grundsätzlichen Widerspruch zur klassischen Sicht auf Kognition dar. Man konnte sie durchaus als eine Ergänzung begreifen, die eine Erklärung lieferte, wie durch Lernen (von Kategorien) Symbole „in den Kopf kommen“ können. Allerdings stellte sich die Frage, welcher Natur diese Symbole denn seien. In neuronalen Netzwerken sind Symbole und Regeln nicht sauber voneinander getrennt „abgespeichert“, vielmehr ist alles, was das Netz „weiß“ in der gesamten Architektur des Netzes, das heißt in allen Neuronen, allen Gewichten und deren Konfiguration, verteilt repräsentiert. Man spricht daher auch von einem subsymbolischen Ansatz (Rumelhart et al., 1986; Smolensky, 1998; Elman, 1990).
!
Eigenschaften Künstlicher Neuronaler Netze (KNN):
- KNN lernen anhand von Beispielen (Erfahrungslernen), ohne explizit eingegebene Regeln und Symbole.
- Sie können, kategorisieren, generalisieren und Muster erkennen.
- Die Repräsentation ist verteilt (subsymbolischer Ansatz) und robust.
- Sie machen ähnliche Fehler wie Menschen und sind biologisch plausibler, weil ihre Architektur von der Struktur natürlicher Neuronaler Netze inspiriert ist.
Konsequenzen für unsere Begriffe von Wissen und Lernen
Der erste Erfolg der Künstlichen Neuronalen Netze war zunächst, ein biologisch plausibles Modell dafür zu liefern, wie Symbole und Regeln gelernt werden können. In gewisser Weise setzen sie eine Ebene tiefer an als der symbolverarbeitende Ansatz: Sie bieten eine Alternative auf der subsymbolischen Ebene an (Smolensky, 1998). Konsequenz war aber ein neues Bild von Repräsentation und Eigenschaften kognitiver Systeme.
Damit erlauben die KNN eine fundamental andere Sichtweise auf Wissen (Peschl 1994; 1997). Zunächst ist klar: Das „Wissen im Kopf“ muss strukturell keineswegs identisch mit den in Symbolen und Regeln beschriebenen Strukturen der Welt sein. Nicht die korrekte Abbildung der Welt ist relevant, sondern das adäquate Ergebnis, also gewissermaßen die Handlung, die in die Struktur der Umwelt passen muss. Als eine Konsequenz der Aufgabe des Konzeptes der Abbildung sind die Inhalte der Repräsentation, im Gegensatz zu klassischen symbolverarbeitenden Systemen, nicht mehr unmittelbar verständlich; vielmehr bedarf es aufwändiger statistischer Verfahren, um herauszufinden, was so ein Netz eigentlich gelernt hat.
Eine weitere interessante Konsequenz der verteilten Repräsentation ist, dass, im Gegensatz zum klassischen Ansatz, keine Trennung zwischen Inhalt und Substrat besteht: das Netz ist sein Wissen und dieses Wissen ist in der Architektur verkörpert, zumindest potentiell, denn zumeist handelt es sich bei KNN ja um Computersimulationen (zum Beispiel Clark 1999, 2001). Damit gibt es auch keine leicht voneinander trennbaren Wissensobjekte mehr, vielmehr werden alle dem neuronalen Netzwerk präsentierten Stimuli (zum Beispiel Bilder) von allen Neuronen und allen Gewichten repräsentiert. Die Repräsentation das KNN kann man als einen Raum verstehen, in dem Inputs kategorisiert und dadurch in eine Beziehung (in diesen einfachen Modellen ist es Ähnlichkeit) gesetzt werden.
Die Analogien zu Bildungskontexten, insbesondere Frontalsituationen liegen auf der Hand: Die Input-Output-Relation ist dadurch bestimmt, dass Lernende durch Vortrag, Durcharbeiten eines Lernpfades, etc. einen Stoff präsentiert bekommen und in einer Prüfungssituation den gewünschten Output zu liefern haben. Doch Lernen ist kein Kopiervorgang von Wissensobjekten.Was gelehrt wird, muss noch lange nicht das sein, was gelernt wird. Nachdem Lernen in unserem Bildungssystem häufig outputgetrieben ist („Was muss ich tun, um eine gute Note zu bekommen?“), liegt es daher nahe, Prüfungen so anzulegen, dass nicht isolierte Fakten abgefragt werden, sondern ein Verständnis der Kategorien und Bezüge des gesamten „Wissensraumes“ gefordert ist und eine Deep-Learning-Strategie auf Seiten der Lernenden notwendig wird.
?
Welche Prüfungssituationen, die Sie als Lernende erlebt oder als Lehrende gestaltet haben, haben Fakten abgefragt und welche Prüfungsmethoden sind ‚tiefer’ gegangen?
Embodied and Situated Cognition, Enactivism
Embodied Cognition - Verkörperte Kognition
Rückwirkend kann der Konnektionismus, der zu seiner Zeit eine Revolution war, als Bindeglied und Übergangsphase zwischen zwei Paradigmen gesehen werden. Was als „Nebenwirkung“ des Konnektionismus begann, rückte schließlich ins Zentrum des Interesses: Während die klassische Kognitionswissenschaft versucht hatte, die Welt möglichst genau in formalisierten Strukturen abzubilden, rückte durch den Konnektionismus die Frage in den Mittelpunkt, wie KNN-Architektur und -Prozesse mit der Struktur und Dynamik der Umwelt (Stimuli) zweckmäßig und dem jeweiligen System angemessen interagieren. Damit war der Weg frei, die zentrale implizite Annahme der klassischen Kognitionswissenschaft in Frage zu stellen: Wie biologisch plausibel ist überhaupt die stillschweigende Annahme, dass Kognition vor allem dafür da ist, abstrakte Symbole und Regeln zu verarbeiten?
Der Fokus auf die Interaktion eines verkörperten kognitiven Systems, also eines kognitiven Systems dessen physische Beschaffenheit eine zentrale Rolle für seine Repräsentationsfunktionen spielt, mit seiner physischen Umwelt, erlaubte eine neue, biologischere Sichtweise: Die Aufgabe von Kognition ist es, einem Organismus sinnvolles, das heißt überlebensförderliches Handeln in Raum und Zeit zu ermöglichen. Im Paradigma der Embodied Cognition wurde die Koppelung von Kognition, Körper und Welt daher zum zentralen Thema. Damit änderten sich auch die Modelle und die Perspektive auf Wissen(-srepräsentation). Sie kommen nun vielfach aus dem Bereich der Robotik.
Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt
Anforderung an ein kognitives System war nun nicht länger, über möglichst viel und präzises Weltwissen zu verfügen, um in seiner Umwelt funktionieren zu können, es ging vielmehr darum, zeitgerecht mit Veränderungen der Umwelt adäquat umzugehen, (pro-)aktiv und intentional zu handeln. Schon 1986 postulierte Rodney Brooks, man brauche keine Repräsentation und schlug eine Roboterarchitektur vor, die robustes und gleichzeitig flexibles Verhalten hervorbrachte, die sogenannte Subsumption Architecture (Brooks, 1991).
Das Wesentliche ist, dass ein solches System ohne eine klassische Form der Repräsentation, das heißt ohne eine Beschreibung, welche die Welt abbildet, auskommt. Stattdessen ist das Wissen in der Architektur selber verkörpert und dient der Generierung von Verhalten in Interaktion mit der Welt. An die Stelle eines kognitiven Prozesses, der aus Wahrnehmen, Planen/Entscheiden und Handeln besteht, tritt eine enge Koppelung mit der Umwelt.
Die Basis dieser Architektur bilden Reflexbögen („layer“ oder Schichten), die Aufgrund von Umweltreizen reagieren, bzw. gehemmt werden (denken Sie an den Lidschlußreflex). Untereinander sind die Schichten hierarchisch gekoppelt, so dass ein Reflex die Ausführung eines anderen unterbinden kann, sobald er vom „richtigen“ Umweltereignis ausgelöst wird. Damit ist sichergestellt, dass der Roboter einerseits fortlaufend auf Ereignisse in seiner Umwelt reagiert und andererseits selbst durch Aktivität für neue Ereignisse sorgt. Die Aktivität der einzelnen Schichten wird über die Umwelt orchestriert, unabhängig davon, aus wie vielen Schichten das System besteht. All das geschieht ohne Informationsaustausch. Es gibt weder eine zentrale Planungs- und Entscheidungsinstanz, noch eine Abbildung der Welt.
Brooks’ Ansatz stellt ein Extrem dar, aber er illustriert einige Punkte, die generell kennzeichnend für den Ansatz der embodied cognitive science sind (eine etwas ausführlichere Übersicht von Cowart (2006) finden Sie in Tabelle 3) Kognition ist eine Aktivität: Die Handlung steht im Vordergrund, nicht die (passive) Perzeption. Untersucht wird Kognition an der Schnittstelle Körper – Umwelt, also an der Peripherie des kognitiven Systems. Im Gegensatz zur klassischen Kognitionswissenschaft, die bei menschlichen kognitiven Höchstleistungen ansetzte, beginnt dieser Ansatz mit sehr einfachen Strukturen und Verhaltensweisen, aber dafür mit einem vollständigen, sich in seiner Umwelt autonom verhaltenden System.
Embodiment | Kognitivismus |
---|---|
Koppelungsmetapher: Kognition/Geist, Körper und Welt sind gekoppelt und interagieren | Computermetapher: Kognition/Geist ist regelbasiert und logisch |
Will man sie verstehen, müssen ihre Zusammenhänge untersucht werden | Isolierte Analyse: Kognition wird ausschließlich durch Analyse interner Prozesse verstanden |
Im Vordergrund: zielgeleitetes Handeln in Echtzeit im dreidimensionalen Raum | Im Vordergrund:computation |
Kognition als aktive Konstruktion, die in verkörperten, zielgerichteten Handlungen des Organismus verankert ist | Kognition als passives Abrufen |
Repräsentationen sind sensomotorisch | Repräsentationen sind symbolisch encodiert |
Tab. 3: Unterschiede von Embodiment und Kognitvismus nach Cowart (2006)
Ganz ohne Repräsentation wird man nicht auskommen, wenn man menschliche Kognition verstehen will, aber Kognition als rein „geistiges“, von Körper, physischer und sozialer Umwelt unabhängiges Phänomen zu betrachten, führt ebenfalls in eine Sackgasse.
Ein Experiment, das diese Sichtweise stützt, kommt von Presson und Montello (1994) (Box „Aus der Forschung“). Glenberg (1993) schließt daraus, dass unsere Repräsentationen keineswegs körperunabhängig, sondern im Gegenteil, stark von der Position unseres Körpers im dreidimensionalen Raum abhängen. Es legt nahe, dass die Repräsentation der Probandinnen und Probanden einen sensomotorischen Anteil hatte.
Die Hervorbringung und Nutzung von Artefakten als Teil unserer Kognition: Die Rolle der sozialen Interaktion, der Sprache und der Kultur
Francisco Varela postulierte bereits 1984, dass Intelligenz nicht mehr als die Fähigkeit des Problemlösens zu verstehen sei, sondern als die Fähigkeit, in eine mit anderen geteilte Welt einzutreten (Varela, 1994). Einen Hinweis darauf, dass schon die Gegenwart anderer eine „geteilte Welt“ erzeugt, gibt das Experiment von Sebanz et al. (2009) (Box: „Aus der Forschung: Gegenstände einprägen und soziale Situation“).
Die „geteilte Welt“ ist jedoch nicht einfach gegeben, ebenso wie Kognition entsteht sie in einem aktiven Prozess: Menschen reagieren nicht nur auf Stimuli in der Umwelt, sondern wir verändern und strukturieren sie in hohem Maße. Der Philosoph Andy Clark (1995) bezeichnet dies als Scaffolding (Errichten eines Gerüsts): Wir strukturieren unsere Umwelt so, dass sie uns in unseren Handlungen, bzw. beim Erwerb von Fähigkeiten unterstützt. Ein alltägliches Beispiel ist der Terminkalender: Wir müssen uns nicht länger jeden Termin merken, stattdessen werfen wir kognitive Last ab (man spricht von engl. „offloading cognitive load“) und interagieren mit unserem Terminkalender, indem wir Einträge machen, bzw. ihn konsultieren. Eine kognitiv anspruchsvolle Aufgabe – hier: viele unterschiedliche Termine exakt „im Kopf haben“ – wird auf wenige Handlungsmuster in Form der Interaktion mit einem Artefakt heruntergebrochen.
Aus der Forschung: Gegenstände einprägen und Position im Raum (Presson & Montello, 1994)
Zwei Versuchsgruppen wurden gebeten, sich die Position einiger Gegenstände in einem Raum zu merken. Anschließend wurden ihnen die Augen verbunden. Die erste Gruppe wurde gebeten sich um 90° zu drehen und nacheinander auf die Objekte zu zeigen, die angesagt wurden. Die zweite Gruppe wurde gebeten sich lediglich vorzustellen, sie hätten sich gerade um 90° gedreht und sollten auf die Position zeigen, welche die Objekte einnehmen würden, wenn sie sich gedreht hätten. Aus Sicht des kognitivistischen Paradigmas tun beide Gruppen dasselbe: Sie rotieren ihre Repräsentation des Raumes und der Objekte darin um 90°. Daher wäre anzunehmen, dass es keine Rolle spielt, ob die Probandinnen und Probanden sich zusätzlich physisch in eine andere Position begeben. Tatsächlich aber zeigten die Probandinnen und Probanden der ersten Gruppe, die sich tatsächlich gedreht hatten, schnell und akkurat auf die gefragten Objekte, während die Zeigebewegungen der zweiten Gruppe, die sich die Drehung lediglich vorstellen musste, zögerlich und ungenau waren.
?
Überlegen Sie bitte, in welchen alltäglichen Situationen Sie Artefakte verwenden, die Ihnen „kognitiven Ballast“ abnehmen. Welche kognitive Last laden Sie ab und welche Interaktionsmuster treten an ihre Stelle?
Darüber hinaus strukturieren wir unsere Umwelt nicht nur durch Artefakte, wie Werkzeuge, Terminkalender, Städte, sondern durch soziale Konventionen, Organisationen und – nicht zuletzt — durch Sprache. Letztere bezeichnet Clark (1995) als „ultimatives Artefakt“, weil sie folgende Funktionen erfüllt:
- Ein symbolisches Artefakt hat immer den Aspekt der Referenz. Das heißt ein Symbol referiert auf den Gegenstand, für den es steht. Es ist klar, dass diese Referenz nicht im Symbol selber, sondern durch eine Zuschreibung durch ein oder mehrere kognitive Systeme geschieht. Das Artefakt ist sozusagen nur Träger für eine potentielle Referenzfunktion.
- Darüber hinaus vermögen symbolische Artefakte Teile unseres Gedächtnisses stabil zu halten und
- die Strukturierung der Umwelt zu verhandeln.
Über Artefakte beeinflussen wir die Interaktionsmöglichkeiten anderer mit der Welt und werden in noch stärkerem Maße selbst beeinflusst. Mit anderen Worten: Kognition (hier ist weitgehend menschliche Kognition gemeint) hat immer eine sozio-kulturelle Dimension, man spricht in diesem Kontext auch von Situated Cognition (Clark, 2001). Die nächste Generation erhält nicht nur die Gene der Elterngeneration, sondern wächst in die entstandenen sozialen und organisationalen Strukturen sowie die Interaktion mit physischen Artefakten hinein. Tomasello (1999) bezeichnet diesen Umstand in seinem Buch „The Cultural Origin of Human Cognition“ als Ratscheneffekt (engl. „ratchet effect“): Wie die Zacken des Zahnrads, welche die Drehung der Ratsche in eine Richtung erzwingen, ermöglichen Artefakte den Aufbau neuer Interaktionsmuster auf der Basis der bereits geschaffenen Artefakte.
Hutchins (1995) wechelt daher die Betrachtungsebene: In seinem Artikel „How a cockpit remembers its speeds“ ist der Forschungsgegenstand kognitives System nicht mehr das Individuum, sondern ein sozio-technisches System, das nicht nur aus Individuen (Piloten/Pilotinnen), sondern auch aus Artefakten (Messinstrumente und Unterlagen) im Cockpit, besteht. Um zu verstehen, warum das Flugzeug sicher landet, reicht es aus seiner Sicht nicht aus, die kognitiven Prozesse im Kopf der Piloten/Pilotinnen zu analysieren, eine Erklärung für die Leistung findet sich erst, wenn man alle Formen der Repräsentation – sei diese im Gehirn, auf Papier, einem Messinstrument oder eine sprachliche Äußerung, sowie die Interaktionsmuster zwischen ihnen — analysiert. (Man beachte an dieser Stelle eine weitere Umdeutung des Begriffs der Repräsentation!)
Im Bereich des Lehrens und Lernens ist eine solche Betrachtungsweise eine gute Basis, um Lernprozesse als situiert zu konzeptualisieren. In ihrem Buch „Situated Learning“ analysieren Lave und Wenger (1991) außerschulische Lernprozesse, wie sie beispielsweise in einer Lehre, bei der Ausbildung zum Steuermannsmaat auf Schiffen (ein Beispiel von Hutchins) oder bei den Anonymen Alkoholikern stattfinden, als Lernprozesse in denen sich Person, Handlung und Welt gegenseitig konstituieren. Ihr Augenmerk ist dabei weniger auf Artefakte, als auf die sozialen und organisationalen Strukturen gerichtet, die dazu führen, dass Neulinge in einem Wissensgebiet nicht einfach nur Fakten lernen, sondern in eine Handlungsgemeinschaft (community of practice, Wenger, 1998) eintreten und mit zunehmender Expertise auch eine neue Identität entwickeln. Unter welchen Bedingungen communities of practice nicht ausschließlich im physischen Raum, sondern als virtual communities (Englisch für „virtuelle Gemeinschaften“), im Internet existieren können, zeigt Powazek (2001).
Aus der Forschung: Gegenstände einprägen und soziale Situation (Sebanz et al., 2009)
Sebanz et. al. (2009) zeigten ihren Versuchspersonen verschiedene Bilder aus drei Kategorien (Tier, Frucht/Gemüse und Haushaltsgerät) auf einem Computerbildschirm, wobei eine Versuchsperson immer auf eine Kategorie mit Tastendruck reagieren sollte. Diese Aufgabe wurde unter zwei Umständen durchgeführt: alleine und in Gegenwart einer zweiten Versuchsperson, deren Aufgabe es war, auf eine andere Kategorie zu reagieren. Nach dieser Aufgabe wurden die Versuchspersonen jeweils gebeten, möglichst viele der gesehenen Objekte aller Kategorien zu erinnern. Das Ergebnis war verblüffend: Personen, die ihre Aufgabe in Gegenwart einer zweiten Versuchsperson erfüllt hatten, erkannten signifikant mehr Objekte aus der Kategorie der anderen Person wieder, als wenn sie die Aufgabe alleine bewältigten. Die Anwesenheit der zweiten Person hatte weder Auswirkung auf das Erinnern der „eigenen“ Kategorie noch auf das der dritten Kategorie. Allein die soziale Situation, ohne eine im eigentlichen Sinne gemeinsame Aufgabe, hatte Auswirkungen auf die Aufmerksamkeit und das Gedächtnis der Versuchspersonen.
Konsequenzen für unsere Sicht auf Wissen, Lernen und Technologien
Was sind die Konsequenzen einer verkörperten und situierten Kognitionswissenschaft für unseren Wissensbegriff? Vom leicht fassbaren, weil formalisierbaren Wissensbegriff der klassischen Kognitionswissenschaft ist nicht viel übrig geblieben. Stattdessen ist die Rede von verteilter Repräsentation, Interaktion und Koppelung mit der Umwelt, Verwendung von Artefakten, um kognitiven Ballast zu reduzieren, usw. Was davon ist „Wissen“ – was sind für das kognitive System interne und was sind externe Strukturen?
Externalisiertes Wissen als Entität, das einen Teil der Welt beschreibt, gibt es in der Form nicht; es handelt sich hier nicht um „Wissen“ im alltagssprachlichen Sinn, sondern um ein an sich bedeutungsloses Artefakt, dessen Bedeutung in einem fortlaufenden interaktiven Ausverhandlungsprozess zwischen den teilnehmenden kognitiven Systemen bzw. deren internen repräsentationalen Strukturen/-prozessen erst entsteht. Das bedeutet auch, dass an die Stelle des Begriffs von Wissen als statischen Gegenstand, der wahr oder falsch sein kann, das Konzept eines dynamischen zyklischen Prozesses getreten ist, dessen Entwicklungsstufen sich in immer neuen Artefakten niederschlagen, die ihrerseits neue Interaktionsmöglichkeiten anbieten, welche wiederum eine Veränderung der internen Strukturen und Handlungsmuster hervorrufen.
Das geht insofern mit einem konstruktivistischen Denken Hand in Hand, als das Artefakt an sich bedeutungslos ist. Der Fokus liegt hier jedoch weniger auf der individuellen Kognition und Konstruktion der „Welt im Kopf“ als auf den Prozessen und Strukturen, die dazu führen, dass wir durch Kommunikation zu einer Einigung auf „gültiges Wissen“ — im Sinne von sozial verhandelt — kommen. Letztlich befähigt uns das zum Eintreten in eine „geteilte Welt“, die wir in Wissensprozessen fortwährend erzeugen.
Nimmt man diesen Ansatz ernst, hat das auch Implikationen für das Verständnis von Lernen und Lehren: Etwas gelernt zu haben, beschränkt sich nicht auf die korrekte Reproduktion einer Beschreibung eines Teils der Welt (Faktenwissen). Relationen zwischen diesen Beschreibungen, Verhaltensstrategien zur erfolgreichen Umweltbewältigung und letztendlich die Fähigkeit zur Teilnahme an Wissensprozessen sowie deren Reflexion sind ebenso unabdingbar, um „etwas zu wissen“.
?
Wie nehmen Sie die Lernräume wahr, mit denen Sie als Lernende/r, Lehrende/r oder Applikationsdesigner/in konfrontiert sind? Welcher Wissensbegriff wird durch welche Elemente gefördert? Wie könnte man den Raum so verändern, dass er Wissensprozesse (besser) unterstützt?
Dies hat auch Konsequenzen für die Rolle der Lehrenden: Sie sind nicht länger Verkündende finaler Wahrheiten, sondern Coaches oder Moderatorinnen und Moderatoren, die „nur“ mehr die Wissensdynamik im Lehr-/Lern-Raum moderieren. Man könnte meinen, dass dies ihre Wichtigkeit und Autorität als „Wissende“ vermindert; sieht man jedoch genauer hin, wird sie bedeutsamer denn je, da sie die Umwelt gestalten, das heißt die Artefakte und damit die möglichen Interaktionsmuster auswählen, die Wissensprozesse erst ermöglichen und durch ihr Verhalten die Regeln der sozialen Interaktion festsetzen. Sie sind Gestaltende von Lernräumen, die entweder Bulimie-Lernen fördern, oder aber Enabling Spaces sein können (Peschl et al., 2008), Räume, die in einer Vielzahl an Dimensionen (architektonisch, sozial, technologisch, kognitiv, emotional, etc.) ermöglichende Rahmenbedingungen bieten, um die Arbeit der Wissensgenerierung und Bedeutungsverhandlung zu unterstützen.
Auf der Ebene von Technologien hat sich interessanterweise ein Wandel vollzogen, den man als Konsequenz eines veränderten Bildes von Kognition und Wissen deuten kann: Die monolithische Autorität eines Brockhaus ist abgelöst worden von Wikipedia, einem Artefakt, das gleichzeitig Raum für und Produkt eines permanenten Ausverhandlungsprozesses über Wissensartefakte ist.
Nur Artefakt und Prozess gemeinsam konstituieren Wissen, die Aufgabe von Kognition ist es nicht, Wissensartefakte abzubilden, sondern mit ihnen zu interagieren und im besten Falle in gemeinsame Wissens- und Bedeutungsgebungsprozesse eintreten zu können. Nimmt man diese Überlegungen ernst, so ergibt sich für das Design von Wissens- und Lehr-/Lerntechnologien, dass nur solche Ansätze erfolgreich sein werden, die einen Raum für Interaktionen bieten und Ausverhandlungsprozesse von Bedeutung unterstützen, wie sie in Web-2.0-Technologien wie Wikis verwirklicht sind, nicht aber solche, die auf starren und vorgegebenen semantischen Strukturen basieren.
Literatur
-
Bechtel, W.; Abrahamsen, A. & Graham, G. (1998). The life of cognitive science. In: Bechtel W. & Graham G. (Hrsg.), A companion to cognitive science, Oxford: Blackwell, 1-104.
-
Brooks, R. A. (1986). A Robust Layered Control System for a Mobile Robot. In: IEEE Journal of Robotics and Automation, 2 (1), 14-23.
-
Brooks, R.A. (1991). Intelligence without representation. In: Artificial Intelligence, 47, 139-159.
-
Chomsky, N. (1959). A Review of B. F. Skinner's Verbal Behavior. Language, 35 (1), 26-58.
-
Clark, A. (1995). Being There – Putting Brain, Body and World Together Again. Cambridge: MIT Press.
-
Clark, A. (1999). An embodied cognitive science?. In: Trends in Cognitive Sciences, 3(9), 345-351.
-
Clark, A. (2001). Mindware. An introduction to the philosophy of cognitive science. New York: Oxford University Press.
-
Cottrell, G. (1991). Extracting features from faces using compression networks: Face, identity, emotions and gender recognition using holohns. In: Touretsky, D.; Elman, J.; Sejnowski, T.; & Hinton, G. (Hrsg.), Connectionist Models: Proceedings of the 1990 Summer School. San Mateo, CA: Morgan Kaufmann.
-
Dreyfus, H. (1972). What Computers Can't Do. New York: MIT-Press.
-
Elman, J.; Bates, E.A.; Johnson, M.H.; Karmiliff-Smith, A.; Parisi, D. & Plunkett, K. (1996). Rethinking Innateness: A connectionist perspective on development. Cambridge, MA: MIT Press.
-
Elman, J.L. (1990). Finding structure in time. In: Cognitive Science, 14, 179-211.
-
Glasersfeld, E.v. (1996). Radikaler Konstruktivismus. Ideen, Ergebnisse, Probleme. Frankfurt am Main: Suhrkamp.
-
Glenberg, A.M. (1997). What memory is for. In: Behavioral and Brain Sciences, 20 (1),1-55.
-
Hofstadter, D.R. (1979). Gödel, Escher, Bach. An Eternal Golden Braid. Basic Books: New York.
-
Hug, T. (2005). Micro Learning and Narration. Exploring possibilities of utilization of narrations and storytelling for the designing of "micro units" and didactical micro-learning arrangements. Paper presented at the fourth Media in Transition Conference, May 6-8, 2005, MIT, Cambridge (MA), USA.
-
Hutchins, E. (1995). How a cockpit remembers its speeds. In: Cognitive Science, 19, 265-88.
-
Land, R; Meyer, J. & Smith, J. (2008). Threshold Concepts within the Disciplines. Rotterdam: Sense Publishers.
-
Lave, J. & Wenger, E. (1991). Situated Learning: Legitimate Peripheral Participation. Cambridge: Cambridge University Press.
-
Marton, F. & Säljö, R. (1976). On qualitative differences in learning. I – Outcome and Process. In: British Journal of Educational Psychology, 46, 4-11.
-
Maturana, H.R. (1970). Biology of cognition. In: Maturana, HR. & Varela, F.J. (Hrsg.), Autopoiesis and cognition: the realization of the living, Dordrecht/Boston: Reidel Pub, 2-60.
-
McCulloch, W.S. & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. In: Bulletin of Mathematical Biophysics, 5, 115-133.
-
Newell, A. & Simon, H. (1963). GPS, a program that simulates human thought. In: Feigenbaum, E. & Feldman, J. (Hrsg.), Computers and Thought, New York: McGraw-Hill. 279-293.
-
Peschl, M.F. & Wiltschnig, S. (2008). Emergente Innovation und Enabling Spaces. Ermöglichungsräume für Prozesse der Knowledge Creation. In: Seehusen, S.; Herczeg, M.; Fischer, S.; Kindsmüller, M.C. & Lucke, U. (Hrsg.), Proceedings der Tagungen Mensch & Computer 2008, DeLFI 2008 und Cognitive Design 2008, Berlin: Logos, 446-451.
-
Peschl, M.F. (1994). Repräsentation und Konstruktion. Kognitions- und neuroinformatische Konzepte als Grundlage einer naturalisierten Epistemologie und Wissenschaftstheorie. Braunschweig/Wiesbaden: Vieweg.
-
Peschl, M.F. (1997). The Representational Relation Between Environmental Structures and Neural Systems: Autonomy and Environmental Dependency in Neural Knowledge Representation. Nonlinear Dynamics, Psychology, and Life Sciences (NDPSFS), 1(2), 99-121.
-
Powazek, D. (2002). Design for Community. Berkeley: New Riders.
-
Presson C. & Montello D. R. (1994). Updating after rotational and translational body movements: coordinate structure of perspective space. In: Perception, 23 (12), 1447-1455.
-
Rumelhart, D. & McClelland, J. (1986). Parallel Distributed Processing, 1 & 2., Cambridge: MIT Press.
-
Rumelhart, D.; Smolensky, P.; McClelland, J.L. & Hinton G.E. (1986). Schemata and sequential thought processes in PDP models. In: McClelland, J.L. & Rumelhart, D.E. (Hrsg.), Parallel Distributed Processing: explorations in the microstructure of cognition, In: Psychological and biological models, Cambridge: MIT Press, 7-57.
-
Sebanz, N.; Eskenazi, T.; Doerrfeld, A. & Knoblich, G. (2009). I will remember you: Enhanced memory for information pertaining to a relevant other. In: Proceedings of the 3rd Joint Action Meeting, July 27-29, 2009.
-
Skinner, B.F. (1957). Verbal Behavior. Acton: Copley Publishing Group.
-
Smolensky, P. (1988). On the proper treatment of connectionism. In: Behavioral and Brain Sciences, 11, 1-74.
-
Swertz, Ch. (2004). Didaktisches Design. Ein Leitfaden für den Aufbau hypermedialer Lernsysteme mit der Web-Didaktik. Wilhelm Bertelsmann Verlag: Bielefeld 2004.
-
Tomasello (1999). The Cultural Origins of Human Cognition. Cambridge, Massachusetts: Harvard University Press.
-
Turing, A. (1936). On computable numbers, with an application to the entscheidungsproblem. In: Proceedings of the London Mathematic Society, 42, 230-265.
-
Turing, A. (1950). Computing machinery and intelligence. In: Mind, Nwes Series, 59 (236), 433-460.
-
Varela, F.J. (1990). Kognitionswissenschaft - Kognitionstechnik. Eine Skizze aktueller Perspektiven. Frankfurt am Main: Suhrkamp.
-
Wenger, E. (1998). Communities of Practice: Learning, Meaning, and Identity. Cambridge: Cambridge University Press.
-
Zimbardo, P.G. & Gerring, R.G. (2004, 16. Auflage). Psychologie - Eine Einführung. München: Pearson Studium.