L3T - Lehrbuch für Lernen und Lehren mit Technologien

L3T - kurz für Lehrbuch für Lernen und Lehren mit Technologien - ist eine Open Educational Resource (OER) und in der aktuell gültigen Fassung über dieses Bookstack-Wiki abrufbar.

Gerade die Welt der Computer, des Internets bzw. der modernen Technologien ist besonders schnelllebige. So stehen gerade Bücher zu diesem Thema im ständigen Kampf, aktuell gehalten zu werden, um relevant zu sein und auch zu bleiben. Um diesem Trend entgegenzuwirken, soll das L3T-Lehrbuch gemeinsam aktuell gehalten werden. Jeder ist eingeladen, mitzuwirken, das Buch zu aktualisieren, zu erweitern und zu verbessern.

Um mitzuwirken gibt es neben dem Bookstack als Frontend ein öffentliches Github-Repo, in welchem die Inhalte des Buches angepasst werden können.

Das Repository ist über folgenden Link abrufbar: https://github.com/ed-tech-at/L3T


Einleitung

zum Lehrbuch und dem etwas anderen Lehrbuchprojekt

L3T ist überarbeitet und steht nun in der zweiten Auflage zur Verfügung. Wie es dazu kam und wie es im Rahmen des Projekts „L3T 2.0“ umgesetzt wurde, ist hier festgehalten. Da sich die Entstehung dieses Lehrbuchs deutlich von anderen Buchprojekten unterscheidet, wollen wir auch Einblick in den Entstehungsprozess geben. Ebenso, quasi als Vorwort in eigener Sache, wird beschrieben, worum es im Lehrbuch geht und wie man damit umgehen soll. So hat jedes Kapitel ein eigenes Schlagwort, einen Hashtag (#), auf den sich einerseits die Kapitel untereinander beziehen und mit denen andererseits im World Wide Web weitere Materialien bei verschiedenen Serviceangeboten zugänglich sind. Schließlich sprechen wir in dieser Einleitung noch jede Menge Danksagungen aus, denn das Buch ist nicht das Werk von wenigen Personen, sondern ein Projekt, bei dem immerhin rund 250 Personen mit- und zusammengewirkt haben!

Einleitung

L3T – die zweite Auflage

In der Einleitung zur ersten Auflage von L3T, die am 1. Februar 2011 auf der Learntec online ging, kann man zu den Absichten, L3T in einer neuen Auflage zu veröffentlichen, nachlesen: „Bis dahin gibt es jedoch allerhand zu tun, und zum Zeitpunkt der Veröffentlichung dieser Einleitung wissen wir selbst noch nicht im Detail, was alles im Bezug auf L3T passieren wird. Vor einem Jahr hatten wir die Idee, ein Lehrbuch zu initiieren ja noch nicht einmal ausgesprochen – wie sollen wir jetzt wissen, was in den nächsten drei Jahren passiert!“.

Die Zeit ist wie im Flug vergegangen und L3T ist wohl zu einem der bekanntesten deutschsprachigen Lehrbücher am Sektor des technologiegestützten Lernens und Lehrens aufgestiegen. Unglaubliche 235.000 Downloads der Kapitel (http://l3t.tugraz.at/analytics/, Stand 6.8.2013) zeugen von einer hohen Resonanz des Projekts und geben somit auch dem Ansatz des freien Zugangs Recht. Zahlreiche Pressemeldungen, Preise und Auszeichnungen haben uns nachhaltig bestärkt den richtigen Weg eingeschlagen zu haben. L3T ist von einem simplen Buch zu einer E-Learning-Marke aufgestiegen, die vor allem eines war und ist: ein Community-Projekt, in dem alle eingeladen sind, mitzumachen und beizusteuern bzw. umgekehrt auch davon für die eigenen Arbeiten, Weiterbildungen oder sonstigen Tätigkeitenzu profitieren.

Wie erwähnt, hatten wir als Herausgeber immer eine Überarbeitung im Auge, da unser Fachbereich natürlich einen großen Vorteil hat, der sich bei näherer Hinsicht jedoch auch manchmal als Nachteil entpuppt: Was heute noch als innovativ gilt, wird morgen bereits von der nächsten Technologie überholt. Nun entspricht es unserer persönlichen Auffassung von Wissenschaft und unserem Projektverständnis, dass eine Überarbeitung von L3T auch hier etwas bieten sollte, das neu und anders ist und auch der Wissenschaft unseres Fachbereichs weiterhilft.

Tja, wenn man nicht weiß, wie man etwas angehen soll, dann hilft oft eines: ein Spaziergang, bei dem man lacht und herumalbert. Auf die Frage von Sandra: „Wie stellst du dir eigentlich die zweite Version von L3T vor?“, gab Martin die Antwort: „Ach, ich will, dass nach einer Woche Rauch aufsteigt und ich aus dem Haus komme und das Buch fertig ist“.
Und schon war die Idee für L3T 2.0 geboren. Klar ein schräger Gedanke, ein Buch auf diese Weise, innerhalb eines so geringen Zeitrahmens fertigzustellen, aber er ließ sich nicht mehr aus unseren Köpfen verbannen. (Es könnte sein, dass es sich auch ein bisschen anders zugetragen hat. Weil wir uns nicht mehr genau daran erinnern, wie es war, steht im Weblog zum Projekt eine etwas andere Variante.)

Jedenfalls konkretisierte sich dazu eine gezielte Fragestellung, die wir im Folgenden mit verschiedenen Personen diskutiert haben: „Ist Echtzeit-Zusammenarbeiten in jener Form möglich, sodass ein solches Buch in einer Woche umsetzbar ist?“ Insbesondere ist da Joachim Wedekind zu erwähnen, der mit Martin bei der Veranstaltung L3T’s WORK im Juni 2012 schon sehr konkret an der Idee arbeitete. Die folgende Resonanz bei einer Kurzvorstellung, war wohl dann der letzte Kick, der uns das Projekt für die Ausschreibung „netidee“ einreichen ließ, da dieses Mal klar war: Gänzlich ohne finanzielle Mittel ist so etwas nicht umsetzbar.

Die Antwort war positiv: das Projekt wurde genehmigt und eine Reihe von Ausgaben, beispielsweise für Marketing-Materialien waren nun gedeckt. Leider jedoch nur ein sehr kleiner Teil unserer Arbeitszeit, doch nun hieß es: Jetzt gibt es kein Entkommen mehr, es gilt diese Idee umsetzen und ein schräges, eigentümliches Projekt vom 20. bis zum 28. August 2013 durchzuführen.

Nun aber alles der Reihe nach. Dieses Einleitungskapitel erklärt generell was L3T ist, wem es helfen soll und unter welcher Lizenz die Inhalte stehen. Auch wird die eigentliche Umsetzung beschrieben und zuletzt eines ausgesprochen: DANKE. Ein großes Danke an euch, die mitgeholfen, die genauso wie wir an diese verrückte Idee geglaubt und einen Baustein dazu beigetragen haben, um das große Ganze zu erreichen.

Einleitung

Was ist denn eigentlich „L3T“?

Weil das „Lehrbuch für Lernen und Lehren mit Technologien“ ein langer und vor allem sperriger Titel ist, haben wir ihn schlicht und einfach zu „L3T“ (also dreimal L und einmal T) abgekürzt. Wir bezeichnen so gleichermaßen das Lehrbuch an sich wie auch das gesamte Projekt. Auch die englische Übersetzung „Textbook for Learning and Teaching with Technologies“ liefert übrigens das gleiche Akronym (dreimal T und einmal L). Wir sprechen es „EL-DREI-TE“ aus, aber greifen insbesondere bei Marketingmaßnahmen gerne auf Leetspeak zurück, wo die „3“ zu einem „E“ wird. So haben wir beispielsweise diverse Slogans wie „L3T’s WORK“ oder „L3T’s do it“ verwendet.

Einleitung

Zielgruppe und Themenfeld

Ein Lehrbuch richtet sich an Lernende, die sich ein Forschungs- und Praxisgebiet erschließen möchten und an Lehrende in Studiengängen im jeweiligen Themenfeld, die Anregungen und Unterlagen für ihren Unterricht suchen. Das Themenfeld „Lernen und Lehren mit Technologien“ ist dabei weit gefasst: Es beinhaltet alle Lern- und Lehrprozesse sowie -handlungen, bei denen technische, vor allem elektronische (zumeist auch digitale) Geräte und/oder dafür erstellte Anwendungen eingesetzt werden. Ein besonderes aber nicht ausschließliches Augenmerk liegt dabei auf Anwendungen und Geräten der Informations- und Kommunikationstechnologien (IKT). Dieses Lehrbuch für Lernen und Lehren mit Technologienwendet sich also an Studierende und Lehrende in einem interdisziplinären Themenfeld, das Aspekte von Pädagogik, Informatik, Psychologie und zahlreichen anderen angrenzenden Wissenschaftsgebieten berührt.

Einleitung

Inhalt im Überblick

In 59 Kapiteln werden unterschiedliche Facetten und Gesichtspunkte des Fachbereichs ausgewählt. Der Bogen ist dabei weit gespannt: von eher historischen Beiträgen, welche die Entwicklung des „Hypertext“ oder des Fernunterrichts beschreiben, über eine Reihe von Beiträgen, die einzelne Theorien und Forschungsansätze aufgreifen, bis zu Beschreibungen des Einsatzes von Technologien in ausgewählten Bildungssektoren und Fachgebieten. Viele davon behandeln Themen, die derzeit in den (akademischen) Aus- und Weiterbildungsprogrammen behandelt werden. Es gibt aber auch eine Reihe von Beiträgen, die nicht zum eigentlichen Kerncurriculum des Fachbereichs gehören, aber deutlich machen, wie vielfältig und unterschiedlich der Einsatz von Technologien behandelt wird. Ein gutes Beispiel dafür sind die Beiträge zum Technologieeinsatz im Sport oder der Tiermedizin. Einige Kapitel sind für Studierende, die Informatik oder Pädagogik studieren, weniger interessant, da sie ihnen bereits bekannte Inhalte beschreiben werden. Umgekehrt, und auch für all diejenigen, die keine Vorkenntnisse in der Informatik und Pädagogik haben, sollten diese einführenden Kapitel aber hilfreiche Unterstützung bieten.

Viele der Themen, die im Lehrbuch behandelt werden, finden sich in Abbildung 1, der L3T-Landkarte, wieder: Visualisiert als Städte, Gebirge, Seen, Inseln usw. kann man hier die Gegenden (Themengebiete) des Lehrbuchs erkunden.

!

Das Lehrbuch für Lernen und Lehren mit Technologien ist auf der Homepage http://l3t.eu zugänglich. Dort findet man viele weitere Materialien und Interaktionsangebote, die es erlauben, zu diskutieren oder weitere Inhalte zu erlangen.

Einleitung

Zugänge zum Lehrbuch

Das Lehrbuch und seine Kapitel erscheinen in unterschiedlichen Formen. Zunächst einmal gibt es alle Kapitel mit freiem Zugang am Webportal von L3T: http://l3t.eu. Um das Einbinden der Kapitel beispielsweise in Weblogs zu ermöglichen, gibt es alle Kapitel auch im L3T-Slideshare-Account (http://www.slideshare.net/L3Tslide).

Alle Kapitel sind mit einer Creative-Commons-Lizenz versehen, die es erlaubt, die Beiträge im Unterricht zu nutzen, sie zu versenden oder sie auch auf anderen Plattformen zur Verfügung zu stellen. Eine wesentliche Neuerung zur ersten Version ist, dass in der Auflage zwei die Inhalte so verfügbar sind, dass sie auch ohne Bedenken in Auszügen in eigenen Präsentationen bzw. auch in der kommerziellen Weiterbildungverwendet werden können. Schon in den sieben Tagen der Erstellung der Neuauflage wurden so Kapitel auf anderen Plattformen aufbereitet, zum Beispiel auf der Loop-Plattform (http://l3t.oncampus.de/) bzw. die Archivierung vorbereitet, zum Beispiel auf Pedocs (http://www.pedocs.de/). Wer sicher gehen will, eine aktuelle, originale Version eines Kapitels zu haben, sollte jedoch immer direkt auf die L3T-Website zugreifen. Den genauen Text der Lizenz kann man im Internet nachlesen beziehungsweise bei Unsicherheit oder zu weiteren Absprachen die L3T-FAQ zu Rate ziehen (siehe http://creativecommons.org/licenses/by-sa/3.0/de/).

Für Nutzerinnen und Nutzer eines iPhones oder Android-Mobiltelefons gibt es jeweils eine App, die das komfortable Lesen der Kapitel auf den entsprechenden mobilen Endgeräten möglich macht. Auch eine iPad-App steht zur Verfügung.

!

Sie können jederzeit mit den Herausgebern des Buches in Kontakt treten, entweder unter martin.ebner@l3t.eu oder sandra.schoen@l3t.eu.

!

Die Apps im Überblick:

Ergänzend gibt es L3T auch wieder als gedrucktes Buch. Das Buch ist als Service für alle gedacht, die gerne blätternd schmöken, mit dem Stift markieren, bei gleißendem Sonnenschein lesen möchten oder wenn ausnahmsweise kein digitales Endgerät vorhanden ist.

Einleitung

Gliederung des Lehrbuchs

Es ist nicht simpel, 59 Kapitel in eine Reihenfolge zu bringen, die für alle Leserinnen und Leser mit unterschiedlichen Voraussetzungen die richtige ist. Es ist wohl auch nicht möglich. Die Kapitel wurden zunächst drei Hauptgruppen zugeteilt: Beiträge, die als Einstiegstexte Übersichten geben, welche für viele weitere Kapitel Voraussetzungen sind, wurden dem Abschnitt „Einführung“ zugeordnet. Dann gibt es eine Reihe von Beiträgen, von denen wir annehmen, dass sie derzeit zum Kerncurriculum gehören, da sie Themen ansprechen, die in den Basismodulen aktueller Fortbildungsangebote genannt werden. Diese Beiträge finden sich im Abschnitt „Vertiefung“. Schließlich gibt es noch – auch in großer Zahl – Kapitel, die über das (aktuelle) Kerncurriculum hinausgehen. Diese wurden schließlich dem Abschnitt „Spezial“ zugeordnet. Dabei handelt es sich um Beiträge, die den Einsatz von Technologien zum Lernen und Lehren in bestimmten Bildungssektoren oder zu Fachgegenständen („Schulfächern“) beschreiben. Zu diesem Bereich gehören aber auch Beiträge, die den Einsatz von Werkzeugen und Methoden oder einzelne theoretische Zugänge und Forschungsansätze beschreiben. Es kann übrigens durchaus sein, dass die Beiträge in diesem Sektor für das eigene Studium oder Lehrgebiet zentral sind!

In der Online-Version des Lehrbuchs und auf der ersten Seite der Kapitel gibt es jeweils eine Reihe von weiteren Schlagworten, mit denen die Kapitel versehen wurden. Diese Schlagworte sind kleingeschrieben und beginnen mit einem Doppelkreuz, dem sogenannten „Hash“ (engl. „hashtag“). Das erste Schlagwort ist eine eindeutige Bezeichnung für dieses Kapitel, unter der es adressierbar und damit referenzierbar ist. Die weiteren Schlagwörter wurden mehrfach vergeben, so dass sich mit ihrer Hilfe die Kapitel auf weitere Arten auswählen und gruppieren lassen. Man kann dadurch zum Beispiel schnell einen Überblick über Inhalte bekommen, die zum Beispieleher Theorien und Forschung thematisieren (versehen mit #theorieforschung).

!

Das Lehrbuch verwendet zur Referenzierung der einzelnen Kapitel Hashtags (#). Damit können Verweise ohne eine weitere Nummerierung gesetzt beziehungsweise auch Verknüpfungen mit Online-Diensten hergestellt werden (durch die Eingabe der entsprechenden Tags).

Einleitung

Gestaltung der Kapitel

Allen Kapiteln ist gemein, dass sie neben einer Zusammenfassung, einer kurzen Einleitung sowie einem kurzen Fazit in das Themenfeld einführen und einen Überblick geben. Die Autorinnen und Autoren wurden dabei gebeten, wichtige Aussagen oder Bemerkenswertes zu kennzeichnen; solche Aussagen wurden in Kästchen gesetzt (Kennzeichnung: Rufzeichen). Ebenso erhalten alle Kapitel eine Reihe von Aufgaben unterschiedlicher Natur, die ebenso markiert wurden (Kennzeichnung: Fragezeichen). Neben Reflexions- und Wiederholungsfragen für einzelne Lernende und Leser/innen sind dies auch oft Aufgaben, die im Rahmen von Seminaren in kleinen Gruppen bearbeitet werden können.

Fast alle Kapitel haben abschließend auch eine oder mehrere graue Kästen, die mit „### In der Praxis“ überschrieben werden. Hier wird versucht, die konkrete Praxis zu beschreiben und Einblick in die tägliche Arbeit zu geben. In Forschungskapiteln kann dies auch als „Forschungspraxis“ zur Beschreibung von einzelnen Untersuchungen und Experimenten ausgewiesen sein.

Abb. 1: Die L3T-Landkarte
Abb. 1: Die L3T-Landkarte
Einleitung

Weitere Materialien zu den Kapiteln

Das erste Schlagwort im grauen Kasten auf der ersten Seite (bei dieser Einleitung ist es zum Beispiel #einleitung) ermöglicht es, diesem Kapitel auch noch weitere Materialien zuzuordnen, die im Internet zu finden sind. Wir nutzen dabei insbesondere, aber nicht ausschließlich, den Social-Tagging-Service Diigo (https://groups.diigo.com/group/l3t_20). Mit den entsprechenden Schlagworten lassen sich hier Internetadressen zu Videos und weiteren Informationen zu den Artikeln finden, wie etwa Anwendungsbeispiele oder auch Vertiefungsliteratur (sofern sie frei im Web zugänglich ist).

Einleitung

L3T 2.0 – Organisation, Ablauf und Neues

L3T ist kein klassisches Lehrbuch. Schon die erste Version zeichnete sich dadurch aus, dass es ein Gesamtwerk von rund 200 Personen war, die ein Ziel hatten – ein Lehrbuch für den Fachbereich frei zugänglich zu machen.

Die Erarbeitung einer erweiterten, vollständig überarbeiteten Version von L3T im Rahmen des Projekt „L3T 2.0“ sollte das natürlich beibehalten, Schwächen der ersten Version ausmerzen und sowohl technisch als auch organisatorisch einen Schritt weitergehen.

Organisatorisch lag die wesentliche Herausforderung darin, die wesentliche Arbeit in nur sieben Tagen zu erledigen, dazu detaillierte Planungen und Organisationen vorzubereiten, die richtigen Werkzeuge auszuwählen und auch genügend Mitmacher/innen zu finden.

Gleichzeitig galt es auch, die Autorinnen und Autoren davon zu überzeugen, wieder dabei zu sein und die Texte diesesmal noch offener, nämlich unter der Creative-Commons-Lizenz CC BY-SA zur Verfügung zu stellen, welche auch Modifizierungen der Texte erlaubt.

Da bei der ersten Auflage kritisiert wurde, dass nur ein PDF-Version erhältlich ist, soll die neue Auflage möglichst auch als XHTML sowie EPUB-Datei zur Verfügung gestellt werden. Hier erschien es uns unmöglich, in sieben Tagen mehrere Versionen nacheinander zu erstellen oder Korrekturen in drei Dateien parallel vorzunehmen. So entstand die Idee des L3T-E-Book-Editors, der die entsprechenden Datei-Formate, soweit dies möglich ist, layoutiert und „schön“ gestaltet, aber nur auf einer Basisdatei beruht.

Seit wir die Idee des Booksprints im Januar 2013 offiziell allen unter http://l3t.eu/2.0 (unserem Weblog zum Projekt) zugänglich machten, gab es vieles zu erledigen. Begonnen haben wir bei den Autorinnen und Autoren der ersten Version mit der Anfrage, ob sie die Überarbeitung ihres Kapitels durchführen wollen. Weiters wurden neue Kapitel definiert und aktive potentielle Autorinnen und Autoren gesucht. Es gab eine circa sechswöchige Online-Phase, in der wir Rückmeldungen zu den bestehenden Kapiteln mittels Etherpads sammelten. Parallel dazu wurden acht Standorte für Camps über ganz D-A-CH ausgewählt. Im ersten Online-Meeting der Campleiterinnen und -leiter im Mai 2013 wurden so die ersten Pläne durchgegangen und über Marketingmaßnahmen gesprochen, um möglichst viele Personen involvieren zu können. Danach war der Stein im Rollen, Jobs wurden auf der Webseite definiert und die Social-Media-Kanäle mit Informationen bespielt.

Neben dem eigentlichen Schreiben kamen auch auf den ersten Blick verrückte Ideen auf, wie zum Beispiel jene der mobilen Reporterin, die alle Camps während der Woche besuchen sollte, oder der täglichen Live-Sendung „L3T TV“. Anfang Juli, also rund sechs Wochen vor den eigentlichen sieben Tagen, waren wir drei Projektorganisatoren nur noch mit L3T 2.0 beschäftigt: Der E-Mail-Austausch stieg an, viele Autorinnen und Autoren luden ihre überarbeiteten Beiträge hoch (einige planten in „unseren“ sieben Tagen Urlaub.

Die Umsetzung eines solchen Buches in einer Woche erfordert natürlich eine gute Organisation und auch hohe Disziplin aller Beteiligten. Sämtliche Prozesse müssen transparent und offen gestaltet sein, um Missverständnisse zu vermeiden und die Kommunikation so gut es geht zu ermöglichen und dabei überquellende E-Mail-Eingangsordner zu vermeiden. Außerdem soll auch jede/r sehen, welchen Beitrag sie/er leistet, wo das eigene Kapitel gerade steht und wo das gesamte Projekt gerade steht. In der Vorbereitung wurden dann neben den Campleiter/innen auch Verantwortliche für die einzelnen Bereiche (Autorinnen und Autoren, Gutacher/innen, Lektor/innen usw.) definiert, die mit Hilfe von öffentlich einsehbaren Boards in der Webapplikation Trello die Übersicht in der Woche wahren sollten. Einschulungen für Layouter/innen, Besprechungen mit Literaturverantwortlichen, dem Juristen, den Layouter/innen, den Verantwortlichen für die Bilder, Lektor/innen usw. komplettierten die umfangreichen Organisationsaufgaben.

Dann ging es tatsächlich los. Pünktlich starteten wir mit L3T TV am 20.8.2013 um 09.00 Uhr und führten in die Projektwoche ein. Die tägliche Morgensendung sollte uns dann die ganze Woche begleiten und uns umfassend über verschiedenste Tätigkeiten in den Camps informieren. Im Anschluss wurde der Livestream zwischen den Camps geöffnet (hier gilt ein besonderer Dank der Firma Visocon), um einen ständigen Austausch zu gewährleisten, und auf den Trello-Boards wurden die Aufgaben den einzelnen Personen zugeteilt. Mit hoher Konzentration wurde dann den ganzen Tag gearbeitet – geschrieben, gelesen, lektoriert, ausgebessert, überprüft, layoutiert, versendet. Tägliche Redaktionssitzungen halfen, die Übersicht über das Projekt zu bewahren.

Trotzdem haben die einzelnen Camps auch für Abwechslung gesorgt, etwa durch Besuche von Journalistinnen und Journalisten, Autorinnen und Autoren oder insbesondere auch durch geplante Aktionen, wie die „schräge Stunde“, eine Stunde geplanter „Auszeit“ während der sieben Tage. In dieser hatten die Camps die Aufgabe einmal etwas ganz anderes zu machen. Vieles ist davon im Weblog dokumentiert und kann dort gerne nachgelesen und angeschaut werden.

Um alle Beteiligten und Interessierten auf dem Laufenden zu halten, um die Aktivitäten zu koordinieren sowie, um auch potentielle Leser/innen zu gewinnen, wurden natürlich auch sämtliche Social-Media-Kanäle genutzt. Entweder konnte man in Twitter unter dem Hashtag #l3t mitlesen oder auf Facebook bzw. Google+ kommentieren.

!

Die Social-Media-Aktivitäten von L3T im Überblick:

In Kenntnis pädagogischer Prinzipien, nämlich, dass man gemeinsames Lernen und Arbeiten auch feiern muss, haben wir am Ende der Projektwoche nach der Pressekonferenz natürlich auch in allen Camps angestoßen.

Einleitung

Projektpartner/innen und Unterstützer/innen

Ein solches Projekt kann selbstverständlich nur funktionieren wenn es unterstützt wird und deswegen dürfen wir hier alle Projektpartner/innen anführen:

Salzburg Research Forschungsgesellschaft [Projektleitung], Technische Universität Graz [Projektleitung, Camp], Multimedia Kontor Hamburg [Camp], FH Köln [Camp], httc e.V. [Camp], Freie Universität Berlin | Professur Gersch [Camp], Technische Universität Chemnitz [Camp], e-teaching.org | Leibniz-Institut für Wissensmedien (IWM) [Camp], Universität der Bundeswehr München [Camp], Internet Austria Foundation im Rahmen der Initiative Netidee [Ko-Finanzierung], Österreichische UNESCO Kommission [Schirmherrschaft], evolaris [Unterstützung mobile Reporterin], Tiroler Bildungsservice [Unterstützung Fotos], Visocon [Unterstützung Camp Graz, Livestreaming]

Einleitung

Danke, danke, danke!

´Natürlich muss so ein Projekt, das im Verlauf ständig wuchs und größere Ausmaße als geplant annahm, von zahlreichen Mitstreiterinnen und Mitstreitern mitgetragen und unterstützt werden. Wir möchten versuchen alle Beteiligten namentlich zu nennen und entschuldigen uns bei allen, die wir dann doch im Eifer des Gefechts übersehen haben. Es ist schwierig, bei ungefähr 250 Mitwirkenden den Überblick zu behalten (siehe Box „Dankeschön!“).

Aber nachdem wir alles updaten können, bitten wir im Falle eines Versehens, dies umgehend mitzuteilen, wir fügen euch gerne hinzu.

In der Praxis: Dankeschön!

Autorinnen und Autoren:

Viele alte bekannte aber viele neue Autorinnen und Autoren konnten wir auch für die zweite Ausgabe gewinnen (in alphabetischer Reihenfolge): Ralf Appelt, Patricia Arnold, Michael E. Auer, Andreas Auwärter, Peter Babnik, Gabriele Bäuml-Westebbe, Andrea Belliger, Yves Bochud, Christian Böhler, Taiga Brahm, Klaus Bredl, Gerlinde Buchberger, Ilona Buchem, Johanna Chardaloupa, Christoph Derndorfer, Johannes Dorfinger, Martin Ebner, Marc Egloffstein, Jan Ehlers, Ulf-Daniel Ehlers, Andreas Eitel, Nicole Engelhardt, Bernhard Ertl, Jessica Euler, Corinna Fink, Christian F. Freisleben-Teutscher, Jennifer Frey, Roland Gabriel, Marc Garbely, Claudia Gartler, Martin Gersch, Susanne Gruttmann, Christian Gütl, Jan Hansen, Andreas Hebbel-Seeger, Andreas Hediger, Kathrin Helling, Jacqueline Henning, Erich Herber, Ilona Herbst, Klaus Himpsl-Gutermann, Andreas Holzinger, Susan Höntzsch, Heiko Idensen, Friedrich Ittner, Tanja Jadin, Tobias Jenert, Verena Heckmann, Sascha Kaiser, Frank Kappe, Stefan Karlhuber, Uwe Katzky, Tine Knieriemen, Tanja Kohn, Michael Kopp, Dirk Krause, Brigitte Kreplin, Rolf Kretschmann, David Krieger, Clemens Kroell, Mark Krüger, Elke Lackner, Volkmar Langer, Son Le, Christian Lehr, Andre Lenich, Conrad Lienhardt, Markus Linten, Clemens Löcker, Anja Lorenz, Mark Markus, Hermann Maurer, Christoph Meier, Klaus Meschede, Johannes Metscher, Günter Mey, Klaus Miesenberger, Katja Mruck, Walther Nagler, Manuela Pächter, Stefanie Panke, Denise Paschen, Georgios Perperidis, Markus F. Peschl, Andreas Pester, Margit Pohl, Robert Pucher, Peter Purgathofer, Gergely Rakoczi, Klaus Reich, Gabi Reinmann, Christoph Rensing, Jochen Robes, Brigitte Römmer-Nossek, Guido Rößling, Hannes Rothe, Christian Safran, Werner Sauter, Steffen Schaal, Elisabeth Schallhart, Elisabeth Schaper, Mandy Schiefner-Rohs, Bernhard Schmidt-Hertha, Martin Schön, Sandra Schön, Rolf Schulmeister, Heike Seehagen-Marx, Sabine Seufert, Kai Sostmann, Christian Spannagel, Marcus Specht, Kerstin Stöcklmayr, Maria Süß, Behnam Taraghi, Michael Tesar, Anne Thillosen, Christoph Trappe, Claus A. Usener, Timo van Treeck, Thomás Vogel, Frank Vohle, Stephan Waba, Günter Wageneder, Peter Weber, Ulrich Weber, Kirstin Wessendorf, Marc Widmer, Diana Wieden-Bischof, Andreas Wittke, Sabine Zauchner-Studnicka, Olaf Zawacki-Richter, Elisabeth Zimmermann und Isabel Zorn.

Gutachterinnen und Gutachter:

Etliche Autorinnen und Autoren waren auch als eine/r der über 60 Gutachter/innen aktiv. Darüberhinaus waren im Einsatz: (soweit nicht Autor/in): Laura Ackermann, Tanja Adamus, Carina Aichinger, Judith Bündgens-Kosten, Aline Bergert, Gerhard Bisovsky, Ute Blumtritt, Guido Brombach, Margit Busch, Marlen Dubrau, Romana Farthofer, Helge Fischer, Alexander Florian, Rüdiger Fries, Mario Ganz, Birgit Grieg, Leo Hamminger, Sandra Hofhues, Lothar Jurk, Rene Kaiser, Susanne Kannenberg, Alexander Kirchhof, Ralf Kretzschmar, Timo Lüke, Monika Lehner, Andrea Lißner, Knut Linke, Bernhard Maier, Claus Rainer Michalek, Johannes Moskaliuk, Michael Noll-Hussong, Sabine Oymanns, Cornelie Picht, Lisa Pomino, Annabell Preußler, Herwig Erich Rehatschek, Wolfgang Renninger, Sindy Riebeck, Christoph Scheb, Markus Schmidt, Jens Schulz, Daniel Sonderegger, Cathleen M. Stützer, Janina Sundermeier, Anne-Christin Tannhäuser, Ellen Trude, Joachim Wedekind, Olaf Zawacki-Richter und Anja Zeising.

Lektorinnen und Lektoren:

Für die sauberen, nun fast fehlerlosen Texte haben unermüdlich gearbeitet: Kristina Becker, Aline Bergert, Yvonne Bunk, Esther Debus-Gregor, Cornelia Graupner-Küsel, Margarete Grimus, Sandra Fink, Julia Finken, Christiane Geick, Gerhild Genzecker, Julia Glade, Birgit Grieg, Susanne Günther, Fabia Hartwagner, Elke Lackner, Nadine Kämper, Ulrike Kapp, Katharina Kiss, Michael Kopp, Klaus Meschede, Claudia Neumann, Kai Obermüller, Corinna Peters, Cornelie Picht, Elke Reher, Tanja Schnecker, Liesa Schönegger, Daniel Sonderegger, Annegret Stark, Janina Sundermeier, Oliver Tacke, Angelika Thielsch, Klaus Tscherne.

Illustrationen und Fotografien:

Es konnte auch kreativ an L3T mitgewirkt werden, viele haben speziell für L3T gezeichnet, fotografiert und illustriert. Darüber hinaus auch allen ein herzliches Dankeschön, die L3T Abdruckrechte erteilten oder ihre Materialien mit entsprechend freien Lizenzen zur Verfügung stellen. Unser Dank gilt einmal jenen, die die Illustrationen und Titelbilder anfertigten: Annine Amherd, Anetta Emmerich-Chrzonszcz, Tom Hänsel, Monika Hogrefe, Clemens Löcker, Susanne Molter, Benedikt Neuhold, Katharina Regulski, Hannes Rothe, Wey-Han Tan, Christine Warnke und Miriam Winkels.

Layouterinnen und Layouter:

Selbstverständlich muss ein Text auch in eine ansprechende Form gebracht werden mit der zusätzlichen Herausforderung dies auch für verschiedenste Endgeräte bereitzustellen. Dies ist nur gelungen durch die Arbeiten von: René Derler, Alexander Florian, Thomas Fössl, Gerald Geier, Anja Lorenz, Dörte Maasch, Walther Nagler, Benedikt Neuhold, Christoph Rensing, Markus Schmidt, Susanne Schumacher, Behnam Taraghi, Kai Obermüller, Walther Nagler, Michael Kopp und Michael Raunig.

Und dann sind da noch:

Viele Personen arbeiteten rund um das Projekt, indem sie die morgendliche TV-Sendung moderierten, sich um die Technik im Hintergrund bemühten oder von Camp zu Camp reisten. Hier sagen wir danke für eure speziellen Rollen, ihr wart maßgeblich daran beteiligt, dass die Camps mehr waren als Schreibwerkstätten: Carina Aichinger [International PR], Ute Blumtritt [L3T Archivierung], Martin Böckle [L3T Website - Visualisierungen], Daniel Brantner [Redakteur L3T TV], Michael Beurskens [Lizenz Hotline] Margit Busch [Hotline Zitation], Esther Debus-Gregor [Hotline Lektorat], René Derler [Programmierung Webeditor], Martin Ebner [Chef vom Dienst], Jennifer Frey [Organisation Lektorat], Nils Friedel [Koordination Blogger/innen], Anett Hübner [Evaluation], Heiko Idensen [Social Bookmarking], Peg Ködel [Community-Video], Sylvia Mössinger [International PR], Walther Nagler [Organisation AutorInnen], Clemens Löcker [Organisation Fotos]; Anja Lorenz [Organisation Review], Tina Pechmann [Moderation L3T TV], Yvonne Pöppelbaum [mobile Reporterin], Karin Reese [Literaturservice], Hannes Rothe [Organisation Illustrationen], Stephan Rupp [Literaturservice], Sandra Schön [Feelgood-Management], Alexander Schuc [Website L3T], André J. Spang [L3T Sound], Behnam Taraghi [Organisation Layout], Timo van Treeck [Organisation Checks], Jutta Wergen [Schreibcoach], Karl Wiesenhofer [Technik].

Weitere Danksagung:

Wer glaubt das war es nun, der irrt. Es gibt noch viele weitere Personen die aktiv L3T unterstützen und die es gilt zu erwähnen, teils waren sie rund um die Uhr aktiv: Andrea Brücken [PR Blogging], Christina Düll [Camp Köln], Julia Eder [PR], Susanne Eigner [PR], Michael En [Checks], Marika Fedtke [Checks], Ruth Frilling [Camp Köln], Daniela Gnad [Grafik], Christine Hoffmann [Social Bookmarking], Tracy Hoffmann [Camp Chemnitz], Ilka Kass [Checks], Alexander Koch [Fotos, Video Schräge Stunde Graz], Katja Lievertz [Camp Köln], Christoph Melnicki [Check], Klaus Meschke [Social Bookmarking], Iris Müller [Camp Tübingen], Alicia Neu [Camp Köln], Reinhard Poche [Camp Köln], Ingeborg Rose [Camp Köln], Barbara Rossegger [Checks], Alice Senarclens de Grancy [PR], Jana Scholz [Checks], Birgit Strohmeier [PR], Hedwig Seipel [PR Blogging], Cathrin Vogel [Checks], Anja C. Wagner [Social Bookmarking] und Marianne Wefelnberg [Checks].

Zu guter Letzt: Der enge Kreis:

Ein ganz besonderer Dank gilt den Campleiterinnen und Campleitern: Ohne ihre Bereitschaft unsere verrückte Idee umzusetzen und viele Stunden in der Vorbereitung und Durchführung zu investieren, wären wir zum Scheitern verurteilt gewesen: Bernhaldt Ertl und Alexander Florian (Universität der Bunderwehr München), Anne Thillosen (Leibniz-Institut für Wissensmedien (IWM) Tübingen, Jan Hansen und Christoph Rensing (httc e.V. in Darmstadt), Margarete Busch, Ulrike Glembotzky und Timo van Treeck (FH Köln), Hannes Rothe (FU Berlin), Anja Lorenz (TU Chemnitz) und Helga Bechmann (Multimedia Kontor Hamburg).

Nicht zu vergessen natürlich das Basiscamp an der TU Graz, wo wir drei vor Ort waren und uns gegenseitig den Dank aussprechen: Danke Jenny, danke Sandra und danke Martin! Wir haben es tatsächlich hinter uns gebracht und das, so hoffen wir, gar nicht so schlecht.

Und zu allerallerletzt gilt der Dank wie schon so oft auch unseren Kindern: Ihr habt unsere Begeisterung geteilt, uns in der Vorbereitung und Durchführung unterstützt, mit uns mitgefiebert, uns abgelenkt und uns auch in dieser stressigen Zeit daran erinnert, was neben aller Arbeit und Erfolge doch wirklich zählt. Wir haben Euch so sehr lieb!

Einleitung

Und so geht es weiter

Was soll man an dieser Stelle schreiben. Wir haben es nach der ersten Version nicht gewusst und wissen es genauso wenig bei der zweiten Version. Klar scheint uns, dass wir weiter an der Front der freien Bildungsressourcen kämpfen werden. Wir sind felsenfest davon überzeugt, dass dies ein wesentlicher und notwendiger Schritt in die richtige Richtung ist. Bildung muss frei zugänglich sein, denn das Ziel unserer und jeder Gesellschaft kann nur sein, die höchstmögliche Bildung dieser zu erreichen.

Natürlich muss es weitergehen, müssen auch die Kapitel verbessert, erneuert und einzelne Artikel ergänzt werden. Trotzdem sehen wir auch nach der zweiten L3T-Runde, dass hierzu nicht nur viel (private) Zeit notwendig ist, sondern, um es nachhaltig gestalten zu können, auch finanzielle Grundlagen geschaffen werden müssen.

In den folgenden Monaten werden wir weiter versuchen, durch Patenschaften für Kapitel der Online-Ausgabe entsprechende Einnahmen zu erwirtschaften, die für laufende Ausgaben und die mittelfristige Ko-Finanzierung zukünftiger Ausgaben notwendig sind. Hat es in der ersten Version noch nicht so gut geklappt, hoffen wir, dass wir in der Bewusstseinsbildung dieses Mal weiterkommen. Auch wenn Bildung frei zugänglich ist, müssen Strukturen geschaffen werden, diese aufrecht zu erhalten.

Wie eine dritte Version von L3T aussehen kann und auch wann es diese geben sollte, wollen wir uns noch offen halten. Aber wir gehen davon aus, dass, wenn wir uns von den Strapazen dieser Woche erholt haben und L3T 2.0 von der Community angenommen wird, neue Ideen sprießen und es zu jucken anfängt.

Einleitung

Ach ja: Nobody is perfect

… oder, auf Deutsch: Es ist noch keine Meisterin, kein Meister vom Himmel gefallen. Es ist nicht nur unser Lieblingsprojekt, sondern auch das bisher größte Projekt – was die Zahl der Mitwirkenden, nicht das Budget betrifft. Und das verrückteste, was die Zeitvorgabe von sieben Tagen belangt. Fehler bitten wir zu verzeihen und uns zu melden: Soweit das geht werden wir sie natürlich korrigieren – L3T steht nicht still. Nochmals, danke an alle Mitmacher/innen: L3T ist Euer Erfolg!

Die Herausgeber Martin Ebner und Sandra Schön

mit Jennifer Frey

Einführung

Das Themenfeld „Lernen und Lehren mit Technologien“

Dieser Beitrag stellt einen ersten Einstieg in das Themengebiet des Lernens und Lehrens mit Technologien dar. Was wird eigentlich darunter verstanden? Als zentrale Begriffe werden das technologiegestützte Lernen und Lehren (engl. ‚technology-enhanced learning‘), E-Learning sowie das Lernen mit neuen Medien erklärt. Auch wird in die pädagogischen Grundbegriffe aus dem Bereich des Lernens und Lehrens sowie in Lerntechnologien eingeführt. Weil das Themen- und Forschungsfeld des technologiegestützten Lernens und Lehrens interdisziplinär ist, werden die wichtigsten Zugänge vorgestellt. Die zunehmende Zahl an Lehrstühlen, Forschungseinrichtungen und Studiengängen werden als Indizien für eine Konsolidierung des Themenfelds als Forschungsgebiet interpretiert. Die gebotene Kürze verhindert eine ausführliche Diskussion, insbesondere der Grundbegriffe. Deshalb möchten wir darauf hinweisen, dass wir hier nur ausgewählte Zugänge und Meinungen präsentieren können.

Einführung

Einleitung: Lernen und Lehren mit Technologien

Es gibt einige deutschsprachige Sammelwerke und Handbücher, die sich mit technologiegestütztem Lernen und Lehren beschäftigen: Das sind teils Einführungen zum Online-Lernen (Issing & Klimsa, 2008), Handbücher zum E-Learning (Hohenstein & Wilbers, 2002 mit laufenden Aktualisierungen; Kilian et al., 2011), aber auch Bücher mit starkem Praxisbezug, wie zum Beispiel „Innovative Lernsysteme“ (Kuhlmann & Sauter, 2008). Für Fachfremde nicht unmittelbar als Veröffentlichung in diesem Bereich erkennbar sind Bücher mit Titeln wie zum Beispiel das „CSCL-Kompendium“ (Haake et al., 2004) bzw. mittlerweile „CSCL-Kompendium 2.0“ (Haake et al., 2012). Allen diesen Werken gemeinsam ist, dass sie unterschiedliche Aspekte des Lernens und Lehrens mit Technologien behandeln.

Dieses Lehrbuch stellt das Unterfangen dar, das Themenfeld als Lerntexte für Studierende aufzubereiten. Wir haben dazu den Titel „Lehrbuch für Lernen und Lehren mit Technologien“ gewählt.

Nun fällt die Entscheidung für den Titel eines solchen Werkes nicht ad hoc. Genau genommen geht es weniger um sogenannte „Technologien“, worunter die „Wissenschaft zur Technik“ verstanden wird, sondern um Technik, also technische Geräte, vor allem um elektronische (und heute primär auch digitale) Geräte und Hilfsmittel. Wir hatten auch in Erwägung gezogen, im Lehrbuchtitel von „Technik“ zu sprechen. Im Themenfeld hat sich jedoch im deutschsprachigen Raum die Bezeichnung „Technologien“ durchgesetzt: Die englische Sprache dominiert hier die wissenschaftliche Kommunikation und kennt keine Unterscheidung zwischen „Technik“ und „Technologie“. In der internationalen, englischsprachigen Diskussion ist von „technologies“ die Rede. Auch im Deutschen spricht man heute selten vom – eigentlich korrekten – Lernen und Lehren mit Technik, sondern vom Lernen und Lehren mit Technologien.

!

Bevor Sie weiterlesen, haben wir eine Bitte an Sie: Bitte nehmen Sie sich kurz Zeit und formulieren Sie schriftlich, an welche Technologien Sie beim Lernen und Lehren mit Technologien denken.

Die Liste der Technologien, die beim Lernen und Lehren eingesetzt werden, ist lang und entwickelt sich ständig weiter. Es ist nicht trivial zu definieren, welche Technologien Lerntechnologien sind und welche nicht (Dror, 2008). Unter Lerntechnologien werden oft primär digitale Geräte und Anwendungen verstanden, welche zur Unterstützung des Lernens und Lehrens eingesetzt werden (Chan et al., 2006). Dazu zählen beispielsweise:

!

Lernen und Lehren mit Technologien umfasst alle Lern- und Lehrprozesse sowie -handlungen, bei denen technische, vor allem elektronische (zumeist auch digitale) Geräte und Anwendungen verwendet werden. Ein besonderes, aber nicht ausschließliches Augenmerk liegt dabei auf Geräten und Anwendungen und den Informations- und Kommunikationstechnologien.

Einführung

Grundbegriffe im Themenfeld

Was bedeuten Begriffe wie „technologiegestütztes Lernen“, „E-Learning“ oder „Lernen mit neuen Medien“? Erwartungsgemäß werden die zahlreichen Begriffe im Themenfeld variantenreich eingesetzt, dennoch entwickelte sich hier in den letzten zwanzig Jahren ein gewisser Konsens in der Verwendung der Begriffe und darüber, welche Technologien dabei im Einsatz sind.

„Technologiegestütztes Lernen“ bzw. „Technology-Enhanced Learning“

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Der Begriff des „Technology-Enhanced Learning“ beziehungsweise des „technologiegestützten Lernens“ (oder „technologisch gestützten Lernens“) ist der weitest gespannte Begriff, welcher jene Technologien umfasst, mit deren Hilfe Aktivitäten des Lernens unterstützt werden. Immer, wenn in einer Lern- oder Lehrsituation Technologien zum Einsatz kommen, kann vom technologiegestützten oder technologisch gestützten Lernen gesprochen werden (Dror, 2008). Dies ist beispielsweise also auch dann der Fall, wenn im Unterricht ein Film gezeigt wird oder ein Schulkind eine Klassenkameradin bzw. einen Klassenkameraden anruft, um Unterstützung bei der Hausaufgabe zu erhalten.

Der Begriff „E-Learning“

!

Der Begriff des E-Learning wird häufig dann verwendet, wenn Computer in Netzwerken (insbesondere des Internets) zum Einsatz kommen und diese Technologien die technische Basis für die Lern- und Lehrhandlungen bilden.

Der Begriff „E-Learning“ ist im Englischen wie im Deutschen geläufig. Das „E“ steht dabei, wie auch bei der „E-Mail“, als Abkürzung des Wortes „electronic“, also „elektronisch“. Wenn Forscher/innen und Praktiker/innen aus dem Bereich des technologiegestützten Lernens von ihrem Arbeitsfeld berichten, fällt häufig das Schlagwort „E-Learning“. Darunter wird jedoch nicht unbedingt Einheitliches verstanden.

Das erste Mal fiel der Begriff „E-Learning“ vermutlich mit der Einführung von ersten Computeranwendungen, die Lernende unterstützten, beispielsweise Programme zum trainieren des Wortschatzes. Diese ersten Computerlernprogramme (engl. „computer based training“, CBT) erlaubten keine Interaktion mit anderen Lernenden oder Lehrenden. Mit der Kommerzialisierung des aus dem Computernetzwerk des US-Verteidigungsministeriums (ARPANET, 1969) entstandenen Internets (1990) und der Einführung des World Wide Webs (1989) wurde nicht nur ein weltweiter Zugang zu solchen Angeboten, sondern auch die Interaktion und der Austausch mit anderen Nutzerinnen und Nutzern erst ermöglicht und gefördert: Während zunächst Selbstlernmaterialien im Vordergrund standen, entwickelten sich schnell interaktive Formate, wie beispielsweise virtuelle Seminare, also Lehrveranstaltungen, die im Wesentlichen auf textbasierter Kommunikation der Teilnehmerinnen und Teilnehmer beruhten.

So wird der Begriff E-Learning von einigen für das weite Feld von elektronischen Anwendungen, sei es das Telefon, der Videoprojektor oder Internet, verwendet; er deckt damit weitestgehend dasselbe Feld wie der obige Begriff des technologiegestützten Lernens ab (Kerres, 2001).

Häufiger wird der Begriff „E-Learning“ aber enger verwendet, nämlich für Lernsituationen, bei denen mit dem Computer und dem Internet gelernt wird. Wird hierbei von „E-Learning“ gesprochen, beschränkt sich das Verständnis häufig auf Lern- und Lehrsituationen des Fernunterrichts und des verteilten Lernens im Internet oder mit anderen vernetzten Geräten wie den Mobiltelefonen.

Lernen mit neuen Medien

Schließlich möchten wir in unserem Zusammenhang noch auf einen dritten Begriff eingehen; auf das Lernen und Lehren mit „neuen Medien“. „Medium“, aus dem Lateinischen abgeleitet, bedeutet „in der Mitte“ oder „Mittler“. Wenn also die Medienpädagogik oder die Medieninformatik über Medien spricht, dann sind Kanäle oder Systeme gemeint, über die Daten oder Informationen (sinnbezogene zusammenhängende Daten) gespeichert, übertragen oder vermittelt werden. Beispiele für Medien sind Massenmedien wie das Fernsehen oder das Radio sowie die traditionellen Printmedien wie Zeitungen und Bücher. Diese Medien sind das traditionelle Arbeitsgebiet der Medienpädagogik (siehe Kapitel #medienpaedagogik). Wenn von „neuen“ Medien die Rede ist, wird derzeit in der Regel auf das Internet und Webtechnologien Bezug genommen. Mit den Medienwissenschaften gibt es einen eigenen Zugang mit zahlreichen unterschiedlichen theoretischen Positionen, wie diese neuen Medien Gesellschaft gestalten und wie die Gesellschaft Medien gestaltet (siehe Kapitel #medientheorie).

Für die Medieninformatik ist die Sicht auf Medien übrigens nicht auf Massenmedien eingeschränkt (Malaka et al., 2009): Aus deren Sicht sind zum Beispiel Speichermedien wie die Festplatte des PC oder der USB-Stick ebenfalls als Medien anzuführen.

?

Deckt sich Ihr, bei der obigen Frage formuliertes, Verständnis vom Lernen und Lehren mit Technologien mit einem der drei Begriffe und deren Bezugstechnologien? Worin gibt es Übereinstimmungen, wo weicht Ihre Definition ab?

Vergleich der Begriffe

Wir haben versucht, die jeweiligen Technologien, die bei Verwendung der drei vorgestellten Begriffe „mitgedacht“ werden, in Abbildung 1 zu visualisieren. Das Verständnis der Begriffe ist jedoch nicht einheitlich.

Zusätzlich gibt es eine Reihe enger gefasster, also auf einige Technologien beschränkte Begriffe des technologiegestützten Lernens, wie beispielsweise das mobile Lernen mit Mobiltelefonen und anderen portablen Geräten (engl. „mobile learning“;m-Learning; siehe Kapitel #mobil) oder auch das Online-Lernen für das internet- bzw. intranetgestützte Fernlernen (siehe Kapitel #fernunterricht).

Auch gibt es Begriffe technologiegestützten Lernens, die nicht auf die Nutzung ausgewählter Technologien hinweisen. Vielfach wird im Bereich des technologiegestützten Lernens auf bestimmte Methoden abgezielt. So steht CSCL für das computergestützte kooperative Lernen (engl. „computer supported collaborative learning“). Damit haben wir auch aufgeklärt, worum es sich beim einführend erwähnten „CSCL-Kompendium“ handelt. Oder hatten Sie das gewusst?

Abb. 1: Begrifflichkeiten und von welchen Technologien dann (meistens) gesprochen wird
Abb. 1: Begrifflichkeiten und von welchen Technologien dann (meistens) gesprochen wird
Einführung

Lernen und Lehren

Wir haben es bisher gewissermaßen vorausgesetzt, aber was ist das eigentlich, das „Lernen“ und das „Lehren“? Was wird darunter aus wissenschaftlicher Perspektive verstanden?

Lernen: umfassend und lebenslang

Erklärungen und Theorien zum Lernen werden vor allem in der Psychologie entwickelt und überprüft. Lernen wird dabei als eine Veränderung im Verhalten beschrieben. Aus Sicht der Psychologie ist das Lernen ein Prozess, der zu relativ stabilen Veränderungen im Verhalten oder im Verhaltenspotenzial führt und auf Erfahrung aufbaut, aber beispielsweise nicht auf Reifevorgänge oder Ermüdung zurückzuführen ist (Zimbardo & Gerrig, 1996, 206). Was gelernt wurde, ob es eine Verbesserung oder Verschlechterung des Verhaltens gibt, spielt dabei nach diesem Verständnis keine Rolle (Schaub & Zenke, 2004, 352): Veränderung kann dabei das Erlernen aber auch Verlernen beziehungsweise die Anpassung oder Fehlanpassung bedeuten. Menschen „lernen“ in diesem Sinne zum Beispiel durch Werbung möglicherweise ein anderes Kaufverhalten.

Beim technologiegestützten Lernen geht es jedoch in aller Regel nicht um „irgendein“ Lernen oder irgendeine Verhaltensänderung, sondern um konkrete Verbesserungen des Wissens, des Verhaltens und der Kompetenzen. Lernen soll hier dazu führen, sich bestmöglich zu entwickeln (Faulstich, 2005, 14). Normative Überlegungen spielen auch beim technologiegestützten Lernen eine wichtige Rolle: Was sollen die Lernenden, also Schülerinnen und Schüler, Studierende oder Arbeitnehmerinnen und Arbeitnehmer, lernen? In Bildungsprogrammen und Lehrplänen werden so konkrete Erziehungs- und Bildungsziele oder auch angestrebte „Schlüsselqualifikationen“ und Kompetenzen genannt (Tippelt & Schmidt, 2005).

!

Auch beim technologiegestützten Lernen werden Aktivitäten von Lernenden unterstützt, die in einer Verbesserung des Verhaltens (des Wissens, der Kompetenzen) resultieren.

In den letzten zehn Jahren wird häufig auf das sogenannte „informelle Lernen“ verwiesen. Es grenzt sich vom sogenannten „formalen Lernen“, also dem institutionell organisierten Lernen, ab und wird in der Regel für den gesamten Bereich des „nicht institutionell organisierten“ Lernens verwendet (Frank et al., 2005). Es gibt dabei jedoch auch hier eine Reihe unterschiedlicher Definitionen mit feinsinnigen Unterscheidungen (Dohmen, 2001). Im englischsprachigen Raum, maßgeblich durch ein Memorandum der Kommission der Europäischen Gemeinschaft (2000) bestärkt, ist sogar eine dreiteilige Unterscheidung gängig: „formal learning“, „non-formal learning“ und „informal learning“ (ebenda, 9). Nach diesem Verständnis wird unter „informellem Lernen“ das Lernen als „natürliche Begleiterscheinung des täglichen Lebens“, unter „non-formalem Lernen“ vor allem selbstgesteuertes Lernen (ebenda) verstanden.

Ein weiterer zentraler Lernbegriff in der Diskussion des technologiegestützten Lernens ist das sogenannte lebenslange Lernen (engl. „lifelong learning“). Darunter versteht man nicht die Einsicht, dass man lebenslang lernt, sondern die Motivation, dass man das ganze Leben lang lernen soll (Smith, 1996). Der Ausdruck „lifelong learning“ soll erstmals in dem von der sogenannten „Faure-Kommission“ im Auftrag der UNESCO verfassten Buch „Learning to be“ (Faure et al., 1972) verwendet worden sein (Knapper, 2001, 130). Auch hier ist die Kommission der Europäischen Gemeinschaft ein Treiber der Diskussion. Sie betonte in ihrem Memorandum im Jahr 2000, dass lebenslanges Lernen nicht nur über die zeitliche Lebensspanne der Menschen andauern, sondern gleichzeitig auch lebensumspannend sein soll (Europäische Kommission, 2000, 9) und initiierte ein gleichnamiges Forschungsprogramm („lifelong learning programme“).

Lehren: Unterricht und Didaktik

Bei denjenigen, die andere beim Lernen unterstützen, spricht man von Lehrenden und Unterrichtenden. Lehrende gibt es in allen Bildungsbereichen, beispielsweise Erziehungs-, Lehr- und Ausbildungspersonal, in Betrieben und Berufsschulen sowie auch in großer Zahl in der Erwachsenenbildung. Lehrende werden dann dort auch als Coach, Trainer/in, Tutor/in, Dozent/in manchmal auch als Berater/in bezeichnet.

Was gute Lehre, guten Unterricht ausmacht, ist Gegenstand der Didaktik. Unterschiedliche Traditionen konkurrieren hier ebenso wie auch begriffliche Abgrenzungen. So hat Comenius im 17. Jahrhundert den Begriff ‚Didaktik‘ in Abgrenzung zur ‚Mathetik‘, der Lehre des Lernens verstanden (Comenius, 1983). Heute wird Didaktik nach Klafki als eher theoretische Begründung des konkreten pädagogischen Handelns, des Wissens über das „wie?“, kurz zur „Methodik“ gesehen (Klafki, 1991).

Was gute Lehre ist, wird von unterschiedlichen Teildisziplinen und Richtungen unterschiedlich beantwortet. So werden didaktische Empfehlungen häufig auf (einzelnen) Lerntheorien und entsprechenden Erkenntnissen der pädagogischen Psychologie aufgebaut (siehe Kapitel #lerntheorie). Aber auch aus bildungstheoretischen Überlegungen, die Menschen ‚als Ganzes‘ in ihrer Persönlichkeit begreifen und sie bei ihrer Entwicklung ihrer Persönlichkeit unterstützen wollen, werden Ableitungen für guten Unterricht erstellt.

Technologien im Unterricht wirken sich auf die Methodik wie die Didaktik aus. Bei der Methode ‚Frontalunterricht‘ konnten so, ergänzend zum Tafelbild und Kartenmaterial, beispielsweise durch Diaprojektoren Fotos im Unterricht vorgeführt werden. Mit zunehmender Integration von Technologien wie dem computer- und webgestützten Lernen können Technologien nicht mehr nur ‚als Ergänzung‘ betrachtet werden, sondern werden mit ihren Gestaltungs- und Einsatzmöglichkeiten selbst ein wichtiges Element didaktischer und methodischer Überlegungen sowie Entscheidungen. Beispielsweise eröffnen sie neue Spielräume für differenzierten, also auf unterschiedliche Bedürfnisse der Lernenden abgestimmten, Unterricht oder auch für neue Formen der Zusammenarbeit: Das gleichzeitige gemeinsame Schreiben eines Textes ist auf herkömmliche Weise, auf dem Papier, kaum möglich.

Einführung

Szenarien des Einsatzes von Technologien

Ein kurzer Rückblick

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Noch vor wenigen Jahrzehnten waren Technologien Unterrichtsmittel, die den Lehrenden im Fern- und Präsenzunterricht entlasten und ersetzen sollten. Mit dem sogenannten ‚programmierten Lernen‘ wurden ‚Lernmaschinen‘ entwickelt, die den Lehrenden unterstützten sollten. In einer damaligen Darstellung heißt es dazu (Wilden, 1965, 98): „Lehrermangel und überaltete Lernformen scheinen der Forderung recht zu geben, wenigstens die Übungs- und Wiederholungsvorgänge Maschinen zu überlassen, die den didaktischen Gesamtvorgang in Einzelschritte zerlegen […] Ein Lernprogramm führt auch bei Versagen des Schülers mit Hilfe mechanischer Vorgänge und Auslösungen zu erneuter Übung und Erfassung von Teilvorgängen, schließlich zum Lernerfolg“. In den letzten Jahrzehnten hat sich durch die Computer- und Internettechnologie und die damit verbundenen Kommunikationsformen vieles getan. So gibt es weiterhin eine Reihe von Einsatzmöglichkeiten, die Lehrende entlasten.

Ein wesentliches Merkmal webbasierter Anwendungen sind aber nun Kommunikation und Kollaboration. Die entsprechenden Anwendungen eröffnen dadurch für Lernende und Lehrende vor allem solche neuen Wege des gemeinsamen Lernens.

?

Sie haben bereits auf vielfältige Weise gelernt und waren eventuell auch als Lehrende bzw. Lehrender im Einsatz. Sammeln Sie für sich oder in der Gruppe einige Beispiele, wie dabei Technologien eingesetzt wurden.

Online-Lernen, Blended Learning und MOOCs

Heute gibt es zahlreiche unterschiedliche Formen des Einsatzes von Technologien im Unterricht. In reinen Online-Lernsituationen werden zum Beispiel Lernmaterialien im Internet zur Verfügung gestellt, über digitale Kommunikationswege (Forum, Chat, Soziale Netzwerke …) diskutiert oder E-Mails mit Tutorinnen und Tutoren ausgetauscht. Der einzelne Lernende sitzt dabei also alleine am Computer oder einem anderen „Endgerät“, lernt aber nicht notwendigerweise isoliert, sondern im intensiven Austausch mit anderen Lernenden und Lehrenden. Im Vergleich zu Präsenzveranstaltungen ermöglicht reines Online-Lernen, außerhalb der üblichen Seminarzeiten und zu eigens festgelegten bzw. selbstbestimmten Zeiten zu lernen. Gleichzeitig aber fordert der, im Vergleich zum Präsenzunterricht, unverbindliche Charakter einer solchen Lernsituation große Motivation und Selbstdisziplin seitens der Lernenden. Manchmal werden durch das Lernen über das World Wide Web auch Szenarien möglich, die mit realen Treffen nicht oder schwer zu organisieren und zu finanzieren wären: Online-Veranstaltungen mit Teilnehmenden aus der ganzen Welt, zum Beispiel Muttersprachler/inn/en, die auf einer Sprachlernplattform Unterstützung geben.

In der Praxis werden Online-Phasen und Präsenzunterricht häufig kombiniert beziehungsweise abgewechselt. Man spricht dann vom „Blended Learning“ (auf Deutsch „gemischtes Lernen“). Blended-Learning-Szenarien werden aus unterschiedlichen Motiven eingesetzt. Den Präsenzunterricht ergänzende Online-Phasen werden als Möglichkeit gesehen, das individuelle, selbstorganisierte und arbeitsplatznahe Lernen zu begleiten und zu unterstützen. Auch wird durch Online-Phasen das Lernen aus dem Seminarraum in die Arbeits- und Lebenswelt der Lernenden hinausgetragen; der Transfer des Gelernten gelingt unter Umständen leichter. Schlussendlich wird Online-Unterricht auch eingesetzt, um oft teureren Präsenzunterricht zu sparen.

Spätestens seit Herbst 2011 hat sich in der Diskussion um Online-Lehre ein weiterer Begriff Aufmerksamkeit verdient: MOOC, kurz für Massive Open Online Course. Als ein MOOC wird eine spezielle Form der reinen Online-Lehre bezeichnet, deren Hauptmerkmale eine sehr große Anzahl an Lernenden, und ein freier Online-Zugang zu den Lehr- und Lernunterlagen sind. Der Begriff geht auf Dave Cormier zurück, der 2008 einen Online-Kurs bei George Siemens und Stephen Downes besucht (McAuley, 2010). Während diese Veranstaltungen stark dem Konnektivismus nach Siemens (siehe Kapitel #lerntheorie) folgten, startete die Universität Stanford 2011 drei Online-Kurse mit je über 100.000 registrierten Teilnehmenden und prägte das Bild von MOOCs, welches heute durch die Medien propagiert wird: Auf einer Plattform zur Verfügung gestellte Inhalte (vorwiegend Videos) mit anschließenden Überprüfungen und vergleichsweise geringer Interaktion zwischen Lehrenden und Lernenden. Diese führte dazu, dass im Wissenschaftsbereich heute zwei Arten von MOOCs unterschieden werden, cMOOC (connectivist MOOC) und xMOOC (Extension MOOC) (Wedekind, 2013) (siehe Kapitel #systeme #lll #offeneslernen).

Zahlreiche Mischformen: Die Barbecue-Typologie

Im Bildungsalltag gibt es nicht immer und ausschließlich reine Präsenzphasen ohne Technologieeinsatz oder reine Online-Phasen. Technologien, insbesondere webbasierte Werkzeuge und Systeme, werden auch im Präsenzunterricht eingesetzt, zum Beispiel, wenn mit dem Internet recherchiert wird. Auch werden in Schulen und insbesondere Hochschulen häufig webbasierte Lernmanagementsysteme eingesetzt (siehe Kapitel #systeme, #infosysteme #schule #hochschule). Lernende erhalten dort ergänzende Materialien, zum Beispiel Präsentationsunterlagen, führen dort unterrichtsbegleitende Diskussionen oder finden dort Lernaufgaben, deren Lösungen wiederum über das System den Lehrenden zugänglich gemacht werden.

Vielfältige Lernsituationen mit Technologien sind bekannt, ohne dass sich dafür Bezeichnungen durchgesetzt haben. Wir haben versucht, ein geeignetes Bild zu finden, um die unterschiedlichen Formen anschaulich zu beschreiben. Mit einem Augenzwinkern machen wir uns das Bild der Grillwurst und ihrer unterschiedlichen Zubereitungsformen zu eigen und nennen die Darstellung folglich Barbecue-Typologie des Lernen und Lehrens mit Technologien:

Abb. 2: Barbecue-Typologie
Abb. 2: Barbecue-Typologie

Wie beim Grillen sind schließlich beim Einsatz von Technologien weitere zahlreiche Kombinationen möglich. Die einzelnen Möglichkeiten sind dabei ohne Wertigkeit zu sehen; die Entscheidung, was gut passt und besser schmeckt, ist den Lernenden und Lehrenden zu überlassen.

!

Allgemein gibt es keine „guten“ oder „besseren“ Formen des Technologieeinsatzes und des Wechsels von Online- und Präsenzphasen. Die Entscheidung, was gut passt und besser schmeckt, ist den Lernenden und Lehrenden zu überlassen.

Einführung

Diskussion: „E-Learning 2.0“

Ein Schlagwort, um welches man nicht herumkommt, auch wenn es langsam an Resonanz verliert, ist der Begriff „Web 2.0“. Das Web 2.0 hat das Lernen und die Vorstellung darüber, wie gelernt werden kann, stark beeinflusst und beflügelt.

Web 2.0

Der Begriff „Web 2.0“ soll auf Scott Dietzen, einen ehemaligen Mitarbeiter bei Bea Systems, zurückgehen und wurde erstmalig im Dezember 2003 in der US-Ausgabe „Fast Forward 2010 – The Fate of IT“ des CIO-Magazins von Eric Knorr in der Öffentlichkeit verwendet (Knorr, 2003). Mit der ersten Web-2.0-Konferenz im Herbst 2004 in San Francisco, veranstaltet von Tim O’Reilly (gemeinsam mit Dale Dougherty), erlangte der Begriff den internationalen Durchbruch. 2005 wird er in einem Artikel auch von O’Reilly (2005) benannt. Er definierte das Web 2.0 dabei nicht als eine ‚neue Technologie‘, sondern eine neue Art, eine neue Haltung (engl. ‚attitude‘), wie Menschen mit dem Internet umgehen. Internetnutzer/innen sind nicht mehr bloß Lesende statischer Webseiten, sondern können diese oftmals modifizieren, ohne dass hierzu Kenntnisse von zusätzlichen Programmiersprachen nötig wären. Zu Beginn des World Wide Web kam man nicht darum herum, die dafür notwendigen HTML-Kenntnisse zu erlernen (siehe Kapitel #hypertext, #fernunterricht). Die Weiterentwicklung von Internettechnologien und entsprechend einfachen Benutzeroberflächen macht es nun vergleichsweise einfach, sich zu beteiligen: Selbsterstellte Mediendateien wie Fotografien oder Tonaufnahmen können unter anderem über gemeinsame Plattformen im Internet zur Verfügung gestellt werden; man tauscht sich mit Schul- und Arbeitslkolleg/inn/en in sozialen Netzwerken aus.

Die für die Entwicklung notwendigen Internettechnologien (siehe Kapitel #webtech) traten bei der Debatte über „Web 2.0“ per Definition (O’Reilly, 2005) in den Hintergrund. Dies erklärt auch, dass man beim Versuch, das Web 2.0 an einzelnen Entwicklungen dingfest zu machen, unweigerlich auf ein anwachsendes Sammelsurium an Möglichkeiten stößt, denen allen aber gemeinsam ist, dass der Fokus auf Interaktion (Kommunikation, Arbeiten, Teilen) der Benutzenden liegt, unabhängig von einzelnen Programmiersprachen und Plattformen.

Das Web der Inhaltskonsumierenden wurde zu einem Web von miteinander kommunizierenden Inhaltsproduzierenden. Weil nun jede und jeder (relativ) einfach mitgestalten und mitmachen kann, wird es auch gerne als „Mitmach-Web“ bezeichnet. Gerade diese Vereinfachung und Potenzierung des Gemeinschaftlichen unterstreicht die Bezeichnung des Web 2.0 als ‚soziale‘ und weniger ‚technische Revolution‘ (Downes, 2005). Man spricht darüber hinaus auch von der kollektiven Intelligenz (O'Reilly, 2005), von der Weisheit der Vielen (Surowiecki, 2005) und von der ‚Kultur der Amateure‘ (Keen, 2007). Das TIME Magazine griff diese Entwicklung frühzeitig auf, indem es im Jahr 2006 „You – the Internet User“ zur Person des Jahres kürte (Grossman, 2006).

!

1989 träumt Tim Berners-Lee, der als einer der Vordenker des World Wide Web gilt (siehe #www), von einem Internet, in und über welches alle mit allen alles teilen können (Berners-Lee, 1989); mit dem ‚Web 2.0‘ ist dieser Traum ein Stück mehr Realität geworden.

Trotz der eher „nicht-technischen“ Charakterisierung des Web 2.0 gibt es Typen von Anwendungen, die als Web-2.0-Anwendungen beschrieben werden. Wir stellen sie hier kurz vor:

?

Um die rasante Entwicklung und Bedeutung des Web und des Web 2.0 auf das persönliche Leben zu erfassen, versuchen Sie, eine Chronologie Ihrer eigenen Erfahrungen und Verhaltensweisen in Bezug auf den Themenkomplex Internet, Kommunikation und Mobilität auf einer Zeitachse nachzuzeichnen. Wann haben Sie Ihr erstes Mobiltelefon verwendet? Wann waren Sie das erste Mal im Internet? Seit wann sind Sie Mitglied in einem sozialen Netzwerk, zum Beispiel Facebook? Wann haben Sie sich dazu entschlossen, erstmals etwas von Ihnen selbst ins Internet zu stellen?

E-Learning 2.0

Die Entwicklungen rund um Web 2.0 und die genannten Anwendungen haben auch die Diskussion im technologiegestützten Lernen entfacht: 2005 postulierte Stephen Downes im eLearn Magazine den Begriff „E-Learning 2.0“ (Downes, 2005) und beschreibt dabei, wie sich aus seiner Sicht mit den Werkzeugen des Web 2.0 ebenso das Lernen verändert. Wie beim Begriff Web 2.0 spielt auch bei E-Learning 2.0 der soziale Aspekt, der aktive und kollaborative Umgang mit neuen Medien zu Lern- und Lehrzwecken, eine entscheidende Rolle.

E-Learning findet nach Downes (2005) nicht mehr ausschließlich auf einer eingeschränkt zugänglichen Lernplattform statt, von der Lernende von Lehrenden bereitgestellte Unterlagen herunterladen oder in einem Chat oder Diskussionsforum miteinander Inhalte diskutieren können. Beim E-Learning 2.0 haben die aktive Nutzung und Erstellung von Inhalten in Wikis, Weblogs, Podcasts, sozialen Netzwerke und Medienplattformen Einzug gehalten. Gemeint ist hier also nicht die Recherche bei Wikipedia, sondern beispielsweise das gemeinsame Erstellen von Inhalten in einem Wiki-System (siehe Kapitel #kollaboration).

„E-Learning 2.0“ bezieht sich dabei auch nicht ausschließlich auf den Einsatz von Web-2.0-Technologien beim Lernen und Lehren, sondern bezeichnet auch viele weitere beobachtbare Prozesse und Entwicklungen: In Online-Gemeinschaften, die sich beispielsweise in sozialen Netzwerken wie Facebook finden, tauscht man sich mit anderen Interessierten aus, Lernende erstellen selbst Webseiten, Podcasts oder Videos. Allgemein stehen immer mehr Lernmaterialien im Netz zur freien Verfügung. Lernen findet nicht mehr in „geschützten“ Räumen statt, sondern wird öffentlich. Die Lernenden können (und müssen) größere Selbststeuerung und -organisation übernehmen und die Rolle der Lehrenden wandelt sich von unterrichtenden Expert/inn/en zur Lernbegleiterin und zum Lernbegleiter – um nur einige der genannten Aspekte zu nennen. (Kerres, 2006; Ebner, 2007; Bernhardt & Kirchner, 2007).

Wie vielseitig das Web 2.0 bzw. der Begriff des E-Learning 2.0 ist, zeigt sich auch an den Themen und Aspekten dieses Lehrbuchs. Dennoch ist es weiterhin nur ein Bereich des großen Felds des Einsatzes von Technologien für das Lernen und Lehren.

!

Der Begriff „E-Learning 2.0“ beschränkt sich nicht auf die Verwendung der Werkzeuge des sogenannten „Web 2.0“, sondern beinhaltet auch die veränderten Beteiligungsmöglichkeiten, die neuen didaktisch-methodischen Möglichkeiten und Auswirkungen für das Lernen (und Lehren).

Einführung

Ein interdisziplinäres Forschungsfeld

Das technologiegestützte Lernen und Lehren ist ein junges, interdisziplinäres Forschungsfeld, das sich zunehmend, durch entsprechende Forschungseinrichtungen und Aus- bzw. Weiterbildungsmöglichkeiten, als eigenständiges Fachgebiet konsolidiert.

Bezugsdisziplinen

Das Fachgebiet wird im Wesentlichen von zwei Disziplinen stark beeinflusst, der pädagogisch-psychologischen Forschung und der Informatik.

Die Erziehungswissenschaften und die pädagogische Psychologie interessieren die Bedingungen und Erfolge von Lern- und Lehraktivitäten. Pädagogisch-psychologische Fragestellungen untersuchen so die Effekte der didaktischen Gestaltung oder der Voraussetzungen der Lernenden. Ursprünglich war in der Lehr-/Lern-Forschung die Beschäftigung mit Technologien und Medien ein Randthema, sie rückt aber durch die zunehmende Bedeutung der technologiegestützten Lernformen in das Zentrum (Kerres et al., 2001). Während die Psychologie Theorien zum Lernen und Lehren überprüft, indem sie Hypothesen formuliert und in Untersuchungen und Experimenten validiert (oder eben widerlegt), hat die Pädagogik eher die konkrete Anwendung, die Nutzung und Gestaltung guter Unterrichtspraxis und Lernumgebungen sowie deren Evaluierung im Auge.

Bildungstheoretische Erörterungen oder gesellschaftliche Aspekte, wie sie die allgemeine Pädagogik behandelt, werden dabei im Bereich des technologiegestützten Lernens eher selten aufgegriffen. Dies liegt wohl daran, dass der Begriff „Bildung“ und die entsprechende deutschsprachige bildungstheoretische Diskussion nicht direkt ins Englische zu übertragen sind: „Bildung“ ist nicht das Gleiche wie das englische „education“. Der Begriff der Bildung wird in der englischsprachigen internationalen Literatur zum technologiegestützten Lernen auch nur ausnahmsweise rezipiert (zum Beispiel bei Friesen, 2009). Die kritisch-emanzipatorische Pädagogik macht sich aber auch nicht widerspruchslos zur ‚Handlangerin‘ ökonomischer Bedürfnisse und Optimierungen, wie sie im Zuge der Einführung technologiegestützten Lernens oft zu hören sind (Häcker, 2010). Auch gilt weiterhin: „Was ist eine Schule wert, von der schon Seneca sagte: Nicht für das Leben, leider nur für die Schule lernt ihr in der Schule (non vitae, sed scholae discimus)“ (Begemann, 1997, 152).

Die Informatik, insbesondere der Zweig der Medieninformatik, entwickelt Systeme, welche den Bedürfnissen der Beteiligten beim Lernen und Lehren und den aktuellen technologischen Entwicklungen entsprechen. Zuverlässigkeit und Persistenz solcher Systeme sind dabei deren Maßstab. Das Fachgebiet der Medieninformatik ist als Teilgebiet der Informatik erst Anfang der 1990er Jahre entstanden und behandelte zunächst die Digitalisierung von Texten, Bildern, Audio- sowie Videodaten, also den Bereich Multimedia. Herczeg (2007, 1) beschreibt, dass sich die Medieninformatik heute „mit der Entwicklung und Nutzung interaktiver Systeme und Medien befasst“ und weist darauf hin, dass die wesentliche Aufgabe darin besteht, „die Analyse, Konzeption, Realisierung, Bewertung und Verbesserung der Schnittstellen zwischen multimedialen Computersystemen und Menschen, die diese in ihren unterschiedlichen Kontexten im Rahmen von Arbeit, Bildung oder Freizeit als Konsumenten oder Produzenten nutzen möchten“, zu untersuchen. Der Computer wird dabei nicht auf seine ursprüngliche Rolle als Symbolverarbeitungsmaschine eingeschränkt, sondern als Kommunikations- und Informationsmöglichkeit betrachtet. Malaka et al. (2009) weisen darauf hin, dass sich die Medieninformatik mit digitalen Medien beschäftigt, die letztlich immer von Menschen genutzt werden, und daher drei Aspekten eine wesentliche Rolle zukommt: Menschen, Technik und Gesellschaft.

Darüber hinaus gibt es jedoch eine Reihe von weiteren (kleineren, auch Teil-) Fachgebieten, die erwähnt werden sollten:

?

Falls Sie diesen Lehrtext im Rahmen eines Seminars lesen: Fragen oder überlegen Sie, mit welchen Hintergründen die anderen Lernenden sich dem Thema E-Learning widmen.

Interdisziplinäre Zusammenarbeit

Obwohl der Bereich des technologiegestützten Lernens und Lehrens ein interdisziplinäres Feld ist, arbeiten die entsprechenden Disziplinen häufig nicht eng zusammen. So gibt es beispielsweise in der mediendidaktischen Planung nach Kerres (2001) einen Bereich der IT-Infrastruktur, welcher wohl Fragen der technologischen Systeme berührt; es scheint aber so, als würde diese Infrastruktur als gegeben vorausgesetzt werden. Auf Seiten der Pädagogik fehlt häufig technisches Wissen, vor allem über neue Entwicklungen und Potenziale, um Innovationen mitzugestalten und anzutreiben. Umgekehrt werden von der Informatik eher rezeptähnliche Ratschläge auf Basis kognitionspsychologischer Überlegungen (siehe Kapitel #gedaechtnis) angenommen, als die, aus ihrer Sicht eher vagen und nicht eindeutigen, Methodenbeschreibungen und -empfehlungen der Lern- und Lehr-Forschung, die über eine „kleinteilige“ Realisierung in kleinen Schritten hinausgeht. Diese Beispiele für geringe und schwierige Zusammenarbeit sind subjektive Wahrnehmungen der Autorinnen und Autoren. Dass die interdisziplinäre Zusammenarbeit aber zu verbessern ist, wird jedoch wohl allgemein Unterstützung finden. Durch die aktuelle Konsolidierung als eigenständiges, interdisziplinäres Forschungsgebiet und eine Reihe eigener Institutionen, die sich zum Themengebiet gebildet haben, ist anzunehmen, dass sich die Zusammenarbeit und das gegenseitige Verständnis zukünftig verbessern.

Am Rande bemerkt: Interessant ist, dass die Disziplinen sich auch über die konkrete Zusammenarbeit hinaus befruchten, so hat die „Computermetapher“ für das Gedächtnis (mit „Input“ und „Output“) die Kognitionswissenschaft und ihre Vorstellung vom menschlichen Gedächtnis beeinflusst (siehe Kapitel #kognition).

Konsolidierung als Forschungs- und Lehrgebiet

In den letzten Jahren zeigt sich eine zunehmende Konsolidierung des technologiegestützten Lernens und Lehrens als Forschungs- und Lehrgebiet: An mehreren Hochschulen werden inzwischen entsprechende Studiengänge angeboten. Ein weiterer Indikator für die Konsolidierung als Lehrgebiet ist die steigende Zahl von Professuren, Lehrstühlen und Departments, in deren Bezeichnung das Themenfeld explizit genannt wird, beispielsweise das Institut für Medien und Bildungstechnologie der Universität Augsburg oder das Department für Interaktive Medien und Bildungstechnologien an der Donau-Universität Krems. An vielen deutschsprachigen Hochschulen gibt es Institute oder Forschungscluster, die sich intensiv und aus unterschiedlichen Forschungsperspektiven mit dem Lernen und Lehren mit Technologien beschäftigen; exemplarisch sind einige in Tabelle 1 genannt.

Auch gibt es eine Reihe von Forschungseinrichtungen, die sich mit dem Lernen und Lehren mit Technologien beschäftigen; Beispiele aus ganz Europa finden sich in Tabelle 2.

Einführung

Ausblick: Erweiterung der Lern- und Lehrmöglichkeiten

Ob das Lernen und Lehren grundsätzlich und nachhaltig durch die oben skizzierten Technologien beeinflusst wird, wird sich zeigen. E-Learning 2.0 ist derzeit eher für eine kleine Zahl von Lehrenden und Lernenden Realität; und es bedarf einer großen Portion Motivation sowie Medien- und Lernkompetenz, um breitflächige und nachhaltige Veränderungen herbeizuführen. Es ist auch davon auszugehen, dass im formal organisierten Unterricht die vermeintliche Leichtigkeit, die spielerischen Ansätze und die neuen Formen der Kollaboration zu Gewöhnungseffekten führen. Die Geschichte und die Debatte um die Einführung von jeweils neuen Medien hat uns gezeigt, dass diese immer von Euphorie (zum Beispiel bei der Einführung des Schulfernsehens) wie auch von Schreckensszenarien (bei der Einführung der Schultafel; siehe Kapitel #ipad) begleitet werden und sich erst (viel) später, nach einer gewissen Konsolidierungsphase, herausstellt, welche substanziellen Veränderungen sich daraus ergeben. Wir gehen davon aus, dass die beschriebenen Möglichkeiten die Lern- und Lehrpraxis langfristig und nachhaltig verändern werden.

Kurzbeschreibung (Homepage)
IICM - Institut für Informationssysteme und Computer Medien an der Technischen Universität Graz
Leitung Frank Kappe, ca. 30 wiss. Mitarbeiterinnen und Mitarbeiter
http://www.iicm.tugraz.at
IBM - Department für Interaktive Medien und Bildungstechnologien, Donau-Universität Krems
Leitung Peter Baumgartner, ca. 15 wiss. Mitarbeiter/innen
http://www.donau-uni.ac.at/de/department/imb
Empirische Pädagogik und Pädagogische Psychologie, Ludwig-Maximilians-Universität München
Leitung Frank Fischer, ca. 30 wiss. Mitarbeiterinnen und Mitarbeiter
http://www.psy.lmu.de/ffp
Forschungscluster E-Education der Fernuniversität in Hagen
Forschungskooperativ im Themenfeld, Kooperation von 6 Instituten
http://www.lgmmia.fernuni-hagen.de/researchcluster/education
IMB – Institut für Medien und Bildungstechnologien, Universität Augsburg
Leitungsteam, ca. 30 wiss. Mitarbeiterinnen und Mitarbeiter
http://www.imb-uni-augsburg.de
ZHW – Zentrum für Hochschul- und Weiterbildung, Universität Hamburg
vormals Leitung Rolf Schulmeister, ca. 15 wiss. Mitarbeiter/innen
http://www.zhw.uni-hamburg.de/zhw
Duisburg Learning Lab – Lehrstuhl für Mediendidaktik und Wissensmanagement
Leitung Michael Kerres, ca. 30 wiss. Mitarbeiterinnen und Mitarbeiter
http://mediendidaktik.uni-duisburg-essen.de

Tab.1: Ausgewählte Universitätsinstitute und Forschungscluster deutschsprachiger Universitäten mit einem Schwerpunkt im Themenfeld. Quellen: Angaben auf den Homepages, Stand Januar 2011

So ist eine Konsequenz des diskutierten Web 2.0 ein rasanter Anstieg der Zahl potenzieller Lernmaterialien, -anwendungen und -gelegenheiten für Nutzerinnen und Nutzer des Internets. Da die geltenden Regelungen des Urheberrechts im deutschsprachigen Europa die Verwendung und Modifizierung von (Lern-) Materialien einschränken, bildeten sich Initiativen und Projekte, welche freie Bildungsmaterialien unterstützen. Durch entsprechende Lizenzierungen werden die Nutzung, Veränderung und Wiederveröffentlichung ohne weitere Absprachen mit den Urheberinnen oder Urhebern möglich und legal (siehe Kapitel #openess).

Die zunehmenden Möglichkeiten für das Lernen stellen große Anforderungen an die Lernenden, insbesondere an deren Medien- wie auch Lernkompetenz. Mit den sogenannten „persönlichen Lernumgebungen“ werden Möglichkeiten geschaffen, sich „das Internet“ für die eigenen Bedürfnisse zurechtzuschneiden. Weiterhin ist es notwendig, entsprechende Auswahlentscheidungen treffen zu können (siehe „personal learning environment“ im Kapitel #systeme).

Insbesondere rücken zunehmend auch semantische Technologien in den Mittelpunkt. Dadurch könnten Inhalte in Zukunft mehr miteinander verschränkt und aus vorhandenen Daten mehr Informationen gewonnen werden. Auch zeigt die heute vergleichsweise einfache Möglichkeit, Daten zentral zu speichern, dass in Zukunft die Forschungsfelder Educational Data Mining und Learning Analytics (siehe #analyse) wesentlich an Bedeutung gewinnen werden, um den Lehr- und Lernprozess noch individueller zu gestalten.

Kurzname Kurzbeschreibung (Homepage)
CELSTEC (NL) Das „Center for Learning Science and Technologies“ ist die Forschungseinrichtung der niederländischen Fernuniversität, der Open Universiteit Nederland, und forscht und entwickelt zu Lerntechnologien, ca. 80 Mitarbeiter/innen (http://celstec.org).
KMi (UK) Das „Knowledge Media Institute“ ist die Forschungseinrichtung der britischen Fernuniversität, der Open University UK und forscht und entwickelt zu Wissensmedien, ca. 70 Mitarbeiter/innen (http://kmi.open.ac.uk)
SCIL (CH) Das „Swiss Centre for Innovations in Learning“ gehört zur Universität St. Gallen und entwickelt und forscht zu Lerninnovationen im Feld von Hochschulen und Unternehmen, derzeit 12 Mitarbeiter/innen (http://www.scil.ch)
IWM/KMRC (DE) Das „Institut für Wissensmedien“ ist eine außeruniversitäre Forschungseinrichtung mit Sitz in Tübingen und forscht zu medienbasierten Lehr- und Lernansätzen, mit ca. 80 Mitarbeiter/innen (http://www.iwm-kmrc.de)
Know-Center (AT) Das „Know-Center“ bezeichnet sich als das österreichische Kompetenzzentrum für Wissensmanagement und Wissenstechnologien und beschäftigt sich aus dieser Perspektive mit individuellen und organisationalen Lernprozessen und Medien, ca. 45 Mitarbeiter/innen (http://www.know-center.tugraz.at)
IFeL Das „Institut für Fernstudien- und eLearningforschung“ ist das Forschungsinstitut der Fernfachhochschule Schweiz, 10 Mitarbeiter/innen (http://www.ifel.ch/)
ccel Das „Competence Center e-Learning“ forscht am Deutschen Forschungszentrum für künstliche Intelligenz zum technologiegestützten Lernen, 25 Mitarbeiter/innen (http://ccel.dfki.de)

Tab.2: Ausgewählte europäische institutionalisierte Forschungseinrichtungen im Bereich des Lernens und Lehrens mit Technologien. Quellen: Beschreibung der Einrichtung auf deren Homepages bzw. Auskünfte der Einrichtungen, Stand Januar 2011

Das allgegenwärtig verfügbare, ubiquitäre Internet führt also zukünftig zu einer Entwicklung von neuen Geräten und Anwendungen von heute noch schwer vorstellbarem Ausmaß (siehe Kapitel #innovation). Aktuell sind dies derzeit auf den Markt drängende Technologien wie „Surface Computing“ (siehe Kapitel #ipad) oder neue Endgeräte wie z.B. die Datenbrille von Google. Lernressourcen und -mittel sind überall und in Echtzeit abrufbar (Zhang & Jin, 2005), neue Lerngelegenheiten werden geschaffen und für viele Menschen erst verfügbar werden. Bereits jetzt ist zu sehen, dass unsere Kinder mit Leichtigkeit mobile Endgeräte, wenn auch noch in spielerischer Weise, bedienen und in ihren Alltag integrieren (siehe Kapitel #netzgeneration). „Gute“ und damit letztlich weit verbreitete Technologie verschwindet dabei zunehmend hinter ihrem Nutzen und wird somit Bestandteil unseres Lebens („pervasive computing“ in Anlehnung an Weiser, 1991) – und damit unseres Lernen und Lehrens.

!

Durch den rasanten Anstieg der Zahl der Lernmaterialien und -gelegenheiten sowie des allgegenwärtigen Internets erweitern sich die Lern- und Lehrmöglichkeiten. Medienkompetenz, Selbststeuerung und Personalisierung der Inhalte sind dabei notwendige Voraussetzungen für zukünftiges Lernen.

?

Schauen Sie sich den Film von „Sixth Sense“ an: http://www.pranavmistry.com/projects/sixthsense/#VIDEOS [2011-01-30]. Halten Sie für sich persönlich fest, wie das gezeigte Endgerät Ihren Alltag verändern würde! Wie könnten Lehr- und Lernsituationen damit aussehen? Diskutieren Sie Ihre Überlegungen mit anderen!

Einführung

Literatur

Von der Kreidetafel zum Tablet

Eine technische Übersicht

Ausgewählte Endgeräte werden in historischer Reihenfolge vorgestellt, unter anderem die analoge Kreidetafel, das Whiteboard sowie Fernseher, Laptop und Beamer bis hin zum interactive Pen Display, zur Papershow und dem iPad. Die einzelnen Übersichten geben eine technische Beschreibung, bieten kurze Reflexionen und verweisen auf weiterführende Quellen. Das Kapitel schließt mit Kurzbeschreibungen aktueller Geräte auf dem Markt, die Potenzial im Bildungsbereich haben. Letzteres ist aus derzeitiger Sicht spekulativ und es wird sich erst zeigen, inwieweit sie am Bildungsmarkt Fuß fassen können. Bei allen Beschreibungen liegt der Fokus auf den technischen Daten und Funktionalitäten der Geräte und weniger auf den unterschiedlichen Einsatzmöglichkeiten im Klassenzimmer und Seminarraum.

Von der Kreidetafel zum Tablet

Einleitung

Hilfsmittel und Geräte, die im Unterricht zum Einsatz kommen, gibt es schon lange, aber es gibt sie keineswegs „schon immer“. Eines der ersten Hilfsmittel waren Ende des 17.Jahrhunderts Schulbücher. Wir haben versucht jene Geräte auszuwählen, die heute noch in den Ausbildungsräumen anzutreffen sind. Darunter befinden sich die Schultafel, aber auch viele digitale Endgeräte. Ein Schwerpunkt liegt dabei auf Geräten, die bei der Präsentation im Unterricht eingesetzt werden, beispielsweise Kreidetafeln, Whiteboards und Projektoren. Im Ausblick stellen wir vergleichsweise aktuelle Technologien vor, zum Beispiel Laptops, Interactive Pens und Tablets. Bei der Beschreibung stehen technisch-funktionale Aspekte im Vordergrund. Die Software beziehungsweise Apps werden nicht behandelt.

!

Weiterführende Links zum Kapitel finden Sie in der L3T-Gruppe bei Diigo unter Verwendung der Hashtags #l3t und #ipad.

?

Ordnen Sie die verschiedenen Endgeräte (TV, Laptop, Kreidetafel, Tablet, Diaprojektor, Smartphone) in historischer Reihenfolge beginnend mit dem Ältesten!

Von der Kreidetafel zum Tablet

Kreidetafel

Die Kreidetafel ist seit dem 17.Jahrhundert bekannt und prägt auch heute noch fast jede Lehrveranstaltung. Schrift wird mittels Kreide auf Tafeln übertragen, die in unterschiedlichen Farben erhältlich ist. Um diese zu entfernen, werden Schwämme beziehungsweise feuchte Tücher verwendet. Funktional dient die Kreidetafel vor allem bei der Kurzzeitspeicherung von visuellen Informationen. Sie unterstützt primär das gesprochene Wort des der Lehrenden durch grafische Darstellungen.

Ein Nachteil dieser Art von Unterrichtstechnologie besteht darin, dass sich die Lehrenden vom Publikum abwenden müssen und sich somit Erklärungen und Erläuterungen der Darstellung als sehr schwierig erweisen. Die Zuhörer/innen sind meist vorwiegend damit beschäftigt, die Inhalte zu duplizieren und in ihre „Hefte“ zu kopieren, statt Inhalte zu reflektieren. Als Vorteil der Kreidetafel wird jedoch das Unterrichtstempo beschrieben, welches an den Vorlesungsstoff angepasst ist. Das Schreiben und gleichzeitige laut Nachdenken wird vor allem in den Naturwissenschaften als sehr positiv wahrgenommen (Rojas et al., 2001, 32-37).

Die Kreidetafel wird hauptsächlich im klassischen Unterricht eingesetzt, welcher primär durch eine/n vortragende/n Lehrende/n und viele zuhörende Lernende gekennzeichnet ist.

Abb. 1: Kreidetafel
Abb. 1: Kreidetafel

!

Als Vorteil der Kreidetafel wird das Unterrichtstempo beschrieben, welches an den Vorlesungsstoff angepasst ist.

?

Welche Nachteile kann speziell die Kreide bei der Kreidetafel haben?

Von der Kreidetafel zum Tablet

Whiteboard

Abb. 2: Whiteboard
Abb. 2: Whiteboard

1990 eingeführt gilt die weiße Tafel, das „Whiteboard“, als Weiterentwicklung der Kreidetafel und wird anstatt mit Kreide mit sogenannten Whiteboard-Stiften, speziellen abwischbaren Filzstiften, beschrieben. Wie bei der Kreidetafel wird für die Herstellung Kunststoff oder Stahlemaille verwendet. Bei Verwendung von Stahlemaille kann ein Whiteboard auch als Magnettafel fungieren. Um Aufschriften von einem Whiteboard zu entfernen, wird ein trockenes Tuch oder ein trockener Schwamm verwendet. Ein Vorteil gegenüber der Kreidetafel ist, dass beim Beschreiben und Löschen der Tafel kein Staub entsteht, jedoch ist das mit Stiften Geschriebene oft schwerer für das Auditorium lesbar.

Von der Kreidetafel zum Tablet

Interaktives Whiteboard

Nicht direkt als Weiterentwicklung, aber durch die Namensgleichheit schwer unterscheidbar, ist das „interaktive“ Whiteboard, oft auch nach dem Marktführer „Smart Board“ genannt. Hier ist meist eine kleine interaktive Tafel gemeint, auf der ein Monitorbild zu sehen ist, das man per Hand oder mit Computer-Stiften bemalen kann. Das Bild wird entweder per Beamer, der unmittelbar über der Tafel angebracht ist, oder mittels großem Touchscreen dargestellt. Spezielle Software unterstützt dabei die Stifte und bindet sich in Standardlösungen (wie Powerpoint und Internet Explorer) ein. Die gesamte Software befindet sich beispielsweise im Anschlusskabel und wird bei Anschluss auf einem Präsentationsrechner installiert. Das Whiteboard selbst hat keinen Rechner.

Der Vorteil ist die Kombination aus Altem und Neuem. So kann man fast wie mit der Kreidetafel arbeiten, zum Beispiel per Stift mehrfarbig zeichnen und zum Löschen einfach mit dem Handballen wischen. Hinzu kommt die Möglichkeit, das Tafelbild digital zu speichern. Bei Powerpoints kann man nun auch Anmerkungen aktiv einzeichnen oder digitale Inhalte aus dem Netz (zum Beispiel Google Maps)
vorführen. Videos (zum Beispiel von YouTube und Vimeo) können mit den eingebauten Lautsprechern abgespielt werden. Mit der Undo- und Redo-Funktionen können sehr schnell vorbereitete Zeichnungen dargestellt und quasi als Stop-Motion-Film vorgeführt werden. Leider steht man auch hier meist mit dem Rücken zum Auditorium. Es gibt jedoch Möglichkeiten, den Beamer auch per Laptop oder Tablet zu bedienen.

Erwähnenswert ist in diesem Zusammenhang die im Zusammenspiel mit der Nintendo Wii kostengünstigere „selbstgebaute“ Variante eines interaktiven Whiteboards, welche von Johnny Lee Chung entwickelt wurde. Dabei wird versucht, mithilfe von Infrarot die Stiftbewegung aufzunehmen und mittels Projektor zu projizieren.

!

Johnny Lee Chung hat das Wii-Remote-Projekt als Open Source veröffentlicht, damit die Entwicklung auch nachhaltig und offen ist. Inzwischen gibt es ähnliche Ansätze auch für Virtual-Reality-Displays und für die Xbox Kinect. Infos unterhttp://johnnylee.net/projects/wii/ .

In der Praxis

Interaktive Whiteboards haben mehrere praktische Nachteile. Arbeitet man mit der kostengünstigen Beamer-Lösung, so hat man immer einen Schatten unter der Hand und das Bild auf dem Handrücken und schreibt auf grauer Fläche. Entscheidet man sich für die teurere LCD-Lösung, ist das Glas so dick, dass man bei Seitenblick manchmal die Knöpfe nicht korrekt drückt, da es eine Brechung gibt. Die üblichen Software-Probleme und die Verzögerungen bei Eingaben erfordern zudem leistungsstarke Hardware.

Von der Kreidetafel zum Tablet

Diaprojektor

Der zu der Familie der Durchlichtprojektoren (Diaskope) zählende Diaprojektor wurde 1926 von Leitz (Wetzlar) entwickelt. Der Diaprojektor wird verwendet, um durchsichtige, unbewegliche und meist durch Photographie gewonnene Bilder, kurz Diapositive, darzustellen. Diese Bilder haben meist eine Größe von 24 x 36 mm und liegen in einem 50 x 50 mm Diarahmen. Neben den konventionellen Dias gibt es auch Diastreifen, auf denen sich mehrere Bilder nebeneinander befinden. Trotz verschiedenster Hersteller (welche sich in Konstruktion und Leistung unterscheiden), basieren alle Projektoren auf dem Prinzip: „Das von der Lichtquelle (Lampe) ausgestrahlte Lichtbündel wird durch den Kondensor gesammelt, durchstrahlt nun als Bündel annähernd paralleler Lichtstrahlen das zur Projektion bestimmte Bild – das Dia – und wird durch das Objektiv auf die Projektionsfläche geworfen“ (Melezinek, 1999, 117).

Grundsätzlich unterscheidet man zwischen nichtautomatischen, halb- und vollautomatischen Diaprojektoren. Nichtautomatische Projektoren müssen von Hand bedient werden, während halb- und vollautomatische Projektoren mit Diamagazinen ausgestattet sind und mittels Fernbedienung bedient werden. Der Aufwand und die Kosten von analogen Bildern stehen heutzutage in keinem Vergleich zur digitalen Produktion. Die Herstellung wird nur noch von Spezialistinnen und Spezialisten zu entsprechenden Kosten durchgeführt.

Abb. 3: Diaprojektor
Abb. 3: Diaprojektor
Von der Kreidetafel zum Tablet

Tageslichtprojektor

Der Tageslichtprojektor, auch Overhead-Projektor (Österreich, Westdeutschland), Polylux (Ostdeutschland) oder Hellraumprojektor (Schweiz) genannt, wurde 1960 von der Firma 3M entwickelt. Er projiziert mittels eines Bildwerfers den Inhalt transparenter Folien auf eine Projektionsfläche, ohne dass der Raum stark verdunkelt werden muss.

Abb. 4: Tageslichtprojektor
Abb. 4: Tageslichtprojektor

!

Der Tageslichtprojektor bietet den Vorteil, dass die Vortragenden in ständigem Blickkontakt mit dem Publikum bleiben, Folien beliebig austauscht werden können und die natürliche Schreibhaltung unterstützt wird (Blömecke, 2005, 76-97).

Als Medium dient vorwiegend eine transparente Folie, in Form von einzelnen Blättern oder als Folienrolle, welche aus Polyacetat, Polyester und Ähnlichem besteht. Auch das Bedrucken von Spezialfolien mit Bildern ist möglich. Durch Realobjekte werden Schattenprojektionen ermöglicht. Als Weiterentwicklung wird der Einsatz von LC-Displays (Liquid-Crystal-Displays) angesehen, bei dem ein Bildschirm auf den Tageslichtprojektor gelegt und durch dessen Lichtquelle durchleuchtet wird. Durch
diese Technik können Inhalte von Computern auf der Projektionsfläche großformatig dargestellt werden.

Der Tageslichtprojektor projiziert mit dem gleichen Prinzip wie der Diaprojektor: Der Lichtstrom von der Lichtquelle (Lampe) leuchtet über einen Kondensor (Fresnel-Linse) gleichmäßig die Arbeitsplatte (Glasplatte) aus und wird durch den auf der Arbeitsplatte aufgelegten Informationsträger hindurch über den Projektionskopf (zum Beispiel zwei Linsen, Umlenkspiegel) zur Projektionsfläche abgestrahlt. Andere Ausführungen bieten zum Beispiel einen Parabolspiegel, bei dem der Objektivkopf zusätzlich die Lichtquelle beinhaltet.

Tageslichtprojektoren haben auch heute noch eine sehr weite Verbreitung und sind vielerorts im Einsatz.

Von der Kreidetafel zum Tablet

Epiprojektor (Episkop) / Visualizer

Der episkopische Projektor kann undurchsichtiges (opakes) Normalpapier projizieren. Dies ist vorteilhaft, da man aktuelle Informationen, ohne diese in ein Diapositiv oder ein Transparent umzuarbeiten, direkt projizieren kann.

Das Darstellungsprinzip des Epiprojektors ist dabei die „Auflichtprojektion“. Die zu projizierende Vorlage wird auf eine Platte am Boden des Episkops gelegt und mit einer oder mehreren Lampen beleuchtet. Das von der Vorlage diffus reflektierte Licht wird über einen Spiegel zum Projektionsobjektiv geführt und weiter auf eine Projektionsfläche geworfen. Auf Grund der geringen Lichtausbeute ist es notwendig, den Unterrichtsraum zu verdunkeln.

Der größte Vorteil dieser Art von Projektion ist, dass die Vorlagen ohne weitere Aufbereitung unter das Gerät gelegt werden können. Auch Objekte mit Übergröße sind möglich, da der Kopf des Epiprojektors abgenommen und über das Objekt bewegt werden kann.

Die Weiterentwicklung des Episkops ist der Visualizer. Hier wird eine hochauflösende Kamera genutzt, um den beleuchteten Gegenstand zu filmen und dann das Bildsignal digital oder analog an einen Overhead-Projektor oder einen Beamer, an ein interaktives Whiteboard oder eine Webkonferenz weiterzuleiten. Technisch kann man so alle Gegenstände dreidimensional erfassen und problemlos darstellen.

Abb. 5: Epiprojektor
Abb. 5: Epiprojektor
Von der Kreidetafel zum Tablet

Fernseher, Monitor, Videorekorder, DVD-Player

Der uns heute bekannte Fernseher geht auf ein Patent von Paul Nipkow im Jahre 1886 zurück, der den ersten mechanischen Fernsehapparat erfand. Später folgte der analoge Röhrenmonitor und heute der bekannte digitale Flachbildschirm, den man in LCD-, LED- und Plasma-Flachbildfernseher einteilen kann. Die Standardauflösung ist inzwischen HD und teilweise wird auch 3D unterstützt. Das Nachfolgeformat UHD (auch 4k oder 8k genannt) wird schon ausgeliefert, es mangelt jedoch an Abspielgeräten und Medien.

Um Filme aufzuzeichnen und erneut abspielen zu können, wurde der Videorekorder entwickelt. Das verwendete Medium war ein Magnetband, das mehrere Male verwendet werden konnte (Überspielen), inzwischen wurde der Videorekorder jedoch durch den Harddiskrekorder abgelöst. Mit Einzug der DVD (Digital Versatile Disc) im Jahr 1996 kamen auch die DVD-Player, die durch eine höhere Kapazität und das digitale Format Videos in höherer Qualität erlauben. Als Weiterentwicklung heutzutage gilt die Blu-ray-Disc. Beide Angebote erhalten jedoch durch Streaming-Angebote (unter anderem YouTube, Maxdome und iTunes) aus dem Internet starke Konkurrenz. Durch die Einführung von Lehrvideos wurde fälschlicherweise angenommen, dass ein erhöhter Lernerfolg durch alleiniges Betrachten der Filme eintrete (Salomon, 1984,647-658). Heute spielt diese Form des Unterrichts eine eher untergeordnete Rolle oder findet sich unter dem Schlagwort „Multimedia“ (siehe Kapitel #multimedia) wieder.

Da große Bildschirme sehr teuer sind, werden in der Praxis oft Beamer eingesetzt.

In der Praxis

Die Größe des Fernsehers ist abhängig von der Entfernung, der Betrachterin bzw. des Betrachters und der Qualität (SD oder HD) der Quelle. Die Faustformel zur Berechnung ist Bildschirmdiagonale in cm * Faktor = Abstand in cm. Bei HD ist der Faktor 2,5, da man deutlich näher am Bildschirm sitzen kann, weil die Kantenglättung erheblich besser und das Bild detailreicher ist, für SD empfiehlt sich der Faktor 3. Beispiel: Bei einem 60 Zoll Bildschirm ist der optimale Abstand bei HD 381 cm.

?

Was ist der optimale Abstand bei einem 45 Zoll SD-Fernseher?

Von der Kreidetafel zum Tablet

Touchscreen

Die ersten Touchscreens wurden schon 1940 entwickelt und schließlich mit Veröffentlichung der PLATO-IV-Lernmaschinen 1972 publik gemacht. Bei Touchscreens interagiert man mit einem Computer durch Berührung des Bildschirmes. Statt der Bedienung durch einen mit der Maus bewegten Cursor, wird auf direkte Eingaben mit Finger und Zeigestift (einem sogenannten Stylus) gesetzt.

Abb. 6: Touchscreen
Abb. 6: Touchscreen

Früher vorwiegend bei Info-Monitoren, Computer-Kiosks und Bankomaten verwendet, finden wir Touchscreens heutzutage in Mobiltelefonen, Tablet-PC, Laptop, MP3-Player und Ähnlichem. Man unterscheidet folgende Funktionsprinzipien:

In der Praxis

Die kapazitiven Touchscreens haben sich inzwischen flächendeckend durchgesetzt. Die großen Nachteile, dass man sie nicht per Handschuh bedienen kann und die größere Ungenauigkeit, spielen in der Praxis kaum eine Rolle. Dafür sind sie verschleißfrei, unterstützen Multi-Touch und reagieren beim Transport in der Hosen oder Handtasche nicht ungewollt auf Druck. Die große Ausnahme sind jedoch die Samsung-Galaxy-Note-Hybrid-Modelle, die beide Technologien unterstützen. Es wird die kapazitive Technik für die Handeingabe verwendet und die induktive für den Pen, wobei die induktive Technik eine höhere Priorität hat.

Von der Kreidetafel zum Tablet

Videoprojektor

Bei Videoprojektoren, umgangssprachlich als Beamer bezeichnet, wird ein Videosignal, zum Beispiel von einem Computer oder DVD-Player, auf eine Leinwand projiziert. Am Beginn der Projektion stand die von Christiaan Huygens 1656 erfundene Laterna Magica (lat. Zauberlaterne). Bis hinein in das 20. Jahrhundert galt sie als das Projektionsgerät. Es projizierte mit Hilfe einer internen Lichtquelle und spezieller Linsensysteme in schneller Reihenfolge Bilder durch das ausfallende Licht.

Abb. 7: Videoprojektor
Abb. 7: Videoprojektor

!

Videoprojektoren (Beamer) sind als Vortragsmedien anzusehen, welche in Verbindung mit einem Computer die Projektion digitaler Inhalte ermöglichen.

In der Praxis

Das Format, die Anschlüsse und die Auflösung des Beamers erhöhen die Fehlerquellen. Im Jahr 2005 war das 4:3 Format noch üblich, inzwischen gibt es fast nur noch 16:9 oder 16:10 Formate am Arbeitsplatz. Die Beamer haben jedoch ungleich längere Lebenszyklen und natürlich auch die Projektionsflächen in den Gebäuden. Das Gleiche gilt für die Auflösung, die oft noch 800*600 Bildpunkte betragen kann. Bei Präsentationen, speziell bei Vorführung von Software, kann das zu Problemen führen, wenn zum Beispiel Navigationselemente nicht mehr dargestellt werden. Beamer haben meist auch noch den berüchtigten VGA-Anschluss, aber moderne Ultrabooks unterstützen nur noch HDMI. Adapter können da nicht immer helfen.

Mittlerweile gibt es verschiedene Anzeigeverfahren. Die zwei gebräuchlichsten sind LCD-Projektoren und DLP-Projektoren:

Neben diesen beiden gibt es noch LED- und LCoS-Projektoren. Ein wesentliches Merkmal ist die Leuchtkraft der im Beamer verbauten Lampe. Durchschnittlich liegt die Leuchtstärke bei 1000 bis 4500 Lumen, diese kann aber durch Kontrast und Helligkeit eingestellt werden. Die Helligkeit ist unmittelbar abhängig von der Größe der Fläche und der Helligkeit des Raumes und sollte in Klassenräumen mit Tageslicht mindestens 500 Lumen betragen. Die Helligkeit des Beamers kann man nach folgender Formel berechnen: Ansi Lumen / Fläche in m².

In der Praxis

Hat man eine Leinwand von 2*1,5 Meter zur Verfügung und will bei Tageslicht eine Vorführung machen, so benötigt man einen Beamer mit mindestens 1500 Lumen (2*1.5)*500=1500. Bei leicht abgedunkelten Räumen reichen teilweise sogar 250 Lumen/m² und bei stark abgedunkelten Räumen kann man sogar mit 100 Lumen/m² vorführen.

Im Unterricht werden Videoprojektoren vor allem zur Präsentation von digitalen Unterlagen und Live-Demos verwendet, meistens in Verbindung mit einem Laptop. Die Einsatzmöglichkeiten sind dabei unendlich, denn das gesamte Präsentationsspektrum kann abgedeckt werden. Dank Fernbedienung und Laserpointer kann man sich auch frei im Raum bewegen. Der Nachteil ist die Helligkeit und der Kontrast, der oft eine Abdunkelung des Raumes benötigt oder – bei großen Räumen – einen sehr lichtstarken teuren Beamer.

?

Berechnen Sie die minimale Lichtstärke eines 16:9 Beamers wenn die maximale Breite Ihrer Leinwand 3 Meter beträgt und Sie einen leicht abgedunkelten Raum haben.

Von der Kreidetafel zum Tablet

PC, Laptop und Netbook

Der erste elektronische Computer wurde um 1938-1945 von Konrad Zuse entwickelt. Der erste Laptop, ein mobiler Personal Computer, wurde im Jahr 1975 von IBM vorgestellt, der IBM 5100. Später, im Jahr 1980, kam der erste, wie uns heute bekannte, Laptop heraus (Flip-Form). Im Gegensatz zu früher kann man Laptops heute mit Stand-PCs vergleichen, da dieselbe Leistung auf immer kleineren Raum gebracht werden kann. Die kleinste Version eines Laptops wird heute als Netbook bezeichnet. Dieses hat oftmals nur eine geringe Leistung und wird daher eher als leichter Reisebegleiter verwendet.

PCs und Laptops durchdringen immer mehr die Unterrichtsräume, die Zunahme an Netbooks kann ebenfalls immer mehr beobachtet werden (siehe Kapitel #schule). Kritische Stimmen meinten anfangs, dass man nun einen etwas besseren Taschenrechner hätte, aber die Vielfalt der Möglichkeiten, die sich dadurch ergeben, ist heute noch immer eine der wesentlichen Fragestellungen des Forschungsgebietes technologiegestütztes Lehren und Lernen.

Abb. 8: Personal Computer (PC)
Abb. 8: Personal Computer (PC)
Von der Kreidetafel zum Tablet

Interactive Pen Display

Ein Interactive Pen Display ist ein berührungsempfindlicher Bildschirm, auf dem man mit einem Stift (auch Stylus genannt) interagieren kann. Es lässt sich sehr gut mit den aufkommenden Tablet-Computern vergleichen.

Im Gegensatz zur Kreidetafel bieten Interactive Pen Displays durch den Anschluss an einen Computer digitalen Inhalt. Man kann alles speichern, bearbeiten, löschen und kopieren. Der Schreibaufwand, den Lehrende und Studierende haben, ist sowohl bei der Tafel als auch bei den Interactive Pen Displays der gleiche.

Abb. 9: Interactive Pen Display
Abb. 9: Interactive Pen Display

!

Interactive Pen Displays erlauben die Erweiterung von herkömmlichen Laptops um einen berührungsempfindlichen Bildschirm.

Ein Einsatzszenario ist zum Beispiel: Als Brücke zwischen Beamer und Interactive Pen Display fungiert ein Laptop, auf dem Lehrveranstaltungsfolien präsentiert werden. Mittels des Bildschirms lassen sich nun alle Folien näher beschreiben und mit Informationen (Text/Skizzen) verfeinern. Diese Informationen können danach auf eine Online-Plattform geladen und den Studierenden als weiterführende Unterlagen angeboten werden (siehe Praxisbeispiel).

Von der Kreidetafel zum Tablet

Papershow

Papershow eignet sich sehr gut, um komplizierte handschriftliche Inhalte, zum Beispiel Formeln, Herleitungen oder Skizzen, schnell und deutlich digital wiederzugeben und auch aufzuzeichnen. Man zeichnet mit einem fast normalen Stift auf Spezialpapier. Eine kleine eingebaute Stift-Kamera zeichnet dann die Schrift auf. In Zusammenarbeit mit dem Papierraster des mitgelieferten Spezialpapiers erkennt der Stift die Position und überträgt das Schriftbild sehr genau 1:1 kabellos per Bluetooth auf den

Rechner. Farben und Schriftstärke können auch über das Spezialpapier geändert werden. Die Nutzer/innen müssen sich also nicht umgewöhnen und können wie gewohnt mit Stift und Papier auch komplexe Sachverhalte aus Physik, Mathematik oder der Kunst schnell und vertraut darstellen. Für die Nachhaltigkeit kann man dies dann auch gleich per Screencast aufzeichnen und archivieren.

Abb. 10: Papershow
Abb. 10: Papershow
Von der Kreidetafel zum Tablet

Smartphone

Im Jahr 2013 haben über 31 Millionen Deutsche ein Smartphone. Ausgestattet mit hochauflösender Kamera, Internet, GPS-Modulen und Touch-Displays wurden Smartphones vor allem durch die zur Verfügung stehenden Anwendungen (engl. „applications“, kurz Apps) populär. Seit Jahren wird Forschung zum mobilen Lernen („M-Learning“, siehe Kapitel #mobil) betrieben. Der Einsatzbereich der Smartphones in der Lehre ist quasi unendlich, erfordert jedoch spezielle Software und bestimmte Hardware-Konzepte z.B. BYOD (Bring Your Own Device). Der Vor- und gleichzeitige Nachteil sind die schnellen Produktionszyklen von Hard- und Software. Jedes Jahr kommen neue Modelle heraus und die Software aktualisiert sich noch schneller. Vertraute Bedienkonzepte oder Dokumentationen sind schnell veraltet. Fehler in der Software oder dringend benötigte Features können abrupt verschwinden oder erscheinen. Die Anwender/innen benötigen eine hohe technische Affinität und Medienkompetenz.

Abb. 11: Mobiltelefon
Abb. 11: Mobiltelefon
Von der Kreidetafel zum Tablet

Tablet

Eine der wichtigsten Zukunftstechnologien unserer Zeit sind die Tablet-Computer. Es werden pro Jahr ca. 200 Millionen Stück verkauft, davon entfallen ca. 31% auf Apple, der Rest ist zumeist Android. Tablets eignen sich ideal für den Unterricht, da sie nicht hochfahren müssen, keine Lüfter besitzen und die Tastatur lautlos ist. Mittels Adapter lässt sich das Tablet für Präsentationen an einen Beamer anschließen. Durch spezielle Bildungs-Apps werden diverse didaktische und technische Szenarien unterstützt.

Abb. 12: Tablet-Computer
Abb. 12: Tablet-Computer

Verantwortlich für die Usability eines Tablets ist unter anderem die verwendete Multi-Touch-Technologie beim iPad oder die Hybrid-Technologie beim Galaxy Note. Dank Touchscreen können nun ohne Probleme in verschiedensten Anwendungen Anmerkungen auf dem Bildschirm per Hand oder Pen gemacht werden.

Nach und nach bringen nun auch, neben Apple, andere PC-Anbieter wie HP, Lenovo, Amazon und Microsoft Tablet-Geräte auf den Markt. Viele dieser Geräte punkten mit besonderen Funktionen, zum Beispiel abnehmbare Tastaturen, Pens, Voice Commands oder Gestensteuerung. Was allen jedoch gleicht ist: Es wird alles billiger, schneller und benutzerfreundlicher.

Von der Kreidetafel zum Tablet

Fazit

Dieses Kapitel zeigt die Vielfalt an Technologien in den heutigen Unterrichtsräumen auf und auch, was man von ihr erwarten kann. Gemein ist ihnen, dass jede Einführung immer mit großen Schwierigkeiten verbunden war, ihrer Verwendung viel Skepsis entgegengebracht wurde und sie trotzdem letztendlich nicht aufzuhalten waren.

?

Überlegen Sie darüber hinaus, wie sich die Lehre verändern könnte, wenn man mit modernen Technologien (zum Beispiel Touch-Screens) arbeitet.

?

Erstellen Sie eine tabellarische Übersicht, in der Sie die Vor- und Nachteile aller Geräte im Lehr- und Lerneinsatz festhalten. Beschreiben Sie dabei auch, in welchem Lehr- oder Lernarrangement sie idealerweise zum Einsatz kommen.

Von der Kreidetafel zum Tablet

Literatur

Die Geschichte des WWW

Persönlicher Bericht aus europäischer Perspektive

Zwischen der Entwicklung des WWW und des Internets wird in vielen Darstellungen wenig unterschieden. Das Internet, so wie wir es heute kennen, hat seinen Ursprung zweifelsfrei in den USA. Das WWW wird aber oft ebenso als amerikanische Erfolgsgeschichte dargestellt, obwohl es tatsächlich eine europäische ist. Warum dem so ist, soll dieser kurze Artikel darstellen. Es wird ferner das WWW als ein ‚„offensichtlicher‘“ Zusammenfluss von Hypertext bzw. Hypermediensystemen mit dem Internet gesehen, obwohl man, wie das in diesem Beitrag beschrieben wird, auch mit Recht behaupten kann, dass das WWW andere Wurzeln und andere Vorläufer hat als nur amerikanische Hypertext-Systeme und das Internet.

Dieser Beitrag versteht sich in einigen Punkten als eine Ergänzung zu heutigen, vielleicht einseitigen Darstellungen und konzentriert sich vor allem auf andere, insbesondere europäische Entwicklungen, die sich aber aus Gründen, die auch angedeutet werden, schlussendlich nicht durchgesetzt haben.

Die Geschichte des WWW

Robnett Licklider, Ted Nelson und Sam Fedida

Die frühe Geschichte des Internets und der allmähliche Übergang von leitungsorientierten zu paketvermittelnden Systemen ist in der Literatur so ausführlich beschrieben, dass darauf hier nicht weiter eingegangen wird, sondern eher die Personen erwähnt werden, die die notwendigen vorangehenden geistigen Pionierleistungen erbrachten.

Zu selten wird dabei Joseph Carl Robnett Licklider (1915-1990) erwähnt, der schon in den fünfziger Jahren des vorigen Jahrhunderts vom Konzept des ‚„timesharing‘“ überzeugt war, dass also ein Computer viele Benutzerinnen und Benutzer gleichzeitig bedienen kann. Dies wurde damals von den meisten als zu wenig effizient, als Science-Fiction, abgetan. Einer der wenigen aktiven Unterstützer dieses Konzeptes war übrigens der kürzlich verstorbene Douglas Engelbart (1925-2013), der als Erfinder der Maus zu großen Ehren kam, obwohl seine größten Verdienste eher im konzeptionellen Bereich liegen. Dies ist ähnlich zu Licklider, die beide von der Mensch-Computer-Symbiose nicht nur träumten, sondern darüber schrieben und an Teilaspekten arbeiteten.

Licklider zeigte in einer erfolgreichen öffentlichen Vorführung 1957 das erste Time-Sharing-System auf einer PDP-1. Wenn man aber mit einem Rechner viele verteilte Benutzerinnen und Benutzer mit ihren Endgeräten innerhalb einer Firma gleichzeitig bedienen kann, dann erscheint mir der Sprung, über den Bereich eines Firmengeländes hinauszugehen, eher ein kleiner, ohne damit die Verdienste früher Pioniere von viel größeren Netzwerken wie es zum Beispiel das Internet wurde, allen voran natürlich Vint Cerf (geb. 1943) und Bob Kahn (geb. 1938), schmälern zu wollen.

!

Der PDP-1 (Programmed Data Processor 1) war der erste von der Firma DEC im Jahr 1959 entwickelte Minicomputer. Er war so groß wie zwei Kühlschränke, konnte aber im Gegensatz zu den größeren IBM-Maschinen hochgefahren und gesteuert werden.

Im Vergleich dazu erscheint mir die Betonung von Vannevar Bush (1890-1974) mit seinem Memex immer als überzeichnete Darstellung, da zumeist im englischen Sprachraum nicht bekannt ist, dass in vielen europäischen Bibliotheken bereits im 16. Jahrhundert mit mechanischen Buchautomaten experimentiert wurde, die ein automatisches Umblättern zu einer zugeordneten Seite eines anderen Buches ermöglichten. Abbildung 1 zeigt das ‚Buchrad‘ von Agostino Ramelli (1531-1610) aus dem Jahr 1588: Man konnte, während man eine Seite las, auf einer Tastatur beispielsweise 12378 tippen, wodurch dann automatisch die Seite 378 des Buches 12 aufgeschlagen wurde. Es gab viele, zum Teil sehr ausgefeilte Versionen solcher Buchräder: Trotz aller Einschränkungen (etwa die Anzahl der Bücher, die man verlinken konnte, und dass man sinnvollerweise bei Verweisen gleich die richtige Ziffernfolge, also hier 12378, in die Seite, von der man ‚verzweigen‘ wollte, eintrug) ist hier eine Informationsverlinkung gegeben, wie sie heute anstatt der Eingabe von einigen Ziffern durch einen Mausklick erledigt wird. Dies lässt Memex dann plötzlich nur noch als eine Neuaufwärmung einer uralten Idee mit etwas moderneren Mitteln erscheinen.

Abb. 1: Buchrad von Ramelli 1588 (Keil, G. (1990). Foto aus seiner Habilitationsschrift. Paderborn)
Abb. 1: Buchrad von Ramelli 1588 (Keil, G. (1990). Foto aus seiner Habilitationsschrift. Paderborn)

Die Vision von Ted Nelson (geb. 1937) im Jahr 1960 hingegen scheint sehr bedeutungsvoll. Sein Xanadu-Projekt wird oft als konzeptionell wegbereitend für späterere Hypertext-Systeme gesehen (Nelson prägte auch den Begriff Hypertext), doch werden zahlreiche besonders wesentliche Aspekte seiner Vision selten erwähnt. Drei dieser Aspekte sind:

Der erste Aspekt (a) wird aus technischer Sicht noch später behandelt. Für Nelson war es aber wichtig, dass man in jedem Dokument feststellen kann, wer auf dieses verlinkt. Aspekt (b) ist bis heute noch immer in kein gängiges Betriebssystem implementiert, obwohl der Nutzen auf der Hand zu liegen scheint. So muss man sich zum Beispiel immer noch mit Screendumps, die man dann mit einem Grafikeditor bearbeitet, behelfen. Die fehlende Umsetzung von Aspekt (c) ist ebenso erstaunlich. Damit wäre es zum Beispiel einfach möglich, Links (entsprechen Sprungmarken, sogenannten GOTOs in der Programmierung) durch Unterprogrammaufrufe zu ersetzen. In der Programmierung sind GOTOs schon lange verpönt – in fast allen Hypertext-Systemen (auch den üblichen WWW-Anwendungen) wird hingegen noch immer mit Links eine Art ‚Spaghettiprogrammierung‘ (nach Robert Cailliau), anstelle vernünftiger Strukturen aufgebaut. Hingegen existier(t)en genug Systeme, die dies durchaus erlauben. Bei zweien war der Autor selbst involviert:

Ein ähnliches System mit einer sehr hierarchischen Struktur ist das Gophersystem, das unter der Leitung von Marc McCahill (geb. 1956) an der Universität Minnesota um 1990 entwickelt wurde.

Während 1969, als das große Jahr des (langsamen) Starts des Internets überall erwähnt wird und vom WWW weit und breit noch nichts zu sehen war, hatte der englische Ingenieur Samuel Fedida schon 1968 die Vision ‘Viewdata‘ (und sogar ein Patent darauf), welche die aus funktionaler Sicht wichtigsten Elemente des WWW enthielt. Fedida betonte aber, dass er erst durch den durchaus spekulativen Beitrag „The Computer as a Communication Device“ von Licklider (Licklider & Taylor, 1968) auf die Idee kam und sehr zügig eine damals realistische Version implementierte. 1974, mehr als 15 Jahre vor dem WWW, ging sie als Prototyp in Betrieb und wurde noch in den 1970er Jahren im Vereinigten Königreich als kommerzieller Dienst (Fedida & Malik, 1979) angeboten. Der Dienst wurde später Prestel genannt, beziehungsweise in Deutschland und Österreich ‚Bildschirmtext‘ (BTX), wobei BTX in Deutschland 1977 erstmals auf der Internationalen Funkausstellung Berlin groß der Öffentlichkeit präsentiert wurde. Die Einführung als Pilotbetrieb beziehungsweise -dienst erfolgte dann etwas später, mit Beginn des Jahres 1981 auch in Österreich. Viele europäische Länder, aber auch zahlreiche außereuropäische, boten Varianten davon ab den 1980er Jahren als Dienst oder Pilotdienst an. Darüber wird im nächsten Kapitel berichtet.

!

Prestel kann heute als Vormodell des WWW angesehen werden und wurde in den 1970er -Jahren bereits im Vereinigten Königreich als kommerzieller Dienst angeboten.

Die Geschichte des WWW

Die Grundidee des BTX

1968 gab es noch wenige leistungsfähige Großcomputer. Der erste erfolgreiche Heimcomputer, MITS Altair 8800, kam erst 1976 auf den Markt. Der Apple I folgte ein Jahr später und der erste ernstzunehmende, nicht als Bausatz verfügbare Computer Apple II sogar erst 1977, gleichzeitig mit dem Commodore PET. 1979 folgten die Produktion und der Verkauf der ersten Atari-Computer. Die ersten echten Farbheimcomputer waren dann der Tandy TRS-80 Color Computer und der Sinclair ZX80, beide 1980.

Und trotzdem muss nochmals betont werden, dass Samuel Fedida bereits 1968, also mehr als 10 Jahre vor den ersten Heimcomputern, seine Vision, alle Haushalte mit farbtauglichen Geräten auszurüsten, die den Zugriff und die Interaktion mit großen Informationsdatenbanken ermöglichen sollen, präsentierte. Und es blieb keine Vision, sondern war eine konkrete Idee, die dann systematisch verwirklicht wurde:

Die meisten Haushalte hatten ein Farbfernsehgerät mit Fernbedienungstastatur und ein Telefon. Es lag nahe, mittels eines Modems die Telefonleitung zur Übertragung von Daten aus einem Netz von Servern zu verwenden und diese mit einem einfachen ‚Decoder‘ (als Zusatzgerät oder eingebaut) dem Fernseher als Displaygerät einzubauen, mit der Fernsehtastatur als Eingabegerät.

Ganz konkret bedeutet dies, dass man mit dem Fernsehgeräte Zeilen mit 40 Zeichen anzeigen konnte, wobei 288 anzeigbare Zeichen (wie in Abbildung 2) vorgesehen waren - zusätzlich zu verschiedensten, nicht anzuzeigenden Kontrollzeichen. Neben Groß- und Kleinbuchstaben sowie Sonderzeichen gab es auch ‚Mosaikzeichen‘, um damit einfache Grafiken erstellen zu können. Insgesamt waren sechs Hauptfarben sowie schwarz/weiß und einige weitere Besonderheiten (wie Blinken, Umrahmung, doppelte Größe u.Ä.) über Kontrollzeichen wählbar.

Abb. 2: Die 288 anzeigbaren Zeichen von Viewdata bzw. nachfolgendem BTX
Abb. 2: Die 288 anzeigbaren Zeichen von Viewdata bzw. nachfolgendem BTX

So rudimentär und einfach das aus heutiger Sicht klingt, man darf nicht vergessen, dass auch ein Apple II im Jahr 1977 noch Fernsehgeräte als Display verwendete und im Textmodus nur 64 druckbare Zeichen hatte. Auch kannte der Apple II noch keine Kleinbuchstaben.
Dass sich, wenn auch aufwendig, mit den Mosaiksteinchen durchaus ansehnliche Bilder erzeugen lassen, zeigen die klassischen ‚Portraits‘ von Einstein und Monroe in Abbildung 3.

Abb. 3: Bilder von Einstein und Monroe aus Mosaiksteinchen zusammengesetzt
Abb. 3: Bilder von Einstein und Monroe aus Mosaiksteinchen zusammengesetzt

Das ‚Netzwerk von Datenbanken‘ war am Anfang ein einzelner Rechner, später ein Netz von Rechnern, die sich immer synchronisierten. Anbieter von Informationen konnten entweder Platz auf einem Rechner mieten oder einige Jahre später einen eigenen Rechner über Datex-P/X25 anschließen.

!

Datex-P/X 25 war ein Kommunikationsnetz zur Datenübertragung der Deutschen Telekom, welches 1980 eingeführt wurde.

Da es als Eingabegerät zunächst nur die rein numerische Fernbedienungstastatur gab, war das System sehr stark menügetrieben. Durch wiederholte Auswahlschritte tastete man sich an die gewünschte Information heran. Dennoch war es von Anbeginn an möglich, Nachrichten (E-Mails) an andere Benutzerinnen und Benutzer oder Informationsdienste zu senden. Am einfachsten war dies natürlich bei vorformatierten Glückwünschen oder bei der Auswahl einer Bestellung usw. Aber bald wurde ein ‚Beschriftungstrick‘ angewandt: Jede Ziffer auf der Tastatur wurde mit zwei bis drei Buchstaben belegt: 0-ab, 1-cde, 2-fgh, 3-ijk, 4-lm, 5-nop, 6-qrs, 7-st, 8-uvw, 9-xyz. Wollte man ein Wort wie ‚Hallo‘ schreiben, so tippte man die entsprechende Ziffernfolge 20445. Diese fünf Ziffern ergeben Worte, die mit einer der sechs Kombinationen fa, fb, ga, gb, ha, hb beginnen, und die mit einer der 12 Kombinationen lln, llo, llp, lmn, mlo, mlp, mln ,mlo, mlp, mmn, mmo, mmp aufhören.

Aus den so entstehenden 72 Worten findet sich in einem deutschen Wörterbuch ausschließlich das Wort ‚hallo‘. Die deutsche Sprache ist also so redundant, dass einer Ziffernfolge meist nur ein Wort entspricht, d.h., man kann mit einer Zifferntastatur Text schreiben. In den wenigen Fällen, wo eine Ziffernkombination mehr als einem Wort entspricht, erlaubt man die gewünschte Wahl wieder durch die Eingabe von 1, 2 etc. Diese Idee stammt nach dem Wissen des Verfassers von DI Gerhard Greiner und dem Verfasser, und wurde viel später für das Versenden von SMS mit numerischer Tastatur wiederentdeckt.

In manchen Publikationen findet man bisweilen die Aussage: „Die erste E-Mail wurde 1983 von x an y übermittelt“. Das ist nur insofern richtig, wenn man eine Nachricht als E-Mail nur dann als solche bezeichnet, wenn das Internet der Transportweg ist. Ansonsten wurden E-Mails über BTX und ähnliche Systeme schon sehr viel früher versandt.
In diesem Sinn bot BTX nicht nur Informationen an, sondern erlaubte auch das Tätigen von Bestellungen und Buchungen sowie das Versenden von Nachrichten und anderer interaktiver Tätigkeiten. Man könnte überspitzt formulieren, dass die BOX-7 (wie man sie nannte) der erste Blog, den ein ganzes Land verwenden konnte, gewesen ist, wobei man nicht einmal einen eigenen BTX-Anschluss benötigte, weil viele Postämter gratis benutzbare öffentliche Terminals anboten. Die österreichische E.R.D.E (Elektronische Rede- und Diskussions-Ecke) von 1987 könnte wohl auch als erste, der breiten Öffentlichkeit zugängliche Chat-Plattform gelten.

Schon die ersten Versionen von BTX hatte einige interessante Eigenschaften, die dem heutigen Web fehlen: So hatten Nachrichten zum Beispiel einen bekannten Absender (SPAM konnte daher nicht existieren) und es gab gebührenpflichtige Seiten, die Mikrozahlungen zuließen, wobei diese (da die damaligen Telekomunternehmen staatliche Monopole waren) mit der Telefonrechnung ausgewiesen wurden. Damit war es möglich, ohne über Benutzerkennung und Passwort hinauszugehen, zum Beispiel eine BTX-Torte mit den Zuckerbuchstaben „Unserem Hannes alles Gute“ über BTX zu bezahlen und zu versenden.

Wie schon vorher erwähnt, wurde BTX in den verschiedensten Ländern mit zusätzlichen Funktionen ausgestattet, Funktionen, die zum Teil dem WWW bis heute fehlen. Darüber wird im nächsten Abschnitt berichtet.

Die Geschichte des WWW

Erweiterungen des BTX

In Kanada versuchte man besonders die komplexen Mosaik-Grafiken zu vereinfachen und programmierte den Decoder so, dass er automatisch gewisse geometrische Objekte zeichnen konnte. Statt zum Beispiel einen roten Kreis annähernd und aufwendig aus Mosaiksteinchen zusammenzusetzen, schickte man einen Code, der im Wesentlichen besagte: „Zeichne einen rot gefüllten Kreis mit Radius r und Zentrum (x,y).“ Diese Entwicklung von „geometrischer Grafik“ unter dem Namen „Telidon“ wurde dann von AT+T unter ‚NAPLPS‘ weiterverfolgt, ohne aber einen entscheidenden Durchbruch auszulösen.

!

Telidon und NAPLPS waren grafische Beschreibungssprachen für Video- und Bildschirmtext-Systeme.

In Japan setzte man mit dem Videotext-System ‚CAPTAIN‘ nur auf pixelorientierte Bilder, weil man so gleich auch japanische Schriftzeichen erzeugen konnte. Da es aber zu dieser Zeit noch kein Komprimierungsverfahren gab (wie zum Beispiel heute unter anderem bei Bildern im Format .jpeg in Verwendung), waren die Übertragungszeiten unangenehm lang. In Europa wurde von allen damaligen Kommunikationsmonopolbetreibern 1985 eine neue Norm, ‘CEPT II, Level 2 und 3‘ (Level 2 dabei verpflichtend), beschlossen, wodurch eine Umstellung bei den Benutzern und Benutzerinnen, bei den Serverbetreibenden und den Decoderherstellenden notwendig war und damit mit Sicherheit auch die Weiterentwicklung verlangsamt statt beschleunigt wurde.

Level 2 der Norm sollte ein verbessertes BTX sein: 4096 Farben, 32 verschiedene Blinkfrequenzen, frei definierbare Zeichensätze (dynamically redefinable charactersets, DRCS) u. Ä. erlaubten zwar die Erstellung sehr schöner Bilder, jedoch mit erheblichem Aufwand. Level 3 beinhaltete geometrische Grafik, war jedoch nicht verpflichtend in der Umsetzung und wurde eigentlich nur in Österreich aktiv verfolgt.

Es ist inzwischen so viel Zeit vergangen, dass man heute ungestraft erklären darf, warum Europa eine so eigene komplexe europäische Grafiknorm für BTX einführte: Man konnte damit die ersten am Horizont sichtbaren Heimcomputer aus Japan oder den USA aus Europa schlicht und einfach fern halten, denn ohne spezielle Hardware waren die eigentümlichen Anforderungen der Grafik erst mit sehr hochwertigen Heimcomputern und daher erst zehn Jahre später (mit dem ‚Amiga‘ von Commodore als erstem) möglich. Kurzum, die Norm war in Wahrheit ein Schutzschirm gegen Importe nach Europa. Im Schutze dieses Schirms hoffte man, eigene europäische Geräte erzeugen und anbieten zu können.

Zwei der wichtigsten europäischen Mitunterzeichnenden dieser Regelung kümmerten sich aber von Anfang an nicht um die neue Norm. Das Vereinigte Königreich machte mit dem anfänglichen BTX (‚Prestel‘) weiter wie gehabt, mäßig erfolgreich. Die Franzosen bauten mit einer gewissen Verzögerung einen S/W-Bildschirm mit alphabetischer Tastatur in das Telefon ein. Dieses Minitel war zwar meilenweit von der CEPT-II-Norm entfernt, aber ideal, um es als elektronisches Telefonbuch, Nachschlagewerk, Buchungsinstrument oder für Nachrichtendienste zu verwenden. Im Laufe der Zeit benutzten immerhin 30% der französischen Haushalte (6 Millionen) ein Minitel. Im Jahr 1996 war der mit Minitel erzielte Umsatz in Frankreich noch größer als jener mit dem Internet in den flächen- und einwohnermäßig wesentlich größeren USA. Die Verbreitung der Geräte in Frankreich wurde insofern unterstützt, als dass man anfangs Haushalten, die auf gedruckte Telefonbücher verzichteten, das Minitel gratis zur Verfügung stellte.

!

Minitel ist ein 1982 in Frankreich eingeführter Onlinedienst, der dem deutsch/österreichischen BTX sehr ähnlich war. Wesentlicher Unterschied ist, dass Minitel auf eigene Terminals setzte und keine Nutzung von Fernsehgeräten als Bildschirm benötigte.

Deutschland und einige Nachbarländer setzten auf den Level-2-Standard, wobei Österreich von Anfang an, also schon zu den Beginnzeiten des BTX, eine neue Idee verfolgte, die auf meinen damaligen Mitarbeiter und heutigen CIO der Regierung, Prof. Posch, und den Verfasser zurückging. Wenn Fernsehgeräte mit Elektronik nachgerüstet werden, wieso verwendet man nicht gleich programmierbare Computer, die natürlich nicht nur Level 3 unterstützen konnten, sondern die man auch ohne Telefonverbindung als Kleincomputer einsetzen konnte? Da insbesondere externe Speicher (wie Kassettenlaufwerke) langsam und unzuverlässig waren, beschlossen wir, alle Daten und Programme mit Ausnahme eines Kernbetriebssystems in den BTX-Zentralrechnern abzuspeichern. Im unveränderbaren ROM (Read Only Memory) des Gerätes, des MUPID (Mehrzweck Universell Programmierbarer Intelligenter Decoder - der wie Insider wissen: ‚Maurer Und Posch Intelligenter Decoder‘), befand sich Software zur Anzeige von Daten, für Interaktionen mit den BTX-Zentralen, für das Editieren und für das Programmieren (in einer Grafikversion der Programmiersprache BASIC).

!

BASIC steht für Beginner's All-purpose Symbolic Instruction Code und ist eine imperative Programmiersprache. Neben der einfachen Erlernbarkeit zeichnete diese Sprache in den Anfängen die Verwendung von Zeilennummern und Sprungbefehlen (GOTO) aus. Der Höhepunkt der Sprache kann mit Ende der 1970er, Anfang der 1980er Jahre datiert werden, als viele Heimcomputer mit einem BASIC-Interpreter ausgeliefert wurden.

Alle Daten und selbst programmierte oder komplexe zusätzliche Programme konnte man in den BTX-Zentralen ablegen und jederzeit abrufen - ähnlich, wie man es heute mit Smartphone-Apps macht oder über Cloud-Computing redet, nur nannte man es damals Teleprogramme und Zentralrechner. Die Programmierbarkeit des MUPIDS (der 1985 an den CEPT-Standard angepasst wurde) erweiterte die Möglichkeiten ungemein. Sehr erfolgreiche Berechnungen, Mehrpersonenspiele, Informationsverwaltungsprogramme, die ersten ‚Social Networks‘ entstanden und vieles mehr. Abbildung 4 zeigt den Stichtag 15. April 1982, als wir den ersten MUPID der damals tatsächlich staunenden Welt (auch Fachwelt) vorführten.

Der Siegeszug des MUPID im wichtigsten Absatzmarkt Deutschland wurde durch Interventionen der deutschen Post zu Gunsten deutscher Firmen gebremst, sodass die Gesamtproduktion 50.000 Geräte nicht überschritt, mit 40% Absatz in Österreich.

Natürlich wurde mit der Kombination MUPID/ BTX auch erstmals (landesweit) vernetztes Lernen und Lehren möglich, so dass im Laufe der Zeit über 300 einstündige Unterrichtseinheiten mit Bildern, Animationen, Frage/Antwortspielen usw. entwickelt wurden. Bei der IFIP Weltkonferenz 1986 wurde dies im Aufsatz über „Nationwide teaching through a network of microcomputers“ (Maurer, 1986) dargestellt. Das Projekt selbst nannte sich COSTOC (Computer Supported Teaching of Computer Science) und wurde an Dutzenden Universitäten weltweit eingesetzt. Eine partielle Liste findet sich auch in den Links zum Kapitel auf diigo.com.
Es gab Kurse in Deutsch und Englisch, einige von hochrangigen Wissenschaftlern wie Arto Salomaa, Thomas Ottmann oder Ian Witten verfasst.

Abb. 4: MUPID, vorgestellt am 15.4.1982 in Wien
Abb. 4: MUPID, vorgestellt am 15.4.1982 in Wien

!

Bildmaterial und andere Informationen zu MUPID, COSTOC, BTX, Autool (dem Editierwerkzeug für COSTOC), Hyper-G, Hyperwave, Harmony, Amadeus, HM-Card, GENTLE usw. finden sich unter http://much.iicm.edu/projects.

Mit MUPID waren auch schon Pixelbilder leicht generierbar und anzeigbar. Die fehlenden guten Bildkomprimierungsmethoden und langsamen Leitungen führten jedoch dazu, dass der Einsatz anfangs recht beschränkt war. Abbildung 5 zeigt, dass man BTX sogar verwendete, um den Prozess der Digitalisierung zu erklären.

Abb. 5: Mit MUPID und Videokamera war eine direkte Bildabspeicherung möglich.
Abb. 5: Mit MUPID und Videokamera war eine direkte Bildabspeicherung möglich.

Abbildung 6 zeigt die Anwendung MUPID-Teleschach. Damit konnte man synchron und asynchron mit mehreren Personen Schach spielen. Selbst eine Chat-Komponente war implementiert. Selbst wenn kein Spieler am System war, konnte man (ohne das vielleicht zu wissen) gegen ein Schachprogramm spielen, das sogar mit Eliza-ähnlichen Methoden am Chat teilnahm.

Abb. 6: Teleschach. Der Eintrag ‚2 KOMM.‘ für Kommunikation aktivierte einen Chat.
Abb. 6: Teleschach. Der Eintrag ‚2 KOMM.‘ für Kommunikation aktivierte einen Chat.

Nach all diesen erfreulichen Entwicklungen drängt sich nun die Frage auf, warum BTX in Kombination mit Geräten (Heimcomputern) nicht ein wirklicher Erfolg wurde, sondern dies anderen Systemen vorbehalten blieb, so dass nach 2001 allmählich alle BTX-Systeme eingestellt wurden, in Frankreich 2006 am spätesten. Die Antwort ist nicht für jedes Land gleich. Der relativ große Erfolg in Frankreich beispielsweise führte dazu, dass das WWW dort erst sehr spät eingeführt wurde, was für Frankreich einige Jahre lang sogar nachteilig war.

Im Folgenden eine Schilderung der Situation in Österreich, die in Variationen auch für andere Länder zutrifft. Die BTX-Zentralen waren teure und zunehmend schlecht wartbare bzw. modifizierbare Geräte. Die Strukturierung der Daten in einer einfachen Datenbank über Links war nicht gut genug. Die Protokolle waren zu wenig ausgefeilt, die Benutzbarkeit der Zentralen und der damit verbundenen ‚externen‘ Rechner war schwierig. Aber am schlimmsten waren die Kosten für die Benutzerinnen und Benutzer. Die Geräte konnten zwar recht preiswert von der damaligen Post gemietet und damit auch gratis gewartet werden, aber Telefonortsgespräche in Österreich kosteten pro Stunde ATS 40.-, was vermutlich heute etwa 20 Euro entsprechen würde. Wenn also ein Österreicher bzw. eine Österreicherin täglich 20 Minuten BTX benutzte, dann kosteten die reinen Telefongebühren für das BTX pro Monat zusätzlich 200 Euro. Dies zu einer Zeit, wo man in den USA pro Monat nur einen Pauschalbetrag von etwa 10 Euro für beliebig lange Telefongespräche zahlte.

Es wurde den technisch mit BTX-Beschäftigten, die zunehmend günstigen Zugriff auf das entstehende weltweite Internet hatten, augenscheinlich, dass man auf neue Großrechner (in vielen Fällen unter dem Betriebssystem UNIX), auf bessere Protokolle und auf vernünftige und ohnehin immer mehr verfügbare Personalcomputer zurückgreifen würde müssen.

Von den größeren Bestrebungen seien vor allem drei, die sich fast zeitgleich entwickelten, erwähnt:

Alle drei Systeme bauten auf dem Internet mit etwas verschiedenen Protokollen auf. Gopher war, im Hinblick auf Endgeräte und Serverkonfigurationen, sehr liberal und unterstützte auch die meisten gängigen Terminals bzw. PCs. Es erlaubte Links, Textsuche und eine hierarchische Gliederung der Daten, war also ein gut durchdachtes System, das 1990 vorgestellt wurde.

Im selben Jahr erschien der erste Zeitschriftenartikel über Hyper-G (Maurer & Tomek, 1990). Hyper-G bot statt der starren hierarchischen Gliederung eine flexiblere DAG-Gliederung (Directed Acyclic Graph) an, darüber hinaus auch Links, eine Suche und vor allem ‚Daten über Daten‘ (die man heute als ‚Metadaten‘ bezeichnen würde und nach denen man auch suchen, aber auch Rechte für Nutzerinnen und Nutzer vergeben kann). Damit kann ein und dasselbe Angebot für verschiedene Benutzerinnen und Benutzer ganz verschieden aussehen. Weitere Datenstrukturen wie Cluster und Sequenzen erleichterten die Datenablagerung und Auffindung. Sämtlich Links waren bidirektional und nicht Teil des Dokuments, d.h., wenn ein Dokument seinen Ort (seine URL) ändert, kann es alle darauf hinweisenden Links auf anderen Servern automatisch korrigieren. Dadurch war in einem Netzwerk von Hyperwave-Servern die Meldung „es gibt diese Seite nicht mehr“ bei einem Klick auf einen Link nicht möglich.

Es ist ein eigentümlicher Zufall, dass im selben Jahr am CERN der Vorschlag gemacht wird, ein System für wissenschaftliche Artikel anzulegen, welche für die ganze Welt über das Internet abrufbar sind. Es ist dabei zu beachten, dass Interaktivität jenseits von Abrufen und E-Mails nicht als wesentlich oder vorrangig betrachtet wurde, denn neben Suchfunktionen würden Links und Menüs für den Zugriff voll ausreichen. Ein Auszug der Originalmail ist in Abbildung 7 zu sehen:

Abb. 7: Der Vorschlag, eine erste Version eines vernetzten Hypertextsystems zu implementieren.
Abb. 7: Der Vorschlag, eine erste Version eines vernetzten Hypertextsystems zu implementieren.

Mir erscheint dieses E-Mail darum so wesentlich, weil es belegt, dass nicht Tim Berners-Lee das WWW allein vorantrieb, sondern ein Team, dessen zweitwichtigster Mann Robert Cailliau war, und den Berners-Lee, sobald es bequem erschien, immer ‚vergaß‘ zu erwähnen. Dies und nachfolgende Aktionen von Berners-Lee werden von Insidern als nicht besonders vornehm angesehen und haben Cailliau veranlasst, seine Version in dem Buch „How the Web was Born“ (Gilles & Cailliau, 2000) festzuhalten. Nur wird auch dieses Buch immer wieder verschwiegen. Die Welt hat eben abgestimmt, dass Bernes-Lee der große Erfinder des WWWs ist, und obwohl das nur sehr bedingt die Wahrheit ist, wird es immer mehr zur Wahrheit, da anders lautenden Aussagen immer mehr vergessen werden.

!

Mehr zur Abbildung 7, nämlich der gesamte Vorschlag, kann auf https://www.diigo.com/ nachgelesen werden.

Abb. 8: Das Editiersystem Harmony in Hyperwave mit einer viel mächtigeren Markupsprache als HTML, die aus Kompatibilitätsgründen aufgegeben werden musste.
Abb. 8: Das Editiersystem Harmony in Hyperwave mit einer viel mächtigeren Markupsprache als HTML, die aus Kompatibilitätsgründen aufgegeben werden musste.

Die drei Systeme WWW, Gopher und Hyperwave laufen 1991 als erste Versionen. Von den Systemen ist das WWW zweifelsohne das einfachste, denn es ist einfach zu installieren und kostenlos. Gopher ist doch deutlich komplexer und dass die Administration der Universität bei den meist ohnehin kostenlosen Lizenzen eingreift, ist bremsend. Hyperwave ist am weitaus mächtigsten, aber auch am kompliziertesten, und obwohl Bildungsinstitutionen das System gratis erhalten, zahlen große Konzerne (für die es als Wissensmanagementsystem fast noch immer eine Geheimwaffe ist) schon größere Beträge an die Firma Hyperwave.com. Abbildung 8 zeigt das mächtige Mehr-Fenster-Editierwerkzeuge ‚Harmony‘ von Hyper-G im Einsatz.

Die Geschichte des WWW

Der Durchbruch des WWW und wie die USA die Führung übernehmen

1992/1993 hatte Gopher weltweit über 50.000 Installationen, das WWW einige hundert, Hyperwave einige wenige, allerdings diese bei großen Konzernen wie Boeing, Motorola, Siemens u.a.

Im Jahre 1993 entwickelte das NCSA (National Center for Supercomputing Applications) den ersten echten grafischen Webbrowser für das WWW mit dem Namen Mosaic. Betaversionen für die verschiedensten Betriebssysteme erschienen ab September 1993 und verbreiteten sich lawinenartig. Die Chefentwickler Eric Bina und Marc Andreessen sind damit maßgeblich für den Erfolg des WWW verantwortlich. Der Name Mosaic wurde in den Jahren 1993/1994 kurzzeitig fast zum Synonym für Webbrowser.

Gopher und Hyperwave wurden rasch in kleinere, der Öffentlichkeit weniger bekannte Nischen zurückgedrängt. Die einfache und billige Handhabung der ersten WWW-Server in Zusammenspiel mit Mosaic überzeugten mehr als einige der wichtigen konzeptionellen Ideen der anderen Systeme: Gopher und vor allem Hyperwave waren für Einsteiger zu komplex, so wie BASIC für die Programmiereinsteigerin / den Programmiereinsteiger geeigneter war als zum Beispiel Pascal. Dass man aber in großen Konzernen mehr braucht als nur WWW-Server, ist heute so wahr wie immer, wie die Firma http://www.hyperwave.com/d/ gut belegt.

Die WWW-Hauptentwicklung lag 1993 noch bei CERN. Sowohl der EU wie den USA war aber inzwischen klar, dass hier ein Konsortium ‚W3C‘, das die weiteren Entwicklungen verfolgen sollte, notwendig sein würde. 1994 wurde am MIT in Massachusetts (USA) das W3C gegründet und Berners-Lee als Leiter in die USA geholt.
Böse Zungen behaupten, weil Berners-Lee alphabetisch vor Cailliau liegt, er daher zuerst das Angebot erhielt. In Wahrheit hatte Berners-Lee wohl nicht nur durch seine britische Staatsbürgerschaft gegenüber der belgischen von Cailliau einen Vorteil, sondern er hatte schon vor der oben zitierten E-Mail über den Wert von Hypertext für CERN spekuliert.

!

W3C ist das World Wide Web Consortium und kümmert sich um die Standardisierung von Techniken das WWW betreffend. Es wurde am 1. Oktober 1994 am MIT Laboratory for Computer Science gegründet und Tim Berners-Lee hat den Vorsitz inne.

Im selben Jahr kam es zu einem ‚Diskussionstreffen‘ in Brüssel, bei dem erarbeitet werden sollte, welche Aufgaben Europa und welche die USA im W3C übernehmen. Ich war als österreichischer Vertreter anwesend und muss berichten, dass es zu keiner Diskussion kam. Vielmehr legte die amerikanische Delegation ein fertiges Dokument auf den Tisch, in dem fast alle Rechte den USA übertragen wurden. Cailliau als Vertreter des CERN erklärte, dass dieses Dokument für CERN nicht akzeptabel sei. Da erklärte sich eine andere europäische Forschungsorganisation bereit, die Rolle von CERN zu übernehmen. Einem bleichen Cailliau und uns anderen Europäern war damit klar: Das WWW war nun mehr oder minder eine US-Angelegenheit.

?

Versuchen Sie in einer Zeitleiste die Entstehungsgeschichte von Bildtext und WWW nachzuzeichnen. Diskutieren Sie die maßgeblichen Ereignisse und Entwicklungsschritte.

Danksagung

Die Abbildung 1 und eine Abhandlung, warum solche Buchräder durchaus als Wegbereiter von Hypertext gesehen werden können, finden sich in der Habilitation von 1990 von Professor Keil von der Universität Paderborn, dem ich für seine Unterstützung danken möchte.

Seitenumbruch

Die Geschichte des WWW

Literatur

Hypertext

Geschichte, Systeme, Strukturmerkmale und Werkzeuge

Hypertext ist die Grundlage des World Wide Web. Die Geschichte des Hypertexts ist somit zugleich ein Beitrag zur Geschichte der Entstehung des World Wide Web. Der Artikel informiert über die Ursprünge der Idee von vernetzten Informationen und Daten von Vannevar Bush (Memex) und führt anhand der ersten historischen Vorstufen, erdacht von Douglas Engelbart und Ted Nelson, in die Grundlagen von Hypertext-Programmen ein. Erst anhand dieser berühmten Beispiele kann erkannt werden, wie das World Wide Web, wie wir es heute kennen, entstehen konnte. Abschließend werden noch die strukturellen Merkmale des Hypertexts diskutiert und die besonderen Merkmale wie die Nichtlinearität, die beliebigen Verbindungen usw. herausgearbeitet. Inwieweit sich Texte, die dermaßen aufgebaut sind, für Lernen und Lehren eignen, ist nach wie vor eine interessante Frage.

Hypertext

Vorkommen

Zum Glück müssen wir heute nicht mehr über Ideen, Visionen oder Pläne reden, wenn
wir erläutern wollen, was Hypertext ist. Wir sind eigentlich ständig damit beschäftigt,
einen Hypertext zu nutzen, wenn wir im World Wide Web im Internet etwas lesen,
suchen oder schreiben.

Die meisten Webseiten basieren auf Hypertext. Der bekannteste Hypertext ist vermutlich Wikipedia. Der Idee nach und historisch gesehen bestehen Hypertexte aus elektronischen Texten, die in sich markierte Textstellen (Sprungadressen) enthalten, mit deren Hilfe man von einem Begriff oder Absatz zu einem anderen Begriff oder Absatz in demselben Text oder in einer anderen Textdatei „springen“ kann. Die Verbindung zwischen den Textstellen oder Dateien, der „Sprung“, wird mit dem englischen Begriff „Link“ (Verknüpfung) bezeichnet. Die technische Realisierung war vor der Verfügbarkeit der Fenstersysteme und der Maus recht unterschiedlich.

Hypertext

Ein Beispiel

Im Wikipedia-Artikel zum Begriff Hypertext findet sich zu Beginn ein
Inhaltsverzeichnis, das sieben Einträge mit Links zu sieben Knoten anbietet, die durch
blaue Farbe als anklickbar herausgehoben werden:

Abb. 1: Screenshot des Wikipedia-Artikels „Hypertext“. Quelle: (Stand 09/2010)
Abb. 1: Screenshot des Wikipedia-Artikels „Hypertext“. Quelle: (Stand 09/2010)

Klickt man mit der Maus auf die Zeile „3 Geschichte und Entwicklung“, so landet man bei folgendem Text im selben Wikipedia-Artikel:

Abb. 2: Screenshot des Wikipedia-Artikels „Hypertext“. Quelle: (Stand 09/2010) [http://de.wikipedia.org/wiki/Hypertext](http://de.wikipedia.org/wiki/Hypertext)
Abb. 2: Screenshot des Wikipedia-Artikels „Hypertext“. Quelle: (Stand 09/2010) [http://de.wikipedia.org/wiki/Hypertext](http://de.wikipedia.org/wiki/Hypertext)

!

Heute werden Hypertexte mit Hilfe der Auszeichnungssprache HTML (HyperText Markup Language) aufbereitet. Mit HTML können Texte aber nicht nur stilistisch aufbereitet werden (Zeichensätze, Stile, Größen), sondern sie können auch Sprungmarken („Anker“) und Sprungadressen aufnehmen, die man als Links oder Hyperlinks bezeichnet, und die zu anderen Texten (als Knoten bezeichnet) führen.

Solche Sprungadressen können zu anderen Stellen im selben Text, zu anderen Seiten derselben Webseite, zu Dateien oder gar zu anderen Webseiten führen. Links sind nicht auf Begriffe und Textstellen beschränkt, sondern können heute auch von Bildern und Filmen ausgehen oder zu Bildern und Filmen führen. Zuständig für die Weiterentwicklung von HTML ist heute das World Wide Web Consortium (W3C).

Abb. 3: HTML-Code des Kastens „Inhaltsverzeichnis“ aus Abbildung 1. Quelle: (Stand 09/2010) [http://de.wikipedia.org/wiki/Hypertext](http://de.wikipedia.org/wiki/Hypertext)
Abb. 3: HTML-Code des Kastens „Inhaltsverzeichnis“ aus Abbildung 1. Quelle: (Stand 09/2010) [http://de.wikipedia.org/wiki/Hypertext](http://de.wikipedia.org/wiki/Hypertext)
Hypertext

Geschichte

Memex

Die Hypertext-Idee geht auf Vannevar Bush zurück. Vannevar Bush, Berater von Präsident Roosevelt, beschrieb 1945 als Memex eine Maschine zum Blättern und Anfertigen von Notizen in riesigen Textmengen, die per Microfiche Annotationen und Kommentare speichern sollte (das Konzept geht bis in die 1930er Jahre zurück; Nielsen, 1995, 33).

!

Hinweis: Alle im Kapitel erwähnte Links und weitere sind bei Diigo in der L3T Gruppe mit dem Hashtag #l3t und #hypertext abgelegt.

!

Zum Vertiefen: Der berühmt gewordene Aufsatz „As We May Think“ aus dem Magazin „The Atlantic Monthly“ vom Juli 1945 (176(1), 101-108) wird vom Magazin im Netz angeboten (http://www.theatlantic.com/doc/194507/bush).

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Mit Memex hatte Bush eine Analogie zwischen dem „assoziativen“ Arbeiten des menschlichen Gehirns und dem assoziativen Vernetzen von Texten im Auge. Heute finden sich viele Dokumente zu Bush im Internet mit den Originalzeichnungen des Memex und Fotos des von Bush 1931 entwickelten „Differential Analyzer“, einer analog arbeitenden Maschine für die Lösung von Differentialgleichungen.

Abb. 4: Der Memex-Tisch von Vannevar Bush.Quelle: [http://iasl.uni-muenchen.de/links/GCA-VI.2.html#Think](http://iasl.uni-muenchen.de/links/GCA-VI.2.html#Think)
Abb. 4: Der Memex-Tisch von Vannevar Bush.Quelle: [http://iasl.uni-muenchen.de/links/GCA-VI.2.html#Think](http://iasl.uni-muenchen.de/links/GCA-VI.2.html#Think)

NLS Augment

Die Vision von Bush fand Nachfolger/innen (Bush, 1986; Conklin, 1987, 20; Kuhlen, 1991, 66ff.; Nielsen 1990, 31ff.; Nielsen, 1995, 33ff.). 1962 veröffentlichte Douglas Engelbart am Stanford Research Institute den Bericht über das SRI Project No. 3578 „Augmenting Human Intellect: A Conceptual Framework“, mit dem er das Ziel verfolgte, die Reichweite des menschlichen Denkens zu erweitern. 1968 implementierte er am „Augmented Human Intellect Research Center“ das System NLS Augment (oN Line System) und erfand die Computer-Maus als Eingabegerät (Engelbart, 1988; Conklin, 1987, 22; Kuhlen, 1991, 67ff.; Gloor, 1990, 176ff.; Nielsen, 1990, 34ff.; Nielsen, 1995, 36ff.).

!

Zum Vertiefen:

Augment kam bei der Luftfahrt-Firma McDonnel Douglas zu größerer Anwendung (Ziegfeld & Hawkins et al., 1988). Es erwies sich dort als zunehmend wichtig, umfangreiche technische Dokumentationen mit ihren internen Relationen und Verweisen elektronisch speichern zu können, zum Beispiel umfasste ein Handbuch für Düsenflugzeuge 1988 circa 300.000 Blatt, wog 3.150 Pfund und nahm einen Raum von 68 Kubikfuß ein. Ventura (1988) berichtet, dass das amerikanische Verteidigungsministerium allein fünf Millionen Blatt pro Jahr auswechseln musste (Ebenda, 111). Der Zugang zu Informationen, zum Beispiel zu Sammlungen von Photoagenturen, zu Dokumentationen von Zeitungsverlagen, zu Gesetzesblättern, wurde derart schwierig, dass vermehrt Datenbanken eingeführt wurden, um die Informationen effektiver verwalten und leichter auffinden zu können.

Xanadu

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Fast gleichzeitig mit Engelbart entwickelte Ted Nelson (1967) das Hypertext-System Xanadu (die Xanadu Operating Company ist eine Filiale der Autodesk, Inc.). Ihm wird die Erfindung des Begriffs „Hypertext“ zugeschrieben (Nielsen, 1995, 37ff.), er selbst nimmt dies für sich auf seiner Homepage auch in Anspruch (vgl. http://ted.hyperland.com/). Das im Internet eingerichtete Archiv enthält ein Dokument, in dem der Begriff Hypertext vermutlich zum ersten Mal auftrat, 1965 in einer Ankündigung am Vassar College (vgl. http://xanadu.com/). Das Projekt Xanadu, das zum Ziel hatte, sämtliche Literatur der Welt zu vernetzen, wurde nie ganz realisiert. Nelson schwebte bereits eine Client-Server-Konzeption mit nicht-lokalen Verknüpfungen wie heute im World Wide Web vor (Nelson, 1974; Ambron & Hooper, 1988; Conklin, 1987, 23; Kuhlen, 1991, 68ff.; Nielsen, 1990, 35ff.).

!

Zum Vertiefen: Es existiert neben der Homepage des Projekts (http://xanadu.com/) noch eine australische Variante (http://xanadu.com.au/).

Die Distribution von Xanadu wurde für 1990 von der „Xanadu Operating Company“ angekündigt (Kuhlen, 1991, 71; Woodhead, 1991, 190ff.). Berk (1991) beschreibt das Client-Server-Modell von Xanadu näher.

KMS

Knowledge Systems’ KMS (1983) für SUN- und Apollo-Rechner (Akscyn & McCracken et al., 1988) ist eine Weiterentwicklung des frühen Hypertext-System ZOG (1972 und 1975; Robertson & McCracken et al., 1981) einer Entwicklung der Carnegie-Mellon University (Woodhead, 1991, 188ff.). Über ZOG ist vermutlich die erste Dissertation zum Thema Hypertext geschrieben worden (Mantei, 1982; Nielsen, 1995, 44ff.). Von 1980 bis 1984 wurde mit ZOG ein computerunterstütztes Managementsystem für den mit Atomkraft angetriebenen Flugzeugträger USS Carl Vinson entwickelt (Akscyn & McCracken et al., 1988, 821). KMS wurde 1981 begonnen, weil eine kommerzielle Version nachgefragt wurde. KMS ist bereits ein verteiltes Multi-User-Hypertext-System (Yoder & Akscyn et al., 1989). Es basiert auf Rahmen, die Text, Grafik und Bilder in beliebiger Kombination enthalten können und deren Größe auf maximal 1132 x 805 Pixel festgelegt ist. In KMS sind die Modi der Autor/innen und der Leser/innen noch ungetrennt. Leser/innen können jederzeit Text editieren, neue Rahmen und Verknüpfungen anlegen, die durch kleine grafische Symbole vor dem Text signalisiert werden. KMS benutzt eine Maus mit drei Knöpfen, die neun verschiedene Funktionen generieren können.

HyperTIES

Mit der Entwicklung von Ben Shneidermans HyperTIES wurde bereits 1983 an der University of Maryland begonnen. HyperTIES wurde ab 1987 von Cognetics Corporation weiterentwickelt und vertrieben (Shneiderman et al., 1991). HyperTIES erscheint unter DOS als Textsystem mit alphanumerischem Interface im typischen DOS-Zeichensatz. Die Artikel fungieren als Knoten und die Hervorhebungen im Text als Verknüpfungen. Hervorhebungen erscheinen in Fettdruck auf dem Bildschirm. Die puritanische Philosophie der Entwickler/innen drückt sich in der sparsamen Verwendung von Verknüpfungen aus, die auf Überschriften beschränkt wurden: „We strongly believe that the use of the article titles as navigation landmarks is an important factor to limit the disorientation of the user in the database. It is only with caution that we introduced what we call 'opaque links' or 'blind links' (a link where the highlighted word is not the title of the referred article), to satisfy what should remain as special cases“ (Plaisant, 1991, 20). HyperTIES kennt nur unidirektionale Verknüpfungen, „because bidirectional links can be very confusing“ (Ebd., 21).

Abb. 5: Ausschnitt aus HyperTIES
Abb. 5: Ausschnitt aus HyperTIES

Der untere Bildschirmrand bietet einige Befehle für die Navigation (Vor, Zurück, zum Beginn, Index, Beenden). Repräsentativ für das System ist das sowohl als Buch als auch als elektronischer Text auf Diskette veröffentlichte „Hypertext Hands-On!“, das 180 Aufsätze als auch das als zum Thema umfasst (Shneiderman & Kearsley, 1989) und den Leserinnen und Lesern einen direkten Vergleich von Buch und Hypertext ermöglicht (Nielsen, 1995, 45ff.). Unter grafischen Fenstersystemen entfaltet HyperTIES mehr grafische Fähigkeiten, so zum Beispiel im dort zitierten Beispiel der Encyclopedia of Jewish Heritage (157), das 3.000 Artikel und 10.000 Bilder auf einer Bildplatte umfassen soll, sowie in der auf einer SUN erstellten Anwendung zum Hubble Space Telescope (siehe Shneiderman, 1989, 120). Jedoch sind die Bilder nur als Hintergrund unterlegt und nicht mit integrierten Verknüpfungen in die Hypertext-Umgebung eingelassen (Plaisant, 1991). In der SUN-Version hat man sich mit „tiled windows“ begnügt, weil man überlappende Fenster für Neulinge als zu schwierig betrachtete. HyperTIES folgt nach Aussage von Shneiderman der Metapher des Buchs oder der Enzyklopädie (156), von der sich der Name TIES („The Electronic Encyclopedia System“) herleitet (Morariu & Shneiderman, 1986). Einen Überblick über HyperTIES gibt Plaisant (1991).

!

Zum Vertiefen: Das Human Computer Lab der University of Maryland, der Ursprung von HyperTIES, bietet historische Informationen zu seinem Produkt an (http://www.cs.umd.edu/hcil/hyperties/).

Obwohl das Autorinnen- und Autorentool bereits einige Aspekte der automatischen Konstruktion von Hypertext erleichterte, musste Shneiderman die Buchseiten noch manuell setzen. Auch die Links im Text wurden einzeln gesetzt und mussten nach Editiervorgängen, die den Text verkürzten oder verlängerten, manuell versetzt werden. In modernen Hypertext-Systemen haften die Links am Text und müssen beim Editieren nicht mehr manuell gesetzt werden.

NoteCards

Xerox PARC’s NoteCards (1985) ist ein unter InterLisp geschriebenes Mehrfenster-Hypertext-System, das auf den mit hochauflösenden Bildschirmen ausgestatteten D-Maschinen von Xerox entwickelt wurde. Die kommerzielle Version von NoteCards wurde unter anderem auf Sun-Rechnern implementiert. Sie ist bereits weiter verbreitet als die vorgenannten Systeme, Xerox hat NoteCards jedoch nie vermarktet. NoteCards folgt, wie der Name sagt, der Kartenmetapher. Jeder einzelne Knoten ist eine Datenkarte, im Gegensatz zur ersten Version von HyperCard jedoch mit variablen Fenstern. Links beziehen sich auf Karten, sind aber an beliebigen Stellen eingebettet, zusätzlich gibt es Browser, die wie Standardkarten funktionieren, und Dateiboxen, spezielle Karten, auf denen mehrere Karten zusammengefasst werden können, die wie Menüs oder Listen oder Maps funktionieren (Halasz, 1988) Die Browser-Karte stellt das Netz als grafischen Überblick dar (Conklin, 1987, 27ff.; Gloor, 1990, 22ff.; Catlin & Smith, 1988; Woodhead, 1991, 189ff.; Nielsen, 1995, 47ff.). Halasz (1988) hatte noch sieben Wünsche an NoteCards: Suchen und Anfragen, zusammengesetzte Strukturen, virtuelle Strukturen für sich ändernde Informationen, Kalkulationen über Hypermedia-Netze, Versionskontrolle, Unterstützung kollaborativer Arbeit, Erweiterbarkeit und Anpassbarkeit.

Intermedia

Intermedia (1985) von Andries van Dam und dem Institute for Research in Intermedia Information and Scholarship (IRIS) der Brown University ist bereits ein System, das im Alltag einer Universität und in mehreren Fächern (Biologie, Englische Literatur) für die kooperative Entwicklung von Unterrichtsmaterialien und zum Lernen am Bildschirm eingesetzt wird. Yankelovich et al. (1985) schildern die Entwicklung, die elektronische Dokumentensysteme an der Brown University genommen haben. Nach dem rein textorientierten System FRESS (1968; vgl. Nielsen, 1995, 40) und dem Electronic Document System, das bereits Bilder und grafische Repräsentationen der Knoten-Struktur darstellen sowie Animationssequenzen spielen konnte, und BALSA (Brown Algorithm Simulator and Animator) wurde erst mit Intermedia ein echter Durchbruch erzielt. Yankelovich et al. (1988) beschreiben das System anschaulich anhand von 12 Bildschirmabbildungen einer Sitzung. Intermedia besteht aus fünf integrierten Editoren: InterText (ähnlich MacWrite), InterPix (zum Zeigen von Bitmaps), InterDraw (ähnlich MacDraw), InterSpect (Darstellen und Rotieren dreidimensionaler Objekte) und InterVal (Editor für chronologische Zeitleisten). Zusätzlich können direkt aus Intermedia heraus „Houghton-Mifflin’s American Heritage Dictionary“ oder „Roget’s Thesaurus“ aufgerufen werden. Intermedia operiert mit variablen Fenstern als Basiseinheit. Alle Links sind bidirektionale Verknüpfungen von zwei Ankern. Intermedia arbeitet mit globalen und lokalen Maps als Ausgangspunkt für Browser, das WebView-Fenster stellt die Dokumente und die Links durch mit Linien verbundene Mini-Icons dar (Conklin, 1987, 28ff.; Kuhlen 1991, 198ff.; Gloor, 1990, 20ff., 59ff.; Nielsen, 1995, 51ff.).

Abb. 6: Die Anwendung „Perseus“ realisiert unter Intermedia
Abb. 6: Die Anwendung „Perseus“ realisiert unter Intermedia

Intermedia Version 3.0 wurde anfangs kommerziell vertrieben. Aber diese Version lief nur unter A/UX auf dem Macintosh (Woodhead, 1991, 181ff.). Da dieses System nicht sehr häufig eingesetzt wurde, fand Intermedia leider keine große Verbreitung (Nielsen, 1995, 51). Erfolgreiche kommerzielle Systeme sind aus diesen historischen Prototypen also nicht geworden.

!

Zum Vertiefen: Die Geschichte von Intermedia zeichnet die „Electronic Library“ (http://elab.eserver.org/hfl0032.html) nach.

Hypertext

Erfolgreich verbreitete Systeme

Guide

Erst Guide (1986) von OWL (Office Workstations Limited) ist das erste kommerziell erfolgreiche Hypertextsystem. Peter Brown hatte es bereits 1982 in England an der University of Kent begonnen. Nielsen meinte (1990, 42; 1995, 54ff.), dass Guide den Übergang von einem exotischen Forschungsprojekt zu einer „Realen-Welt“- Anwendung markiere. Guide wurde von OWL zunächst für den Macintosh, später auch für PCs entwickelt. Es orientiert sich am strengsten von allen Systemen am Dokument. Guide stellt Textseiten zur Verfügung, auf denen Textstellen als Verknüpfungen mit unterschiedlicher Bedeutung markiert werden können. Über den Textstellen nimmt der Cursor unterschiedliche Gestalt an und teilt den Benutzer/innen so die Existenz von Verknüpfungen mit. Guide kennt drei Arten von Verknüpfungen: Springen zu einer anderen Stelle im selben oder in einem anderen Dokument, Öffnen eines Notizfensters oder -dialogs über dem aktuellen Text sowie Ersetzen von Text durch kürzeren oder längeren Text (Auffalten, Einfalten). In Version 2 wurde eine Skriptsprache für den Zugriff auf Bildplattenspieler eingebaut.

HyperCard

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

1987 erschien Bill Atkinsons HyperCard. Schon vorher gab es gespannte Erwartungen. Conklin (1987) gab in seinem historischen Überblick über Hypertext-Systeme sogar das Gerücht weiter: „As this article goes to press, there is news that Apple will soon have its own hypertext system, called HyperCards“ (S. 32). Man darf wohl mit Recht behaupten, dass keine andere Software, schon gar keine andere Programmierumgebung, einen derart bedeutsamen Einfluss auf den Einsatz von Computern gehabt hat wie HyperCard. In der Literatur speziell zu Hypertext wird die historische Bedeutung von HyperCard immer wieder betont, obwohl Landow (1992a) sicher Recht hat, wenn er HyperCard und Guide nur als „first approximations of hypertext“ bezeichnet, da die eigentlichen Merkmale von Hypertext wie die Links in Form von durchsichtigen Schaltflächen (Bedienknöpfen) über den Text gelegt werden mussten. 1989 realisierte David Jonassen in HyperCard eine Hypertext-Umgebung über das Thema Hypertext.

Abb. 7: Hypertext realisiert unter HyperCard. Quelle: Beispiel aus Jonassen, 1989.
Abb. 7: Hypertext realisiert unter HyperCard. Quelle: Beispiel aus Jonassen, 1989.
Hypertext

Das World Wide Web und die Browser

Viele Informationen und vor allem aktuelle Informationen bezieht man heute aus dem Internet selbst, und dies mit Hilfe einer Software, die Hypertexte bzw. Texte, die mit HTML codiert wurden, lesen kann. Diese Software wird als Webbrowser oder kurz Browser bezeichnet. Bekannte Browser sind: Mosaic oder Netscape Navigator, Internet Explorer, Mozilla und Firefox, Safari, Opera und jüngst Google Chrome.

!

Browser sind Softwareprogramme, die heute in der Lage sind, den HTML-Code und weitere in den Text inkorporierte Designelemente (css, cascading stylesheets), Programme (QuickTime, Flash) und Skriptsprachen (zum Beispiel php) zu entziffern und in lesbare und grafisch gestaltete Seiten zu übersetzen.

Etwa 1993 begann der Ursprung des World Wide Web (WWW) und an dieser Stelle sei auf das Kapitel „Die Geschichte des WWW aus europäischer Sicht“ verwiesen (siehe #www), welches speziell diese Entwicklung herausarbeitet. Jedenfalls wurden seither mehrere Browser entwickelt, und seitdem haben es alle anderen Applikationen leicht, weil sie sich dieser Grundlagen des Internets und des WWW bedienen können und den Browser als Zugang zu ihren Leistungen nutzen können. Auf derartigem Fundament bauen die Wikis auf, aber auch die Weblogs und sogar die Lernplattformen.

Hypertext

Strukturmerkmale von Hypertext

Zum Hypertext-Konzept gibt es ausreichend Literatur (Kuhlen, 1991; Nielsen, 1995; Schulmeister, 1996), und zu allen damit im Zusammenhang stehenden Begriffen finden sich in Wikipedia Stichworte, die einen Artikel wie diesen eigentlich überflüssig machen könnten. Die Funktion dieses Textes besteht daher mehr oder minder in der Zusammenstellung der historischen Fakten und der Diskussion der Strukturmerkmale. Schoop und Glowalla (1992) unterscheiden strukturelle (nodes, links), operationale (browsing), mediale (Hypermedia) und visuelle Aspekte (Ikonizität, Effekte). Nicht-linearer Hypertext wird auch als nicht-linearer Text (Kuhlen, 1991) oder nicht-sequentieller Text (Nielsen, 1995, 1) bezeichnet. Das Lesen eines Hypertexts ähnelt dem Wechsel zwischen Buchtext, Fußnoten und Glossar: „Therefore hypertext is sometimes called the 'generalized footnote'“(Ebenda, 2).

!

Hypertext-Systeme bestehen aus Texten, deren einzelne Elemente (Begriffe, Aussagen, Sätze) mit anderen Texten verknüpft sind.

Die Bezeichnung Hypertext spiegelt die historische Entstehung wider: Es wurde zunächst tatsächlich an reine Textsysteme gedacht. Heute können Texte aber auch mit Daten in einer Datenbank, mit Bildern, Filmen, Ton und Musik verbunden werden. Deshalb sprechen viele Autorinnen und Autoren inzwischen von Hypermedia statt von Hypertext, um die Multimedia-Eigenschaften des Systems zu betonen. Möglicherweise ist der Standpunkt Nielsens (1995b) vernünftig, der alle diese Systeme wegen ihres Konstruktionsprinzips als Hypertext bezeichnet, weil es keinen Sinn mache, einen speziellen Begriff für Nur-Text-Systeme übrig zu behalten (S. 5). Hypertext ist zuerst Text, ein Textobjekt, und nichts anderes. Hypertext entsteht aus Text, indem dem Text eine Struktur aus Ankern und Verknüpfungen übergelegt wird. Nun kann man diskutieren, ob bereits das Verhältnis der Textmodule ein nicht-lineares ist oder ob Nicht-Linearität erst durch die Verknüpfungen konstituiert wird. Auf jeden Fall trifft die Einschätzung von Nielsen (1995) zu, dass Hypertext ein echtes Computer-Phänomen ist, weil er nur auf einem Computer realisiert werden kann, während die meisten anderen Computer-Anwendungen ebenso gut manuell erledigt werden können (S. 16). Landow (1992b) erwähnt literarische Werke, die auf Papier ähnliche Strukturen verwirklicht haben. Ein Hypertext-System besteht aus Blöcken von Textobjekten; diese Textblöcke stellen Knoten in einem Gewebe oder Netz dar; durch rechnergesteuerte, programmierte Verknüpfungen, den Links, wird die Navigation von Knoten zu Knoten gemanagt, das sogenannte „Browsing“. Landow weist auf analoge Vorstellungen der französischen Strukturalisten Roland Barthes, Michel Foucault und Jacques Derrida hin, die sich sogar in ihrer Terminologie ähnlicher Begriffe (Knoten, Verknüpfung, Netz) bedienten, wie sie in der heutigen Hypertext-Technologie benutzt werden (Ebenda, 1ff.). Für die Konstitution des Netzes ist die Größe der als Knoten gesetzten Textblöcke, die „Granularität“ oder „Korngröße“ der Informationseinheiten entscheidend. Am Beispiel einer KIOSK- Anwendung, die lediglich dem Abspielen von Film-Clips von einer Bildplatte dient, erläutert Nielsen, dass für ihn eine KIOSK-Anwendung kein Hypertext ist, weil Benutzer/innen mit dem Video nicht interagieren können, sobald es läuft. In dem Fall sei die Granularität zu groß und gebe den Benutzerinnen und Benutzern nicht das Gefühl, die Kontrolle über den Informationsraum zu besitzen (S. 14).

Für das Netz des Hypertexts hat Landow (1992b) die Begriffe Intertextualität und Intratextualität geprägt (S. 38). Der Begriff Intertextualität (s.a. Lemke, 1992) hat nun wiederum Sager (1995) zur Schöpfung des Begriffs der Semiosphäre angeregt: „Die Semiosphäre ist ein weltumspannendes Konglomerat bestehend aus Texten, Zeichensystemen und Symbolkomplexen, die, auch wenn sie weitgehend in sich abgeschlossen sind, in ihrer Gesamtheit doch umfassend systemhaft miteinander vernetzt und damit kohärent, nichtlinear und sowohl denk- wie handlungsorientierend sind“ (Ebenda, 217). Sager berichtet über multimediale Hypertexte auf kunstgeschichtlichem Gebiet, die über das Netz mit Videokameras in weit entfernten Museen verbunden sind. Die Hypertext-Benutzer/innen können von ihrem Platz aus die Kameras fernsteuern (geplant im Europäischen Museumsnetz). Sager erwähnt auch das Projekt „Piazza Virtuale“ auf der Documenta 9, in dem per Live-Schaltung Fernsehzuschauer/innen Annotationen in einen Hypertext einbringen können. Auf diese Weise entstehen weltumspannende Räume, die über die Anwendung hinausweisen und je nach Interesse der Benutzer/innen andere Inhalte inkorporieren können (S. 224).

Je nach Art der Knoten und Verknüpfungen kann der Zugriff auf Informationen in einem Hypertext frei oder beschränkt sein (Lowyck & Elen, 1992, 139). In einer offenen Umgebung treffen die Benutzer/innen alle Entscheidungen über den Zugang und die Navigation, in einer geschlossenen Umgebung werden diese Entscheidungen vorab von den Designer/innen getroffen. In jedem Fall können sich zwischen den Vorstellungen der Benutzer/innen und denen der Designer/innen Spannungen ergeben. Aus der Konzeption der Textblöcke, ihrer Intertextualität, können semiotische Muster resultieren (Lemke, 1992), die als Kunstformen genutzt werden könnten. Die Diskussion über semiotische oder narrative Strukturen von Hypertexten ist aber erst ganz am Anfang. Thiel (1995) unterscheidet eine monologische Organisationsform für Hypertexte von einer dialogischen Form (S. 45), die eine Art Konversationsmodus für den interaktiven Dialog der Benutzer/innen mit dem Hypertext etablieren könne, konzipiert durch Sprechakte oder Dialogskripte.

?

Suchen und lesen Sie eine Hypertext-Erzählung im Internet und diskutieren Sie, ob Hypertext für poetische Gattungen geeignet ist. Zum Beispiel hier:

Bei der Segmentierung von Texten in Textblöcke stellt sich die Frage, ob es eine „natürliche“ Einteilung der Textblöcke in Informationseinheiten gibt. Dabei ist die Idee aufgetaucht, ob es gelingen könnte, Form und Größe der Textblöcke als kognitive Einheiten, sogenannte „Chunks of Knowledge“, zu definieren (Kuhlen, 1991, 80ff.): „Zur intensionalen Definition informationeller Einheiten hilft das 'chunk'-Konzept auch nicht entscheidend weiter“ (S. 87). Kuhlen verweist auf Horn, der das Chunk-Konzept am konsequentesten umgesetzt habe und vier Prinzipien für die Unterteilung von Info-Blöcken unterscheide: „chunking principle, relevance principle, consistency principle“ und „labeling principle“. „Aus dieser knappen Diskussion kognitiver Einheiten und deren kohäsiven Geschlossenheit läßt sich die Einsicht ableiten, daß weder Umfang noch Inhalt einer informationellen Einheit zwingend festgelegt werden kann“ (S. 88). Eine zu große Einteilung der Texteinheiten kann das Hypertext-Prinzip Granularität konterkarieren, das heißt, der Benutzerin oder dem Benutzer wird dann gar nicht mehr deutlich, dass sie/er einen Hypertext vor sich hat. Lowyck und Elen (1992) schildern diese Form drastisch so: „When larger pieces of information are given the hypermedia environment is used as an integrated pageturner and audio- or videoplayer. When hypermedia would be used instructionally a highly branched version of programmed instruction is offered. This kind of instruction does not stem from a cognitive but from a behavioristic background“ (S. 142). Die Aufsplitterung in zu kleine Informationseinheiten kann ihrerseits zu einer Atomisierung der Information führen, was sich möglicherweise auf die kognitive Rezeption durch die Benutzer/innen auswirkt: Sie können keine Zusammenhänge mehr entdecken, sie können nicht „verstehen“.

Die verschiedenen Hypertext-Systeme fördern die eine oder die andere Seite dieses Problems, sofern sie auf dem Datenbank-Konzept oder dem Kartenprinzip beruhen (kleine Einheiten) oder die Organisation in Dokumenten präferieren (größere Einheiten). Nicht immer ist die Basiseinheit der Knoten, es kann auch Knoten kleinerer Größe innerhalb von Rahmen oder Fenstern geben, zum Beispiel ein Wort, ein Satz, ein Absatz, ein Bild. Diese Differenzierung verweist auf eines der Grundprobleme von Hypertext, das in der Hypertext-Terminologie als Problem der Granularität bezeichnet wird. Dass die Granularität nicht leicht zu entscheiden ist (nach dem Motto „je kleiner desto besser“), zeigt eine Untersuchung von Kreitzberg und Shneiderman (1988). Sie vergleichen in einem Lernexperiment zwei Hypertext- Versionen, von denen die eine viele kleine, die andere wenige große Knoten aufweist. Zwar kommen die Autoren in ihrer Untersuchung zu der Folgerung, dass die Version mit den kleineren Knoten bessere Resultate zeitigt (gemessen durch richtige Antworten auf Fragen zum Text in Multiple-Choice-Tests), doch Nielsen (1995) macht plausibel, dass dieses Ergebnis wahrscheinlich von einer speziellen Eigenschaft von HyperTIES abhängig ist, die nicht für andere Hypertext-Systeme gilt, denn HyperTIES ist eines der Hypertextsysteme, die zum Anfang eines Artikels verlinken und nicht zu der Stelle innerhalb des Artikels, an der sich die Information befindet, auf die der Ausgangsknoten verweisen soll. Aufgrund dieser Eigenschaft ist HyperTIES besonders leicht handhabbar, wenn der Text aus kleinen Knoten mit genau einem Thema besteht, so dass klar ist, worauf der Link verweist (S. 137ff.).

Einer Zersplitterung kann durch intensive Kontextualisierung der Chunks entgegengewirkt werden. Dieser Weg wird bei Kuhlen (1991) an Beispielen aus Intermedia diskutiert (S. 200). Die Kontextualisierung, die der Zersplitterung vorbeugen soll, muss nicht nur wie in den Intermedia-Beispielen aus reichen Kontexten innerhalb des Systems bestehen, sondern kann auch durch den gesamten pädagogischen Kontext sichergestellt werden wie in den konstruktivistischen Experimenten zum kooperativen Lernen in sozialen Situationen (Brown & Palincsar, 1989; Campione et al., 1992).

Canter et al. (1985) unterscheiden fünf Navigationsmethoden: Scannen, Browsen, Suchen, Explorieren, Wandern. McAleese (1993) unterscheidet die Navigationsmethoden analog zu dem aus der Lernforschung bekannten Konzept des entdeckenden Lernens oder problemorientierten Lernens. Kuhlen (1991) unterscheidet, eher in Anlehnung an die strukturellen Eigenschaften von Hypertexten, folgende Formen des Browsing (S. 128ff.):

Die Klassifikation von Navigationsmethoden in Hypertexten ist abhängig von dem jeweiligen Interpretationsraster der Autorinnen und Autoren. Das Augenmerk kann dabei auf der Hypertext-Struktur, den angestrebten Lernmethoden oder auf Prozessen der Arbeit liegen, die mit dem Hypertext-Werkzeug erledigt werden sollen. Zwei Fragen ergeben sich daraus:

Kuhlen (1991) unterscheidet die Navigationsmittel in konventionelle Metainformationen und hypertextspezifische Orientierungs- und Navigationsmittel:

Zu den die Navigation unterstützenden Methoden zählen neben den von Kuhlen recht vollständig aufgeführten Mitteln noch kognitive Karten (Bieber & Wan, 1994; Edwards & Hardman, 1993, 91) und spezielle Mittel zur Verwaltung fest verdrahteter oder benutzerinnen- und benutzereigener Pfade (siehe uch Gay & Mazur, 1991; Gloor, 1990). Bieber und Wan (1994) schlagen mehrere Formen des Backtracking vor, insbesondere differenzieren sie die Rückverfolgung danach, ob die Navigation durch einen Fensterwechsel oder durch Anklicken eines Textankers durchgeführt wurde (zur Funktion des Backtracking: Nielsen, 1995, 249ff.; Kuhlen, 1991, 156ff.).

?

Rand Spiro hat eine neue Homepage mit seinen Aufsätzen zur sogenannten Cognitive Flexibility Theory eingerichtet (http://postgutenberg.typepad.com/newgutenbergrevolution/). Suchen Sie sich dort einen Text aus (zum Beispiel Spiro & Jehng), der die „Theorie der kognitiven Flexibilität“ erklärt und diskutieren Sie, warum Spiro und seine Mitautoren die These aufstellen, Hypertext würde sich besonders für schlecht-strukturierte Wissensgebiete eignen. Begründen Sie, warum Spiro meint, das Lernen mit Hypertexten sollte fortgeschrittenen Lernenden vorbehalten bleiben und eigne sich nicht für Anfänger/innen. Oder widerlegen Sie diese Ansicht. Weiterhin diskutieren Sie, ob es sich bei der Cognitive Flexibility Theory um eine Theorie handelt.

Hypertext

Werkzeuge

Man sollte die Navigation in Hypertext-Umgebungen nicht nur unter dem Aspekt ihrer Orientierungs- und Interaktionsfunktion, sondern auch als aktive Form des Lernens und Arbeitens betrachten. Diese Perspektive auf die Strukturelemente von Hypertext ist aus der Sicht der Benutzer/innen oder Leser/innen möglicherweise die wichtigere: Für die Designer/innen stehen Nodes und Links im Vordergrund, für die Leser/innen aber benutzereigene Pfade, Notizen, Annotationen. Diese Objekte der Struktur bieten ihnen eine Chance für aktives Arbeiten und Produzieren mit Hypertext.

Als Mittel, die aktives Lernen und Arbeiten in Hypertext unterstützen, gelten Notizbücher, Instrumente zum Anlegen von eigenen Links und Pfaden und für die Konstruktion von eigenen kognitiven Karten, integrierte Spreadsheets und der direkte Zugriff auf Datenbanken (zu Annotationen für Intermedia siehe Catlin et al., 1989). Neuwirth et al. (1995) haben die Möglichkeit für Annotationen in ihren PREP- Editor eingebaut. Etwas Ähnliches wie Annotationen sind Pop-Up-Felder oder Pop- Up-Fenster mit nur-lesbaren Informationen, die nur solange geöffnet bleiben, wie die Maustaste gedrückt gehalten wird (Nielsen, 1995, 142ff.). Annotationen, die Benutzer/innen selbst hinzufügen können, also Fenster für Notizen, den aktiven Verarbeitungsprozess der Leser/innen unterstützen.

Eine Alternative zu Annotationen sind Randnotizen oder Marginalien, die dem eigentlichen Textkorpus nichts hinzufügen, wohl aber den Benutzerinnen und Benutzern zur Verfügung stehen. Das MUCH-Programm („Many Using and Creating Hypertext“) der Universität Liverpool (Rada et al., 1993) bietet den Lernenden sogar ein Instrument für die Anlage eigener Thesauri. Für die Verknüpfung der Einträge stehen den Studierenden Link-Typen wie „usedfor“, „narrower-than“ und „related“ zur Verfügung.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Die Strukturelemente eines Hypertexts nehmen visuelle Qualitäten an, um sich vom Kontext deutlich zu unterscheiden und die Aufmerksamkeit der Leser/innen erringen zu können, indem sie die Struktur, zum Beispiel Verbindungen und Knoten, den Leser/innen transparent machen. Dabei sind visuelle Elemente der Benutzer/innen-Oberfläche mit operationaler Funktion (Navigation) von funktionalen Bedienungsaspekten zu unterscheiden. Kahn et al. (1995) erheben am Beispiel einer Analyse von Intermedia und StorySpace derartige visuelle Signale zu den „drei fundamentalen Elementen der visuellen Rhetorik“ von Hypertexten: „These three fundamental elements are:

Es gibt bis heute keine Konventionen für die Darstellung von Knoten und Verknüpfungen im Text. Einige Programme drucken sensible Textstellen fett, so dass man „fett“ als Stil ansonsten im Text nicht mehr verwenden kann. Andere Programme wählen Unterstreichungen. Einige Programme umrahmen Texte beim Anklicken, wieder andere invertieren ausgewählten Text.

Es ist auffällig, dass Hypertext-Systeme sich mit Ikonen und Metaphern umgeben, die mehr oder minder konsistent kleine bildliche „Welten“ konstituieren. Für Hypertext-Umgebungen werden in der Regel dem jeweiligen Thema adäquate Metaphern gewählt: Das Buch, das Lexikon, die chronologische Zeitleiste, die Biographie, der Ort, das Abenteuer, die Maschine usw. Die Regeln der Benutzung durch Lernende, die Navigation, richten sich dann nach der jeweiligen Metapher: „Blättern“ im Buch, „Wandern“ durch eine Landschaft.

An Vorschlägen zur Weiterentwicklung von Hypertext zu Hybrid-Systemen mangelt es nicht. Sie zielen auf die Mathematisierung der Navigation, die Bildung semantischer Netze (Schnupp, 1992, 189), die tutorielle Begleitung durch Expertinnen- und Expertensysteme, die Integration wissensbasierter Generierungstechniken (S. 192) und den Zugriff auf relationale Datenbanken. So schlagen Klar et al. (1992) computerlinguistische Textanalysen in Hypertext- Systemen vor; Ruge und Schwarz (1990) suchen nach linguistisch-semantischen Methoden zur Relationierung von Begriffen; Irler (1992) befasst sich mit dem Einsatz von Bayesian Belief Nets zur Satzgenerierung bis hin zur automatischen „Generierung von Hypertextteilen auf der Basis einer formalen Darstellung“ (S. 115).

?

Das World Wide Web mit seiner Hypertext-Struktur hat in wenigen Jahren eine enorme Entwicklung hinter sich gebracht und großen Erfolg bei Nutzerinnen und Nutzern erzielt. Überlegen Sie, welche pädagogisch-didaktischen Faktoren möglicherweise dafür ausschlaggebend gewesen sind.

Klar (1992), der Hypertext durch Expertensysteme ergänzen will, folgert, dass „die formalen Wissensdarstellungen in Expertensystemen und die informalen Präsentationen in Hypertexten sich sinnvoll ergänzen können“ (S. 44). Kibby und Mayes (1993) wollen ihr Programm StrathTutor durch Simulation des menschlichen Gedächtnisses mit Attribut- und Mustervergleichen anreichern und kommen zu dem Schluss, dass dafür Parallelrechnersysteme angemessener wären. Ob es sinnvoll ist, derartige Wege der Komplexitätserhöhung zu beschreiten, lässt sich zu einem Zeitpunkt kaum entscheiden, in dem bisher nur wenige umfangreiche und inhaltlich sinnvolle Hypertext-Anwendungen überhaupt bekannt sind.

Hypertext

Zur weiteren Entwicklung von Hypertext

Zur Zeit der Entstehung des World Wide Web im Internet schien das Netz ein Lesemedium zu sein, in dem nur wenige Protagonistinnen und Protagonisten Inhalte produzieren würden. Es gab die Befürchtung, dass alle vor 1988 gedruckten Texte in Vergessenheit geraten würden. Inzwischen ist durch die Digitalisierung älterer Schriften, vor allem dank der Initiative von Google, ein großer Teil älterer Publikationen bewahrt worden.

„Die Wüste Internet“ lautete der deutsche Titel des Buches von Clifford Stoll (1996; orig. „Silicon Snake Oil“, 1995). Noch 1997 konnte Hartmut Winkler im Internet nur ein Medium der Texte und Schrift“ entdecken und musste folglich den „Hype um digitale Bilder und Multimedia“ als Übergangsphänomen (Winkler 1997, 375) verkennen. Inzwischen ist das Internet ein effizienter Träger für Bilder und Animationen, für Musik, Audio, Video und Film. Die Konvergenz der Medien ist keine bloße „historische Kompromissbildung“ (ebd.) mehr. Im Digitalen entsteht eine neue interaktive Gestalt aus der Synthese aller Medien.

?

Denken Sie sich ein Lernexperiment mit einem wissenschaftlichen Inhalt oder Gegenstand aus, der in Hypertext-Form verfasst ist. Überlegen Sie, ob und wie Sie den Lerneffekt des Experiments nachweisen könnten.

Es gibt zwar enorm leistungsfähige Suchmaschinen, doch Ordnung und Transparenz werden durch die Masse der Angebote und den Wildwuchs der Standards zugeschüttet, Ontologien, Metadaten und Taxonomien hinken weit hinter den seit Jahrhunderten gewachsenen Thesauri der Bibliotheken her. Das Internet versteht uns nicht, es ist nicht semantisch, das heißt, es kann nicht die Bedeutung von Aussagen und Sätzen verstehen. Dennoch ist es unverzichtbar geworden. Wir warten auf die nächste Entwicklungsstufe, die Tim Berners-Lee und eine Arbeitsgruppe des W3C unter dem Begriff „Semantic Web“ angekündigt haben.

Hypertext

Literatur

Geschichte des Fernunterrichts

Vom brieflichen Unterricht zum gemeinsamen Lernen im Web 2.0

Die Geschichte des technologiebasierten Lernens und Lehrens soll entlang der Entwicklung und Generationen technologischer Innovationen im Fernunterricht, der damit verbundenen Mediencharakteristika als eine Funktion von Interaktion sowie räumlicher und zeitlicher Flexibilität und der ermöglichten didaktischen Szenarien beschrieben werden. Bei der historischen Entwicklung des technikgestützten Lernens und Lehrens werden drei Generationen unterschieden: die Korrespondenz-Generation (ab ca. 1850), die Telekommunikations- oder Open-University-Generation (ab ca. 1960) und die Computer- und Internet-Generation (ab ca. 1990). Schließlich wird die Entwicklung des Online-Lernens bis heute beschrieben und auf neuere Entwicklungen des mobilen und gemeinsamen Lernens im Web 2.0 eingegangen.

Geschichte des Fernunterrichts

Einführung: Mediengestützes Lernen und Fernlernen

Technologiegestütztes Lernen ist medienvermitteltes Lernen. Medien ermöglichen die Erschließung von Inhalten, zum Beispiel über Selbstlernmaterialien in gedruckter Form oder über multimedial aufbereitete Einheiten. Lernen ist ein sozialer Prozess und kommt daher nicht ohne Kommunikation und Feedback zwischen Lernenden und Lehrenden und auch nicht ohne Kontakt zwischen den Lernenden aus. Diese Interaktion kann heute sehr effektiv durch die modernen Informations- und Kommunikationstechnologien (IKT) in Unabhängigkeit von Raum und Zeit, synchron und asynchron unterstützt werden.

Viele weitere Kapitel in diesem Buch handeln von dem Einsatz solcher Medien in Lehr- und Lern-Prozessen aus didaktischer, organisatorischer und technischer Perspektive. Man kann sagen, dass die Entwicklung des Internets und die sich daraus ergebenden didaktischen Möglichkeiten für das Online-Lernen einen Paradigmenwechsel ausgelöst haben (Peters, 2004). Diese Veränderungen betreffen nicht nur die traditionellen Fernunterrichtsanbieter oder Fernuniversitäten. Das technologiegestützte Lernen und Lehren ist im Mainstream der Bildungsangebote auf allen Niveaus angekommen (Zawacki-Richter, 2011). Viele Universitäten bieten zum Beispiel heute auch Online-Studiengänge für berufstätige Zielgruppen im Bereich der wissenschaftlichen Weiterbildung an, und auch das Präsenzstudium wird durch internetgestützte Angebote ergänzt. Es gibt E-Learning an Grundschulen, an Volkshochschulen und natürlich in der betrieblichen Qualifizierung. Das medienvermittelte Lernen muss heute keine isolierte Form des Lernens mehr sein. Die Grenzen zwischen konventionellem Fern- und Präsenzlernen verschwimmen durch den Einsatz und die weite Verbreitung der IKT: „The secret garden of open and distance learning has become public, and many institutions are moving from single conventional mode activity to dual modeactivity“ (Mills &Tait, 1999). „Dual modeactivity“ bedeutet hier, dass Bildungsinstitutionen sowohl Präsenzlernen als auch Fernlernen anbieten. Dies war jedoch nicht immer so. In diesem Kapitel soll so ein Überblick über die Entwicklung und Geschichte von technologischen Innovationen und ihrem Einsatz in Lehr- und Lernprozessen gegeben werden. Dabei ist zu berücksichtigen, dass Institutionen des Fernunterrichts und des Fernstudiums schon immer sehr früh neu aufkommende Kommunikationstechnologien genutzt haben. Für das Fernlernen ist charakteristisch, dass Lernende und Lehrende räumlich (und zeitlich) voneinander getrennt sind. Lernprozesse werden daher durch Medien überhaupt erst ermöglicht.

!

Die Entwicklung des technologiegestützen Lernens kann als Abfolge medientechnologischer Innovationen beschrieben werden. Eine neue Generation des technikgestützten Lernens wurde durch neue Medien eingeläutet, die neue Formen der Interaktion und raum-zeitlichen Flexibilität ermöglicht haben.

Geschichte des Fernunterrichts

Generationen technologischer Innovationen

Viele Erfindungen und Entwicklungen im Bereich der Medientechnologie eröffneten neue Wege der Kommunikation und Betreuung, zum Beispiel durch die Möglichkeit, eine Tutorin oder einen Tutor anzurufen, um eine inhaltliche Frage zu klären oder die Möglichkeit, bei einer Bibliothek einen Aufsatz über die Online-Fernleihe zu bestellen (Zawacki-Richter, 2004).

Garrison (1985) unterscheidet drei Generationen technologischer Innovation, die einen Paradigmenwechsel des Lernens und Lehrens im Fernstudium ausgelöst und somit die Qualität des Lernprozesses nachhaltig verändert haben. Aus historischer Perspektive sind die drei Meilensteine technologischer Innovation nach Garrison die Printmedien, die Telekommunikationsmedien und der Computer. Lernen ist ein sozialer Prozess. Medien, die eine zweikanalige Kommunikation ermöglichen, sind daher von besonderer Wichtigkeit. Unidirektionale Medien, zum Beispiel das Radio, Fernsehen oder DVD, werden von Garrison daher auch als begleitende oder ergänzende Medien (engl. „ancillary media“) bezeichnet: „[...] other media are not considered to have significantly altered the delivery of distance education. The main reason is the non-interactiveness of media such as radio and television broadcasts, audio and video cassettes, laser videodiscs, and audiographics. For this reason, these media are viewed as being in a separate category, since they are incapable of providing two-way communication“ (Garrison, 1985, 239). Garrison (1985)beschreibt die Medien als eine Funktion von Interaktion der Beteiligten sowie der räumlichen und zeitlichen Unabhängigkeit (S. 240). Auch wenn Garrison in den 1980er Jahren die enorme Entwicklung des Internets nicht vorhersehen konnte, so erscheint sein Modell trotz des frühen Entstehungsjahres noch passend, da auch das heutige technikgestützte Lernen wesentlich durch die computervermittelte Kommunikation geprägt ist. Im Folgenden wird die Abfolge medientechnologischer Innovationen in Anlehnung an Garrison (1985) beschrieben.

Abb. 1: Selbstlernmaterialien um die Jahrhundertwende aus dem Archiv der Deutschen Fernstudiendokumentation an der FernUniversität in Hagen (Fremdsprachenbücher mit Lautschrift von Langenscheidt und Schallplatten zur „Anwendung für Sprechmaschinen“)
Abb. 1: Selbstlernmaterialien um die Jahrhundertwende aus dem Archiv der Deutschen Fernstudiendokumentation an der FernUniversität in Hagen (Fremdsprachenbücher mit Lautschrift von Langenscheidt und Schallplatten zur „Anwendung für Sprechmaschinen“)

!

Es lassen sich drei Generationen unterscheiden: die Korrespondenz-Generation (ab ca. 1850), die Telekommunikations- oder Fernuniversitäten-Generation (ab ca. 1960) und die Computer- und Internet-Generation (ab ca. 1990).

Die Anfänge: Korrespondenz-Generation

Die erste Generation war der printbasierte Fernunterricht, in der für das Selbststudium aufbereitete Studienbriefe verschickt wurden und die Teilnehmer/innen per Briefwechsel von einem Tutor betreut wurden. Die Wurzeln des Fernunterrichts und des Fernstudiums gehen über 250 Jahre in die Vergangenheit zurück.

Bereits 1728 inserierte Caleb Phillipps („Teacher of the New Method of Short Hand“) in der Boston Gazette Anzeigen für seine Stenographie-Fernkurse: „[Any] persons in the country desirous to learn this art, may by having the several Lessons sent weekly to them, be as perfectly instructed as those that live in Boston“ (Battenberg, 1971, 44).

In Europa brachte Gustav Langenscheidt zusammen mit Charles Toussaint Selbstunterrichtsbriefe für Französisch-Sprachkurse heraus. Die beiden entwickelten die „Methode Toussaint-Langenscheidt“, mit der die französische Aussprache in Studienbriefen vermittelt werden konnte. Die Lautschrift ist also eine Entwicklung des Fernunterrichts. Die Durchsetzung der Lautschrift war auch die Grundlage für die erfolgreiche Gründung des Verlages von Gustav Langenscheidt im Jahr 1856.

Eine tutorielle Begleitung durch ständigen Briefwechsel war allerdings ursprünglich in beiden Fällen (Phillipps, Langenscheid) noch nicht vorgesehen. So sind diese Formen des Selbstunterrichts streng genommen noch nicht als Fernunterricht zu bezeichnen. Bidirektionale Kommunikation ist aus dem Institut für brieflichen Unterricht von Simon Müller in Berlin (1897) überliefert (Delling, 1992).

Die University of London war die erste Universität, die 1858 Korrespondenzkurse für Auswanderer/innen in den Kolonien in Australien, Kanada, Indien, Neuseeland und Südafrika in ihr Angebot aufnahm. Mit einem Postschiff wurden Studienmaterialien zusammen mit einem Syllabus, Musterklausuren und einer Liste mit Prüfungsorten und -terminen verschickt: Eine persönliche Betreuung der Studierenden gab es nicht (Ryan, 2001). Die ersten Korrespondenzkurse wurden nicht von Fernstudienspezialistinnen und -spezialisten geschrieben, sondern von Lehrenden traditioneller Universitäten – sie waren also Vorlesungen in schriftlicher Form. Großbritannien gründete 1875 in Pretoria (Südafrika) einen Vorgänger der heutigen University of South Africa (UNISA) als erste dezidierte Fernuniversität der Welt. Sie ist auch heute noch, mit über 200.000 Studierenden, die größte Fernuniversität Afrikas.

!

Institutionen des Fernunterrichts und des Fernstudiums haben schon sehr früh Bildungstechnologien eingesetzt, da das Lernen und Lehren hier durch Medien überhaupt erst ermöglich wird. Erste Fernunterrichtsanbieter gab es im deutschsprachigen Raum Mitte des 19. Jahrhunderts (Sprachkurse von Gustav Langenscheidt), die erste Fernuniversität wurde 1875 in Südafrika gegründet.

Das Korrespondenzstudium eröffnet die Möglichkeit, unabhängig von Raum und Zeit zu lernen. Es wurde bald erkannt, dass mehr Selbstständigkeit der Studierenden nicht einfach daraus resultiert, dass man sie sich selbst überlässt. So wurde die vorherrschende unidirektionale Kommunikation, das heißt der Versand von vorgefertigten Studienmaterialien von der Institution zu den Studierenden, durch bidirektionale Kommunikation ergänzt, zum Beispiel durch Präsenzveranstaltungen, briefliche Tutorien oder telefonischen Kontakt. Die Möglichkeiten waren jedoch aufgrund der geringen technischen Entwicklung sehr begrenzt. Die Antwortzeiten waren in der Regel lang, da die Kommunikation von der Post per Eisenbahn oder Schiff abhängig war. Heute werden die Studierenden allerdings durch einen Mix von Betreuungsangeboten unterstützt, die im weiteren Verlauf der Entwicklung eingeführt wurden.

Das Fernstudium der ersten Generation war also gekennzeichnet durch die noch sehr eingeschränkte bidirektionale Kommunikation zwischen Lernenden und Lehrenden. Der Kontakt zu anderen Lernenden war allenfalls im Rahmen von Präsenzveranstaltungen möglich und somit extrem eingeschränkt.

Telekommunikations- oder Fernuniversitäten-Generation

Die zweite Generation in der Entwicklung des Fernstudiums ist eng mit der fortschreitenden Institutionalisierung und der Gründung der Open Universities Ende der 1960er und Anfang der 1970er Jahre verknüpft. Eine Vorreiterrolle nahm die im Jahre 1969 gegründete britische Open University (OUUK) ein. 1974 wurde im deutschsprachigen Raum die FernUniversität in Hagen gegründet, die heute mit circa 90.000 Studierenden nach der Studierendenzahl die größte Universität Deutschlands ist. In den neuen Fernuniversitäten wurde ein systemischer Ansatz angewandt, das heißt die Prozesse der Kurskonzeption, der mediendidaktischen Aufbereitung, der Produktion und Distribution und schließlich die fachliche und organisatorische Betreuung der Lernenden, unterliegen einem arbeitsteiligen Prozess des didaktischen Designs (Morrison et al., 2007).

Eine neue Entwicklung der zweiten Generation des Fernstudiums war die Eröffnung von Studienzentren, die ein wichtiges Element des Support-Systems darstellen. In Großbritannien werden die Studierenden durch ein Netz regionaler und lokaler Studienzentren betreut (Tait, 2000). Nach dem Vorbild der OUUK haben viele Fernuniversitäten Studienzentren eingerichtet, so auch die FernUniversität in Hagen (Groten, 1992). Sie eröffnen den Zugang zu Technologie (zum Beispiel Computer, Videokonferenzanlagen), Studienmaterialien und Bibliotheksdiensten, sie bieten Studienberatung durch Fachkräfte, hier können die Studierenden ihre Kommilitoninnen und Kommilitonen treffen und an tutoriellen Präsenzveranstaltungen teilnehmen und schließlich auch ihre Prüfungen ablegen. An der FernUniversität in Hagen werden die Studierenden über ein Netz von 13 Regionalzentren betreut.

Die Telekommunikationsmedien ermöglichen die elektronische Übertragung von Kommunikation in Form von Ton, Bild und Text über Telefon und Fax, Fernsehen, Video und Radio sowie über Audio-, Video- und auch schon Computerkonferenzen. Die Telekommunikations-Generation wird daher auch als „Multimedia Distance Teaching“ bezeichnet (Nipper, 1989). Die Bildungstechnologien spielen nicht nur in den Fernuniversitäten, sondern auch bei der Betreuung von Schulkindern in großen Flächenländern wie Australien in den so genannten „Busch-Schulen“, in denen früher zum Beispiel CB-Funk in Verbindung mit Präsenzphasen und Selbstlernmaterialien eingesetzt wurden, eine wichtige Rolle (Marginson, 1993).

Abb. 2: Computerunterstützer Unterricht, Projekt „MUPID“, TU Graz, 1985
Abb. 2: Computerunterstützer Unterricht, Projekt „MUPID“, TU Graz, 1985

In einer Audiokonferenz können mehrere Teilnehmer/innen synchron miteinander kommunizieren. Die langsame Antwortzeit wie beim Korrespondenzstudium wird drastisch verkürzt. Gleiches gilt für Videokonferenzen, mit dem Unterschied, dass hier zusätzlich Bilddaten übertragen werden. Dieses Mehr an synchroner Interaktion wird allerdings mit reduzierter Skalierbarkeit der Betreuung von großen Studierendenzahlen erkauft. Ein Dilemma, denn hier nehmen wir Abschied von der gleichgearteten Betreuung einer sehr großen Anzahl von Lernenden, dem Prinzip der Massenhochschulbildung im Sinne des Open Learning (Peters, 1997, 24). Die Technik war aufwändig und musste von lokalen Studienzentren bereitgestellt werden, sodass die Studierenden nicht von zu Hause aus teilnehmen konnten, sondern sich zu einem festen Zeitpunkt an einem bestimmten Ort einfinden mussten. Die Synchronität der Telekonferenzmedien steht dem Gedanken, einer möglichst großen Zahl von Personen einen flexiblen Zugang zum Studium zu ermöglichen, entgegen. Dies unterstreicht Daniel (1998) in einer glühenden Rede vor Teilnehmerinnen und Teilnehmern eines Kongresses von Videokonferenzanbietern, in der er von einer Krise des Zugangs, der Kosten und der Flexibilität spricht: „Group teaching in front of remote TV screens? This is not only an awful way to undertake distance learning, but flies in the face of everything that we have learned while conducing successful open and supported learning on a massive scale for the past 27 years. Our lessons are the key to addressing the triple crisis of access, cost and flexibility now facing higher education world-wide“ (Daniel, 1998, 1).

Um keine Lernenden von der Betreuung mit Telekommunikationsmedien auszuschließen, muss vor dem Hintergrund der Ansprüche und Möglichkeiten der jeweiligen Zielgruppe eine entsprechende Medienauswahl getroffen werden. In der Regel sind asynchrone Technologien für die Betreuung räumlich verteilter Lernender mit unterschiedlichen zeitlichen Verpflichtungen am besten geeignet. Hier bieten asynchrone Computerkonferenzen die beste Lösung (siehe Kapitel #videokonferenz).

Computer- und Internet-Generation

Große Bedeutung misst Garrison dem computergestützten Lernen (Computer Assisted Learning, CAL) bei. CAL-Programme sind Selbstlerneinheiten, die die Interaktion sowie räumliche und zeitliche Flexibilität maximieren sollen. Unter Interaktion wird hier die Interaktion der Lernenden mit dem Computerprogramm verstanden (Garrison, 1985, 238). Es hat sich jedoch gezeigt, dass der Programmierte Unterricht ohne soziale Interaktion und ohne Dialog zwischen Lernenden und Lehrenden sowie den Lernenden untereinander wenig erfolgreich ist (Schulmeister, 1999). CAL-Programme können allenfalls eine Ergänzung sein.

1989 veröffentlichte der britische Wissenschaftler Tim Berners-Lee von der „European Organization for Nuclear Research“ (CERN) ein Proposal, in dem er ein dezentral verteiltes, hypermediales, netzwerkbasiertes System vorstellte (Berners-Lee, 1989). Das System, welches später als „World Wide Web“ (WWW) auch außerhalb von Forschungseinrichtungen populär wurde, basierte auf Darstellungsservern (Webservern), die Informationen speichern und verknüpfen sowie Darstellungsclients (Webbrowsern), welche die gespeicherten Informationen über das „Hypertext Transfer Protocol“ (HTTP) von Servern über das Internet abrufen und auf unterschiedlichen Endgeräten darstellen konnten. Unter „Hypertext“ versteht man nicht-linearen Text, der durch Knoten und Links netzwerkartig verknüpft ist. Erweitert man „Hypertext“ mit zeitdiskreten Medientypen (Bild, Grafik, usw.) und zeitkontinuierlichen Medientypen (Video, Audio, Animation, usw.), entsteht „Hypermedia“ (siehe Kapitel #hypertext).

Murray Turoff vom New Jersey Institute of Technology ist der Erfinder der Computerkonferenzmethode (Computer-Mediated Communication, CMC) und Entwickler der CMC-Plattform „Virtual Classroom“ (Turoff, 1995; Harasim et al., 1995). An der Open University UK wurde bereits 1988 „CoSy“ (conferencingsystem) für Online Tutorien mit 1300 Studierenden eingeführt (Mason, 1989; Harasim et al., 1995). Aus den einfachen Computerkonferenzsystemen haben sich die heutigen Lern- und Campus- Management-Systeme entwickelt. Eines der ersten Systeme,mit denen die Funktionen eines virtuellen Campus abgebildet werden konnten, war Virtual-U, welches unter der Leitung von Linda Harasim 1994 bis 1995 an der Simon Fraser University in Kanada entwickelt wurde.

!

Zum großen Durchbruch der computervermittelten Kommunikation verhalfen die massenhafte Verbreitung der Personalcomputer und die explosionsartige Entwicklung des Internet mit dem World Wide Web in den 1990er Jahren. Durch die weltweite Vernetzung und Verfügbarkeit der Computer sind Kontakte und der Zugang zu Informationen unabhängig von Raum und Zeit möglich.

?

Garrison (1985) hat die Entwicklung des medienvermittelten Lernens und Lehrens entlang von Generationen technologischer Innovationen, die einander ablösen, beschrieben. Diskutieren Sie, ob der Begriff der Generation hier wirklich passend ist.

Das isolierte Lernen wird im Fernstudium oft als ein Problem für den Studienerfolg genannt: „Distance learning can be very isolating, and inadequate attention to course design, student counselling and support can yield poor completion rates and the worst aspects of one-way knowledge transmission“ (Brindley& Paul, 1996, 43). Nach Kirkwood (1998) ist der wertvollste Beitrag, den vernetzte Computer und die neuen Informations- und Kommunikationstechnologien für das Fernstudium leisten können, der persönliche Dialog und Tools für gemeinsames Lernen und Arbeiten: „The availability of learners to each other and to the tutor asynchronously as well as synchronously, has the potential to overturn the emphasis on distance education as an individualised form of learning“ (Thorpe, 2002, 114). Hierin liegt der Grund für die große Bedeutung des Online-Lernens, da es die Vorteile der Flexibilität und der Zugangsmöglichkeiten des Fernstudiums mit den interaktiven Möglichkeiten der Zusammenarbeit in Präsenzgruppen verbindet.

Geschichte des Fernunterrichts

Zur Entwicklung des technologiegestützen Lernens heute

Seit Mitte der 1990er Jahre hat sich das Online-Lernen oder E-Learning rasant entwickelt. Im Jahr 2012 haben in den USA 6,7 Millionen Studierende Online-Kurse belegt, was einer Steigerung zum Vorjahr von 9,3 Prozent entspricht. Der Anteil der Studierenden in den USA, die zumindest einen Online-Kurs belegen, liegt bei 32 % (Allen & Seaman, 2013). Die steigende Nachfrage nach technologiegestützen, räumlich und zeitlich flexiblen Bildungsangeboten, lässt sich am Beispiel des amerikanischen University of Maryland University College (UMUC) gut illustrieren, heute einer der größten Anbieter von Online Studiengängen weltweit. UMUC wurde 1947 als Weiterbildungseinheit an der University of Maryland College Park gegründet und wurde 1972 zur unabhängigen Universität (Allen, 2004). Noch 1995 waren nur 1.000 von 30.000 Studierenden dieser Universität Fernstudierende, die hauptsächlich mit gedruckten Studienmaterialien lernten. Im Jahr 1997 wurde der erste Online-Kurs mit 110 Studierenden durchgeführt. Seitdem hat sich die Anzahl der Online-Kurs-Belegungen auf annähernd 200.000 im Jahr 2009 gesteigert. Die Zahl der Studierenden hat sich seitdem auf über 90.000 mehr als verdreifacht (Zawacki-Richter et al. 2010).

Hier ist eine sehr interessante Entwicklung zu beobachten: Immer mehr jüngere Personen entscheiden sich nach der Schule für ein Online-Studium. Sie gehören nicht zur traditionellen Klientel der Fernuniversitäten, deren Zielgruppe schwerpunktmäßig die sogenannten „nicht-traditionellen Studierenden“ (Teichler & Wolter, 2004) sind. So schreibt Nick Allen (2004), damals Präsident von UMUC:

„Unsere Studierendenschaft ist recht heterogen. Die größte Gruppe ist die der 25 bis 44-jährigen, aber die Gruppe der unter 25-jährigen wächst immer stärker. Das sind eigentlich traditionelle Studierende, die normalerweise zu einer Präsenzuniversität gehen. In den USA werden jedoch die Universitäten immer teurer, sodass viele Studierende arbeiten müssen und in Teilzeit studieren müssen. So kommen immer mehr zu uns“ (274, Übersetzung durch den Autor).

Die Grenzen zwischen traditionellen Fern- und Präsenzuniversitäten verschwimmen also immer mehr: nicht nur bezüglich des Medieneinsatzes, sondern auch im Hinblick des Profils ihrer Zielgruppen (Alheit et al., 2008). Auch die medientechnische Hard- und Software entwickelt sich immer weiter. Im Folgenden sollen neue Anwendungen des mobilen Lernens und Web 2.0 (Social Software) vorgestellt werden, jedoch auch eher aus historischer Perspektive. Weitere Kapitel in diesem Lehrbuch beschäftigen sich tiefergehend mit diesen Themen.

!

Die Nutzung mobiler Endgeräte und Anwendungen des Web 2.0 (Social Software) eröffnen neue Möglichkeiten des ubiquitären, gemeinsamen Lernens.

Mobiles Lernen

Mobile Endgeräte wie Handys und Tablet-Computer ermöglichen eine noch stärkere räumliche Flexibilität als das E-Learning am PC. Das Lernen wird mobil („mobile Learning“, Ally, 2009; siehe Kapitel #mobil). In einer Umfrage zur Entwicklung des mobilen Lernens im Jahr 2005, auf die Expertinnen und Experten aus 27 verschiedenen Ländern geantwortet haben, glaubten 78 Prozent der Befragten, dass das Lernen mit mobilen Endgeräten innerhalb von drei bis fünf Jahren zum Standard gehören wird.

Von den beteiligten Fernstudieninstitutionen waren bereits 55 Prozent dabei, Inhalte für das mobile Lernen zu entwickeln beziehungsweise planten, dies in Kürze umzusetzen (Zawacki-Richter et al., 2009).

Die Flexibilität mobiler Technologien eröffnet insbesondere für die didaktische Gestaltung von Lernprozessen neue Möglichkeiten für forschendes Lernen und just-in-time Zugang zu Wissen und Informationen (Kukulska-Hulme & Traxler, 2005).

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Eine aktuelle Mediennutzungsstudie mit 2.339 Studierenden zeigt: Bereits 56 % der Studierenden besitzen und nutzen ein Smartphone mit Internetzugang (Zawacki-Richter & Müskens, 2013). Die weltweite Verbreitung mobiler Endgeräte ermöglicht aber auch gerade für Menschen in Entwicklungsländern den Zugang zu Bildung.

Die Entwicklungsländer sind gerade dabei, die Entwicklungsstufe des verkabelten Internets zu überspringen (Brown, 2004; siehe Kapitel #entwicklungszusammenarbeit). In einem Fernstudienprojekt an der University of Pretoria zur Fortbildung von über 20.000 Lehrerinnen und Lehrern im ländlichen Raum von Südafrika wurde festgestellt, dass nur 0,4 Prozent der Teilnehmenden Zugang zu E-Mail hatten, aber 99,4 Prozent ein Mobiltelefon besaßen. Bereits 2003 wurde daher in der Lehrerinnen- und Lehrerfortbildung mit mobilem Lernen begonnen (Keegan, 2005).

Gemeinsames Lernen im Web 2.0

Web 2.0 ist eine Bezeichnung zur Beschreibung von interaktiven Anwendungen des Internet und WWW. Unter dem Begriffverstand Tim O'Reilly „design patterns and business models for the next generation of software“ (O'Reilly, 2005). Der Begriff steht insbesondere für eine geänderte Wahrnehmung des Internet. Im Laufe der Zeit entwickelten sich Content-Management-Systeme und datenbankbasierte Systeme, die dynamisch aktuelle Inhalte erzeugen. Der Hauptaspekt beim Web 2.0 ist, dass die Webseiten nicht mehr wie beim Web 1.0 aus statischen HTML-Seiten bestehen, sondern die Nutzer selbst Inhalte erstellen können. Die Philosophie des Web 2.0 befreit aus der Konsumentenrolle. Typische Beispiele hierfür sind Wikis, Weblogs, Social Tagging (gemeinschaftliches Indexieren) sowie Bild- und Video-Sharing-Portale. Die Nutzung dieser interaktiven Technologien auch für das Online-Lernen liegt auf der Hand, denn das „Social Web“ und „Social Software“ bieten sich in besonderer Weise für das kooperative Lernen an (Erpenbeck & Sauter, 2007).

Es entsteht eine Vielzahl von Web-Angeboten, die über keinen eigenen Datenbestand verfügen, sondern lediglich Daten von Dritten zu neuen Diensten kombinieren („Mash-Up“; siehe Kapitel #webtech). Vor allem die Kreativität der Nutzer/innen ist ein tragendes Element der Web-2.0-Kultur (Surowiecki, 2005). Dienste wie zum Beispiel FlickR oder Wikipedia leben von der aktiven Inhaltsgenerierung ihrer Nutzer/innen. Die Grenzen zwischen Produzentinnen und Produzenten und Konsumentinnen und Konsumenten aus der Web-1.0-Phase verschwinden zunehmend. Nachdem das Internet Computer verband und das WWW Informationen verknüpft, verbindet nun das Web 2.0 Menschen miteinander. Angebote „sozialer Netzwerke“ wie Xing, Facebook oder Google+, aber auch Kommunikationsmedien wie Blogs, schaffen ausdifferenzierte Räume der (teil-)öffentlichen Kommunikation im Internet, die eine zunehmende individualisierte Nutzung des Mediums Internet begünstigen (Wolling, 2009). Vor allem die intuitive Bedienung und einfache Vernetzungsmöglichkeit der verschiedenen Web-2.0-Dienste untereinander sind die wesentlichen Gründe für den Erfolg des „Mitmach-Netzes“.

Zudem können verschiedene Anwendungen von Lernenden individuell zu einer personalisierten Lernumgebung kombiniert werden. „Personal Learning Environments“ (PLE) sind webbasierte Mashups, die den Lernenden als individuelle Lernumgebungen dienen (Attwell, 2007). Sie basieren auf der individuellen Selektion und Aggregation von verschiedenen Diensten aus dem Internet durch die Nutzer/innen selbst. Mit den sozialen Netzen im Web 2.0 und den PLE rückt das selbstgesteuerte und aktive Lernen der Studierenden mehr in den Fokus (Schaffert & Kalz, 2009; siehe Kapitel #systeme): „Given the amount of attention that communication features and learning from peers (not just instructors) have received even in the traditional eLearning context over the past few years, it is easy to see that this strong social streak in the Web 2.0 movement directly plays into the hands of any effort to increase knowledge sharing and transfer“ (Rollett et al., 2007, 97).

?

Betrachten Sie die Entwicklung des Fernunterrichts aus der Perspektive der Lehrenden: Wie wandelten sich ihre Aufgaben und unterrichtlichen Möglichkeiten im Laufe der Zeit?

?

Betrachten Sie die Entwicklung des Fernunterrichts aus der Perspektive der Lernenden: Was waren und sind wohl ihre Motive und Anlässe, keinen Präsenzunterricht zu besuchen? Wie hat sich dies im Lauf der Zeit gewandelt?

Geschichte des Fernunterrichts

Literatur

Informationssysteme

Technische Anforderungen für das Lernen und Lehren

Informationssysteme zum Lehren und Lernen bilden die technische Infrastruktur zum Erstellen und Verwalten von Lernressourcen. Bei der Auswahl entsprechender Systeme, wie den hier vorgestellten Autorinnen- und Autorenwerkzeugen, Lerncontentmanagementsystemen (LCMS) und Lernmanagementsystemen (LMS) müssen die technischen Anforderungen nicht nur jeweils einzeln berücksichtigt, sondern auch deren Interoperabilität muss geprüft werden. Dieses Kapitel führt zunächst in allgemeine Aspekte der Informationssysteme zum Lehren und Lernen ein. Anschließend werden Anforderungen an Autorinnen- und Autorenwerkzeuge, Lerncontentmanagementsysteme und Lernmanagementsysteme formuliert und erläutert. Dabei wird herausgestellt, dass die Auswahl der „richtigen“ Systeme nur mit Rücksicht auf die jeweilige Organisationsstruktur stattfinden kann.

Informationssysteme

Grundlagen

In diesem Abschnitt wird der Begriff des Informationssystems erläutert und was man im Lehr-/Lernkontext darunter versteht. Anschließend erfolgt ein Überblick über die Verteilungsmöglichkeiten derartiger Systeme in Computernetzwerken.

Informationssysteme zum Lernen und Lehren

Ganz allgemein sind Informationssysteme eben jene, die Informationen verarbeiten, genauer: sie unterstützen die Nutzerinnen und Nutzer bei der Erfassung, Übertragung, Transformation, Speicherung und Bereitstellung von Informationen verschiedenster Art (Ferstl&Sinz, 2006, 1). Daher bestehen Informationssysteme aus der Gesamtheit aller Daten und den nötigen Verarbeitungsanweisungen. So gesehen bilden die Server des World Wide Web das weltweit größte Informationssystem. Informationssysteme, die speziell für die Organisation und Durchführung von Lehr- und Lernprozessen entwickelt worden sind, verarbeiten ebenfalls Informationen, nämlich die, die zur Erstellung und Verwaltung von Lernressourcen benötigt werden.

!

Informationssysteme für das Lernen und Lehren verarbeiten die Informationen, die für die Erstellung und Verwaltung von Lernressourcen benötigt werden.

Die Verarbeitung der Informationen kann dabei auf dem eigenen Computer stattfinden. Häufiger werden jedoch Dienste über Netzwerke in Anspruch genommen, die auf eine zentrale Datenbank zugreifen und diese Daten für die Benutzerinnen und Benutzer grafisch sinnvoll darstellen. Dadurch wird nicht nur das Halten größerer Datenmengen, die zentrale Sicherung, die Ausfallsicherheit und die Bereitstellung höherer Rechenleistung möglich, sondern auch die Kommunikation zwischen den Benutzerinnen und Benutzern. So können beispielsweise die Lernenden bei Rückfragen mit den Kursleiterinnen und Kursleitern oder mit anderen Kursteilnehmerinnen und Kursteilnehmern in Kontakt treten.

?

Bitte ergänzen Sie zur Tabelle 1 Beispiele für die Verarbeitung von Informationen, die von Informationssystemen zum Lehren und Lernen bereitgestellt und/oder unterstützt werden sollen.

Funktionen Beispiele (Musterlösungen)
Informationen erfasste Lerndaten in Datenbank schreiben, neue Kursdaten einstellen, Lerninhalte erstellen
Informationen übertragen Lerndaten bei Einschreibung im Kurs zur Verfügung stellen, Termine aus dem Kurskalender in die persönlichen Kalender der Lernenden überführen
Informationen transformieren Reports aus Lernergebnissen erstellen, Bildgrößen für Darstellung anpassen, Vorlagen anwenden
Informationen speichern Lernergebnisse ablegen, Lerninhalte speichern
Informationen bereitstellen eingeschriebene Kursteilnehmer/innen, Testergebnisse

Tab.1: Informationen, die von Informationssystemen zum Lehren und Lernen bereitgestellt werden

Netzwerkarchitektur für Informationssysteme — ein Überblick

Zum selbstständigen Lernen können Lernmaterialien auf CD, auf einem USB-Stick oder einem anderen Datenträger bereitgestellt werden. Lehrende und Lernende müssen sich dann keine Gedanken über Internetverbindung und Netzwerkarchitektur machen, haben aber auch keine Möglichkeit, miteinander zu kommunizieren oder Gruppenarbeiten durchzuführen. Soll mehr als ein/e Benutzer/in mit dem Informationssystem arbeiten, folgt unweigerlich die Frage, wie die Zusammenarbeit realisiert werden kann. Genauer: Wie kann man erreichen, dass alle Benutzer/innen Zugriff auf das Informationssystem und die darin befindlichen Daten haben? Ein erster und sehr einfacher Ansatz wäre es, alle Computer der Nutzer/innen miteinander zu verbinden. In einem solchen Peer-to-Peer-Netzwerk wären alle Nutzer/innen direkt miteinander gleichranging vernetzt und tauschen Informationen untereinander aus (Stein, 2008, 489).

Abb. 1: Peer-to-Peer-Netzwerk
Abb. 1: Peer-to-Peer-Netzwerk

!

In einem Peer-to-Peer-Netzwerk sind alle Computer gleichrangig miteinander verbunden und tauschen Informationen und Dienste untereinander aus.

Das Problem hierbei ist, sicherzustellen, dass auch alle Informationen zu jeder Zeit verfügbar sind – auch dann, wenn die Benutzer/innen ihren Computer ausschalten. Würde man also ein Informationssystem zum Lernen und Lehren in einem solchen Netzwerk realisieren, müsste man entweder

Aus diesem Grund sind die meisten Informationssysteme Client-Server-Anwendungen. Durch die Installation des Informationssystems auf einem zentralen Server ermöglicht man es allen Nutzerinnen und Nutzern, gemeinsam auf die dort gespeicherten Informationen und Dienste zugreifen zu können. Da die Arbeit mit dem Informationssystem mittlerweile häufig über den Internetbrowser erfolgt und selten eine spezielle Zugriffssoftware benötigt wird, benötigen die Anwender/innen-PCs (Clients) oft lediglich einen Zugang zum (globalen) Inter- bzw. firmeneigenen Intranet (Niegemann et al., 2008, 458f.).

Abb. 2: Client-Server­Architektur
Abb. 2: Client-Server­Architektur

!

In einer Client-Server-Architektur stellt ein zentraler (Groß-)Rechner, der sogenannte Server, Daten und Dienste für die Nutzer/innen zur Verfügung, die mit ihren Computern (Clients) über das Inter- oder firmeneigene Intranet darauf zugreifen können.

Am deutlichsten spürt man bei Client-Server-Architekturen, wenn der Server überlastet ist. Das heißt, wenn zu viele Zugriffe zur selben Zeit bearbeitet werden sollen. Es muss daher stets darauf geachtet werden, dass genügend Rechenleistung zur Verfügung steht. Hierfür muss die Zahl der Benutzer/innen abgeschätzt werden, die gleichzeitig die Dienste des Servers in Anspruch nehmen möchten. Hieran sollten Hauptspeichergröße, Prozessorleistung und Festplattengeschwindigkeit des Servers angepasst werden (Niegemann et al., 2008, 160f.). Des Weiteren ist zu überlegen, wie ausfallsicher der Server in Bezug auf Verfügbarkeit und Zuverlässigkeit sein soll. Systeme, bei denen eine hohe Verfügbarkeit wichtig ist, werden in der Regel als Cluster ausgeführt, das heißt, der „Server“ besteht aus mehreren, miteinander vernetzten Rechnern. Der Ausfall eines Cluster-Rechners stört den Gesamtbetrieb im Idealfall kaum. Zuverlässige Systeme verfügen außerdem über eine (hoch-)redundante Datenspeicherung, sodass der Ausfall einzelner Festplatten und damit verbunden deren Reparatur im laufenden Betrieb durchgeführt werden kann, ohne die Aufgaben des Clusters zu beeinträchtigen. Ein einzelner Server kann zudem nicht beliebig aufgerüstet werden und so von vornherein nur eine gewisse maximale Anzahl von parallelen Benutzerinnen und Benutzern bedienen. Bei einer Cluster-Lösung können dagegen bei Bedarf weitere Rechner hinzugefügt werden, um den Betrieb bei hoher Benutzer/innen-Zahl zu gewährleisten.

In der Praxis: Schwankungen an Hochschulen

In Hochschulen gibt es erfahrungsgemäß zwei Zeiträume im Semester, an denen die Anzahl von Benutzer/innen von zentralen Informationssystemen besonders hoch ist: zu Beginn des Semesters zur Einschreibung in die Lehrveranstaltungen und am Ende zur Einschreibung in die Klausuren. Da die Zahl der eingeschriebenen Studierenden von Semester zu Semester stark schwanken kann (zum Beispiel durch geburtenschwache/-starke Jahrgänge), sollte immer wieder geprüft werden, ob die verfügbare Rechenleistung des Servers noch ausreichend ist oder ob gegebenenfalls aufgestockt werden muss. Eine gute Strategie ist es auch, die Termine für die Einschreibungen nach Fakultäten, Lehrstühlen oder Fächern zu staffeln und die Zugriffe so zeitlich zu verteilen.

?

Vergleichen Sie Peer-to-Peer- und Client-Server-Architekturen miteinander. Eine mögliche Lösung finden Sie in Tabelle 2. Wie unterscheidet sich Ihre Darstellung davon?

Kriterien Peer-to-Peer (Musterlösungen) Client-Server (Musterlösungen)
Dienste und Informationen liegen (hauptsächlich) auf dem Anwender/innen-PC dem Server
Zum Aufbau des Netzes muss zusätzliche Hardware angeschafft werden nein (bei aktueller PC-Grundausrüstung) Ja, der Server
Erweiterbarkeit Mit jedem neuen PC, wird aber zunehmend unübersichtlicher und langsamer Neue Hardware für Server
Vorteile schneller Aufbau relativ kostengünstig Zentrale Steuerung, Datenhaltung
Nachteile die Verfügbarkeit aller Daten kann nicht gewährleistet werden (abhängig davon, welche Knoten gerade online sind) keine zentrale Datensicherung Versionsverwaltung schwierig Datensicherheit problematisch Bei Problemen oder Überlastung kein Zugriff auf Daten Kosten für Server, Installation, Laufzeit und Wartung
Beispiele für Anwendungen Instant Messaging (zum Beispiel ICQ, Skype) File Sharing Social Media Lernmanagementsystem

Tab.2: Peer-to-Peer- und Client-Server-Architekturen im Vergleich

Als ein Architektur- und Service-Modell hat sich zudem Cloud-Computing etabliert. Hierbei wird kein einzelner Server, sondern ein flexibel erweiterbares Cluster aus mehreren Servern herangezogen, auf denen die Anwendungen ausgeführt werden (Guoli&Wanjun, 2010). Rechenleistung und Speicherkapazität können dabei durch das Hinzunehmen weiterer Server stets bedarfsgerecht angepasst werden.

Informationssysteme

Werkzeuge zum Lernen und Lehren

Bei der Einführung von Informationssystemen zum Lernen und Lehren stehen Unternehmen, Hochschulen und andere Bildungseinrichtungen stets denselben Fragen gegenüber:

Zur Beantwortung dieser Fragen und Deckung des daraus entstehenden Bedarfs an Softwarelösungen sind besonders zwei Werkzeugklassen relevant: Werkzeuge für Autorinnen und Autoren (und Lerncontentmanagementsysteme) zum Erstellen von Lerninhalten und Lernmanagementsysteme zur Verwaltung der Lernprozesse.

Andere Werkzeuge, wie kollaborative Systeme oder Weblogs, können ebenfalls, vor allem in informellen Ansätzen, für das Lernen und Lehren verwendet werden, haben aber keine exklusive Ausrichtung auf Lehr- und Lernprozesse bzw. werden in anderen Kapiteln (#systeme, #mobil, #blogging, #ebook, #educast, #kollaboration, #videokonferenz, #virtuellewelt) behandelt.

!

Eine Liste von konkreten Werkzeugen zum Lernen und Lehren finden Sie in der Diigo-Gruppe von L3T https://groups.diigo.com/group/l3t_20 unter #l3t_infosysteme

Informationssysteme

Autorinnen- und Autorenwerkzeuge und Lerncontentmanagementsysteme: Was wird zur Erstellung von Lernmaterialien benötigt?

Materialien für das Lernen am Computer können schon mit einfachen HTML-Editoren und Entwicklungsumgebungen erstellt werden. Die Lehrenden verfügen aber oft nicht über die nötigen (Programmier-)Kenntnisse, um mit diesen einfachen und unspezialisierten Werkzeugen ansprechende Lernmaterialien zu erstellen. Autorinnen- und Autorenwerkzeuge wurden daher speziell dafür entwickelt, um die Anwender/innen bei der multimedialen und didaktischen Aufbereitung der Lerninhalte zu unterstützen (Seufert & Mayr, 2002).

Abb. 3: In Autorinnen- und Autorenwerkzeugen werden verschiedene Medien zu Lernmaterialien aufbereitet
Abb. 3: In Autorinnen- und Autorenwerkzeugen werden verschiedene Medien zu Lernmaterialien aufbereitet

Der Vorteil professioneller Autorinnen- und Autorenwerkzeuge besteht also darin, weitestgehend ohne Programmierkenntnisse ansprechende Lehr- und Lernmaterialien erstellen zu können. Hierzu werden Funktionalitäten bereitgestellt, die es der/dem Lehrenden erlauben, möglichst intuitiv mit den eingesetzten Medien umzugehen (Thome, 2004, 278) und dies weitestgehend, ohne auf externe Werkzeuge zurückgreifen zu müssen.

Seitenumbruch

Die Möglichkeiten zur Überprüfung des Lernerfolgs spielen für viele Autorinnen und Autoren eine große Rolle. Hier soll es möglich sein, in wenigen Schritten Fragen zu erstellen, die automatisch ausgewertet werden können. Die Verfügbarkeit verschiedener Fragetypen wie beispielsweise Multiple- und Single-Choice, Zuordnungsfragen oder Lückentexte ist dabei ebenso wichtig wie die Möglichkeit, den Lernenden je nach Ergebnis ein differenziertes Feedback geben zu können.

Abb. 4: Oberfläche eines Autorinnen- und Autorenwerkzeugs am Beispiel von Lectora. Quelle: chemmedia AG
Abb. 4: Oberfläche eines Autorinnen- und Autorenwerkzeugs am Beispiel von Lectora. Quelle: chemmedia AG

Vorlagen erleichtern das Erstellen einheitlicher Kursabschnitte und die Einhaltung einer konsistenten Navigation.

Um den fertigen Kurs schließlich verteilen zu können, müssen die Kurse so exportiert werden, dass die Lernenden sie bearbeiten können. Hierfür sind zunächst Exportmöglichkeiten als selbstlaufende Anwendungen (zumeist .exe) oder als HTML-Dateien für die Darstellung im Browser geeignet. Um den Kurs über ein Lernmanagementsystem bereitzustellen, sollte er in dem hierfür etablierten Standardformat SCORM exportiert werden können. Dieser E-Learning-Standard ermöglicht den Einsatz von Kursen auf verschiedenen Plattformen und deren Interoperabilität, das heißt, dass beispielsweise Testergebnisse aus dem Kurs heraus an die Bewertungswerkzeuge des Lernmanagementsystems übergeben werden können (siehe auch Kapitel #metadaten).

!

Autorinnen- und Autorensysteme unterstützen die Erstellung von Lernmaterialien (weitestgehend) ohne Programmierkenntnisse. Sie müssen folgende Anforderungen erfüllen:

Für Autorinnen und Autoren bieten solche Werkzeuge oft alle nötigen Funktionalitäten, um Lernmaterialien professionell und in relativ kurzer Zeit zu erstellen. Die Erstellung von Lernmaterialien, insbesondere bei größeren Lehrveranstaltungen oder Trainingsreihen, werden aber immer öfter von Teams von Autorinnen und Autoren übernommen.

Bei der Zusammenarbeit mehrerer Autorinnen und Autoren und anderen steigenden Ansprüchen stößt man schnell an die Grenzen der Einzelplatzlösungen (Kuhlmann & Sauter, 2008, 78):

Abb. 5: Verteilung in unterschiedlichen Formaten
Abb. 5: Verteilung in unterschiedlichen Formaten

In der Praxis: Wann werden mehrere Autorinnen und Autoren benötigt?

Beim Vorliegen einer oder mehrerer folgender Gründe ist die Zusammenarbeit mehrerer Autorinnen und Autoren notwendig (Lorenz &Faßmann, 2010): (a) Die Erstellung der Lernmaterialien ist für eine/n Autor/in zu umfangreich. (b) Für Fachwissen sollen bzw. müssen die jeweiligen Expertinnen und Experten eingebunden werden. (c) Für die Erstellung und Anbindung von Medien müssen Designerinnen und Designer auf die Lernmaterialien zugreifen können. (d) Es werden Übersetzerinnen und Übersetzer für die Bereitstellung der Lerninhalte in andere Sprachen benötigt. (e) Die erstellten Lerninhalte müssen zur Qualitätssicherung von Gutachterinnen und Gutachtern oder Kundinnen und Kunden eingesehen und gegebenenfalls mit Kommentaren versehen werden können.

Zur Erfüllung dieser Ansprüche wurden Werkzeuge entwickelt, die ihren Fokus auf die Verwaltung von Lerninhalten gerichtet haben: die Lerncontentmanagementsysteme (LCMS). Um die Lernmaterialien so zu organisieren, dass sie für den Einsatz in verschiedenen Kontexten und die Verteilung in verschiedenen Formaten geeignet sind, müssen die LCMS eine Reihe von Grundprinzipien umsetzen (Schluep et al., 2003, 8852):

Informationssysteme

Lernmanagementsysteme: Lernende und Kurse verwalten

Lernmanagementsysteme (LMS) unterstützen vor allem die Kurs- und Benutzer/innen-Verwaltung. Hierzu bieten sie nicht nur einen Rahmen zur Darstellung der Kursinhalte (meist in einem Browser), sondern auch ein Rollen- und Rechtemanagement für die Zugriffskontrolle und stellen verschiedene Werkzeuge für die Kommunikation der Lernenden und Lehrenden bereit (Schulmeister, 2005, 10).

Zu den Anforderungen an Lernmanagementsysteme wird immer wieder festgestellt (Schulmeister, 2005, 55ff.;Niegemann et al., 2008, 499), dass diese stark von der Organisationsstruktur abhängig sind, in der das Lernmanagementsystem eingesetzt werden soll. Von einfachen Systemen zur Bereitstellung und zum Austausch von Dokumenten (zum Beispiel die Groupware BSCW) bis hin zu komplexen Systemen zur lebenslangen Kompetenzentwicklung unterscheiden sich die Plattformen stark in Funktionsumfang, (Administrations-)Aufwand und Kosten.

Bei der Auswahl eines Lernmanagementsystems sollten vor allem folgende Aspekte beachtet werden (Schulmeister, 2005, 58ff.):

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

?

Notieren Sie stichpunktartig, wie Sie den Lerninhalt „Wie verhalte ich mich als Autofahrer/in an einer Ampel?“ als Lernmaterial mit einem Autorinnen- und Autorentool umsetzen würden. Dazu werden die notwendigen Informationen in kleine Einheiten zerlegt. Eine mögliche Lösung finden Sie in der Abbildung 6.

?

Können die von Ihnen konzipierten Lernmaterialien für Autofahrer/innen, sehende und blinde Fußgänger/innen sowie Rollstuhlfahrer/innen verwendet werden? Notieren Sie stichpunktartig, wie Sie den Lerninhalt „Wie verhalte ich mich an einer Ampel?“ für die neue Zielgruppe als Lernmaterial mit einem Autorinnen- und Autorentool umsetzen würden.

Abb. 6: Mögliche Lösung für die Zerlegung des Lerninhaltes „Wie verhalte ich mich als Autofahrer/in an einer Ampel?“
Abb. 6: Mögliche Lösung für die Zerlegung des Lerninhaltes „Wie verhalte ich mich als Autofahrer/in an einer Ampel?“

!

Aspekte, die bei der Auswahl eines Lernmanagementsystems beachtet werden sollten, sind: Administration, Didaktik, Evaluation, Kommunikation, Technik und wirtschaftliche Gesichtspunkte.

?

Sie arbeiten in der Personalabteilung eines Unternehmens mit 1.000 Mitarbeiterinnen und Mitarbeitern aus 15 verschiedenen Abteilungen. Ihre Vorgesetzte hat Sie mit der Aufgabe betraut, ein Lernmanagementsystem auszuwählen. Stellen Sie stichpunktartig anhand der obigen Aspekte einen Kriterienkatalog mit K.O.-Kriterien auf, die unbedingt durch das LMS erfüllt werden sollen.

In Hinblick auf den letzten Aspekt muss oftmals eine Grundsatzentscheidung getroffen werden, ob man sich für eine Open-Source-Lösung oder für ein kommerzielles System entscheidet. Bei Open-Source-Lösungen entfallen zwar die Anschaffungskosten für die Software, jedoch entstehen zumeist höhere Personalkosten sowie laufende Kosten zur Wartung des Systems: Es wird empfohlen, mindestens zwei Mitarbeiter/innen für die Programmiersprache des LMS vor Ort zu haben, um Erweiterungen, Anpassungen und Updates durchführen zu können. Kommerzielle Systeme sind in der Anschaffung oft teuer, Installation und Einweisung sind aber häufig Bestandteil des Kaufvertrags. Zudem sind Supportverträge inklusive Wartungen und Updates üblich.

Neben dem Kriterienkatalog von Schulmeister mit über 150 Unterkategorien (Schulmeister, 2005, 58ff.) sind in der Vergangenheit für die unterschiedlichen Einsatzziele und Bedürfnisse weitere Kriterienkataloge entstanden, nach denen Lernmanagementsysteme bewertet werden können (Baumgartner et al., 2002).

Aspekte ILIAS (Stand: Version 4.3.x) Moodle (Stand: Version 2.5) OLAT (Stand: Version 7.2)
Betriebssystem Linux Linux, Windows, Solaris, Mac OS, Netware 6 Linux, Windows, Mac OS X, Solaris, FreeBSD
Datenbank MySQL mit DBXML-Unterstützung, z. B. MySQL, PostgreSQL u. a. MySQL, PostgreSQL
Skriptsprache PHP PHP Java-Framework mit PHP-basiertem Kurssystem
Weitere Voraussetzungen Image Magick ab 6.3.8-3, Info-Zip und Info-Unzip Apache Tomcat Web-Container mit Java-SDK

Tab.3: Technische Anforderungen von gängigen Open-Source-LMS. Quelle: Dokumentationen von ILIAS (ILIAS, 2013), Moodle (Moodle, 2013) und OLAT (OLAT, 2013)

?

Welche technischen Anforderungen benötigen die gängigen Open-Source-LMS? Vergleichen Sie Ihre Ergebnisse mit der Darstellung in Tabelle 3.

Informationssysteme

Lernen mit Informationssystemen: Zusammenspiel und Problempunkte

Bei der Auswahl von Informationssystemen zum Lernen und Lehren müssen diese nicht nur einzeln einer Reihe von Anforderungen genügen, es sollte auch darauf geachtet werden, dass sie problemlos zusammen eingesetzt werden können. So sollte sich das Datenformat, das mit dem Autorentool exportiert wird, problemlos in das Lernmanagementsystem integrieren lassen. Inhalte dürfen nicht verzerrt dargestellt werden, nur weil das LMS eine bestimmte Fenstergröße dafür vorsieht. Ebenso sollte die Bewertung von Tests, die mit einem Autorenwerkzeug erstellt und beispielsweise als SCORM-Paket exportiert wurden, auch von den Bewertungswerkzeugen des Lernmanagementsystems verarbeitet werden.

Abb. 7: Zusammenspiel von Autorenystemen und Lernmanagementsystem
Abb. 7: Zusammenspiel von Autorenystemen und Lernmanagementsystem

In der Praxis: Praxisbeispiel eines laufenden Lernmanagementsystems

An der TU Graz (Ebner, 2008) wird die Open-Source-Software WBT-Master unter dem Namen TeachCenter eingesetzt (siehe Abbildung 8). Es handelt sich hier um eine Client-Server-Architektur, basierend auf einer AJAX-Lösung, als Programmiersprache kommt Java/JavaScript zum Einsatz. AJAX (Akronym für die WorteAsynchronousJavaScriptand XML) wird verwendet, wenn es darum geht, selektiv („nach und nach“, „je nach Bedarf“) Daten an den Browser zu senden, was mit klassischen Technologien immer ein Neuladen der gesamten Webseite und den damit verbundenen Zeitaufwand erfordern würde. DerVorteil dieser Architektur ist die Reduzierung der Datenmenge der Serverantworten (durch die Vorselektion) und damit zwangsläufig von Ladezeiten sowie die verstärkte Nutzung der Clients (Internetbrowser der jeweiligen Nutzer/innen). Besonders bei einem großen System mit hohen Nutzer/innen-Zahlen und deren parallele Aktivitäten ist dies von entscheidender Bedeutung.

An der TU Graz werden in etwa 20.000 Nutzerinnen und Nutzer verwaltet, die einen Datenverkehr von weit über 50GB pro Tag verursachen. Im Durchschnitt sind in den Kernzeiten 400 bis 500 Nutzer/innen parallel am System aktiv. Bei diesen Zahlen wird ersichtlich, dass die Performance ein wesentlicher Faktor eines LMS-Systems ist, da die Voraussetzung von zufriedenen Nutzer/innen von E-Learning-Inhalten akzeptable Reaktionszeiten des LMS sind (<1 Sekunde nach einem Klick).

Das TeachCenter der TU Graz verwendet, wie die Mehrzahl der anderen Lernmanagementsysteme auch, eine Client-Server Architektur.

Abb. 8: Screenshot einer Kursseite im TeachCenter
Abb. 8: Screenshot einer Kursseite im TeachCenter

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

In der Praxis: Überlegungen bei der Entscheidung für ein Lernmanagementsystem

Die folgende Beschreibung von Lernmanagementsystemen ist fiktiv, soll jedoch die Abwägung von Vor- und Nachteilen in der Praxis verdeutlichen.

1. LernenMitSpaß – Die Open-Source-Lösung
Das LMS kann kostenlos heruntergeladen und selbst installiert werden. Das Basispaket bietet eine einfache Kurs- und Nutzer/innen-Verwaltung. Über eine Reihe von Plug-Ins, die von der Benutzer/innen-Community von LernenMitSpaß entwickelt wurden, können weitere Funktionalitäten hinzugefügt werden, wie beispielsweise ein komplexes Rollenmanagement, die Integration von Tests oder Statistiken zu Lernerfolgen. Darüber hinaus besteht durch die Open-Source-Lizenz die Möglichkeit, selbst Erweiterungen zu entwickeln.

Vorteile: sehr kostengünstig, erweiterbar, kann grundsätzlich an alle Bedürfnisse angepasst werden, Installation und Betrieb durch das Unternehmen selbst

Nachteile: eventuell zusätzlicher Personalbedarf, durch Anpassungen und Neuentwicklung von Erweiterungen durch Personalkosten eventuell sehr teuer

2. LernenMitSystem– Die Standardlösung
Das LMS wird kommerziell angeboten und laufend weiterentwickelt. Es beinhaltet ein Kurs- und Nutzer/innen-Management, erlaubt die Erstellung und Auswertung von Tests und liefert kleine Statistiken zum Lernfortschritt der Mitarbeiterin bzw. des Mitarbeiters (Lernzeit, Durchschnitt der Lernergebnisse). Für die Kommunikation können E-Mails und Kursforen benutzt werden. Der Zugriff erfolgt über ein eigenes Programm, das auf dem Rechner der Mitarbeiter/innen installiert werden muss. Das LMS-Unternehmen übernimmt die Installation und Pflege des LMS auf einem Server Ihrer Firma, sowie kleine Anpassungen (zum Beispiel Verwendung des Firmenlogos und der Firmenfarben). Der Kaufpreis des LMS inkl. Installation, Einrichtung, 10 h Support und 1.000 Nutzer/innen-Lizenzen für die Zugriffsprogramme beträgt 15.000 Euro. Weitere Nutzer/innen-Lizenzen, Anpassungen, Supportstunden und Schulungen für Mitarbeiter/innen können bei Bedarf hinzugekauft werden. Hinzu kommen außerdem 1.500 Euro im Jahr für Wartung und Updates.

Vorteile: DieEinrichtung erfolgt durch ein kompetentesUnternehmen, es kann also ein ausreichender Funktionsumfang erwartet werden, das heißtbeispielsweise Skalierbarkeit, Zugriff über eigenes Programm (eventuell relevant für Firmen mit eingeschränkten Internetzugriff, da keine mühsame Freischaltung einzelner Seiten nötig ist, Daten auf dem eigenem Server liegen), einmaliger Kaufpreis etc.

Nachteile: Je nach Budget ist es eventuell zu teuer in der Anschaffung, je nach Anforderungskriterien besteht weiterer Anpassungsbedarf, fallen weitere Anschaffungskosten für einen eigenen Server an;dabei sind Anpassungen und Supportstunden schwer abschätzbar.

3. LernenMitStrategie– Die Profi-Lösung
Das LMS wird kommerziell angeboten und laufend weiterentwickelt. Im Zentrum steht ein komplexes Kompetenzmanagement, dass die Planung der Weiterbildungsangebote für alle Mitarbeiter/innen an vorher definierten Personalentwicklungsplänen ausrichtet. Über Schnittstellen kann es an Personaldatenbanken und Dokumentenmanagementsysteme angebunden werden. Das LMS-Unternehmen übernimmt die Installation und Pflege des LMS auf einem seiner eigenen Server sowie besprochene Anpassungen, die Abbildung Ihrer Unternehmensstruktur auf die Nutzer/innen-Verwaltung und den Import der bereits bei Ihnen verfügbaren Personalentwicklungspläne und Lerninhalte. Der Mietpreis des LMS inkl. Installation, Einrichtung, Support und 1.000 Nutzer/innen-Accounts für den webbasierten Zugriff beträgt 40.000 Euro im Jahr. Weitere Nutzer/innen-Accounts, Anpassungen und Schulungen für Mitarbeiter/innen können bei Bedarf hinzugekauft werden.

Vorteile: Vollbetrieb durch kompetentes Unternehmen, individuell angepasster Funktionsumfang, skalierbar, hochkomplexe Nutzer/innen- und Lernprozessverwaltung

Nachteile: Jahresmiete, Daten auf fremden Server, eventuell für das Unternehmen zu komplex

Wie Sie gesehen haben, ist die Entscheidung zwischen Open-Source und kommerziellen Produkten immer eine individuelle Antwort auf eine offene Fragestellung und muss auf die einzelne Situation angepasst werden.

Informationssysteme

Literatur

Webtechnologien

Technische Anforderungen an Informationssysteme

Dieses Kapitel gibt eine Einführung in die technischen Grundlagen von Webtechnologien, welche bei Lernsoftware Verwendung finden können. Basierend auf der zugrunde liegenden Infrastruktur des Internets hat vor allem das World Wide Web seit der Jahrtausendwende alle Arten von Informationssystemen, auch solche für das Lernen und Lehren, nachhaltig beeinflusst. Dementsprechend ist ein Grundverständnis der entsprechenden Technologien und technischen Anforderungen von Vorteil, um Chancen und Grenzen von webbasierter Lernsoftware zu erläutern. Auf Basis der Architekturen und Protokolle des World Wide Web haben sich in den letzten Jahren Technologien wie Webanwendungen und Webservices entwickelt, die größere und reichhaltigere Applikationen im Web ermöglichen als zu dessen Anfangszeit. Diese Möglichkeiten führten einerseits zu der Entwicklung von Rich Internet Applications als „Internetanwendungen mit Desktop-Feeling“ und andererseits zum Aufkommen von Mashups, in welchen diverse Inhalte und Funktionalitäten anderer Applikationen in innovativen Szenarien neu kombiniert werden. Beide Ansätze sind in der aktuellen Entwicklung von Informationssystemen für das Lernen und Lehren unabdingbar.

Webtechnologien

Einleitung

Das World Wide Web (siehe #WWW) bzw. das Internet hat in den letzten Jahren einen großen Stellenwert in unserer heutigen „Informationsgesellschaft“ eingenommen. So verwundert es auch nicht, dass ein großer Teil der aktuellen Umsetzungen von Informationssystemen für das Lernen und Lehren (siehe #infosysteme) auf Webtechnologien basiert. Auch Trends wie Soziale Medien basieren auf Webtechnologien und sind inzwischen fixe Bestandteile verschiedener Lern- und Lehransätze mit Technologien.

Für das Verständnis der technischen Anforderungen an speziell für das Lernen und Lehren entwickelten Informationssystemen ist demnach auch ein zumindest grundlegendes technisches Verständnis der darunter liegenden Webtechnologien notwendig. Bedingt durch die Architektur und Geschichte des World Wide Web bieten diese Ansätze zwar ein großes Potenzial, sind aber auch mit einigen technischen Einschränkungen verbunden. Dieses Kapitel soll Basiswissen über diese Technologien vermitteln und das Interesse an detaillierten weiterführenden Informationen zu den angesprochenen Technologien, welche in einschlägiger Fachliteratur nachgelesen werden können, wecken.

Webtechnologien

Grundlegende Technologien

Das Internet ist eine weltweite Verknüpfung von Datennetzen, welche Ende der 1960er Jahre in den USA von der vom DARPA (Defense Advanced Research Projects Agency) initiiert wurde und aus dem daraus entstandenen ARPANET (Advanced Research Projects Agency Network) hervorging (Cerf et al., 2012).

!

Der Begriff Internet als solcher bezeichnet das entstehende „interconnected network“ zwischen unabhängigen und weltweit verteilten Computernetzen.

Die Kommunikation in einem Computernetzwerk wird über Protokolle geregelt. Ein Protokoll ist eine Regelvorschrift, welche den Datenaustausch und die Kommunikation zwischen Computern detailliert beschreibt. In der Netzwerkkommunikation hat sich eine Aufteilung der Verantwortung auf einzelne aufeinander aufbauende Protokolle als sinnvoll erwiesen. Diese Aufteilung kann man über das OSI-Schichtenmodell (Open System Interconnection) der internationalen Standardisierungsgesellschaft ISO (International Standardization Organisation), in dem Protokolle einer Ebene nur jeweils mit Protokollen der benachbarten Ebenen in Kontakt treten müssen, einheitlich beschreiben.

Die Ebenen des OSI-Schichtenmodells (siehe Tabelle 1) beschreiben die Kommunikation in verschiedenen Abstraktionsstufen. So beschäftigt sich die unterste Schicht (1) mit der physikalischen Übertragung, während sich die oberste Schicht (7) mit Anwendungen auseinandersetzt. Grob werden diese Schichten in anwendungs- und transportorientierte Schichten unterteilt. In den anwendungsorientierten Schichten finden sich Protokolle, welche dieeigentliche Benutzer/innen-Interaktion in (Web-)Anwendungen beschreibt. Die transportorientierten Schichten bilden die eigentlichen „Schienen“ des darunterliegenden Datenverkehrs. Im Rahmen dieses Kapitels werden wir uns nur mit anwendungsorientierten Protokollen beschäftigen. Die Kommunikation vieler Programme auf der Anwendungsschicht erfolgt nach dem Client-Server-Prinzip (siehe #infosysteme).

Schicht Ebene Protokolle
7 Anwendungsschicht Anwendungsorientierte Schichten HTTP(S)
6 Darstellungsschicht FTP
5 Kommunikationsschicht POP, SMTP
4 Transportschicht Transportorientierte Schichten TCP UDP
3 Vermittlungsschicht IP
2 Sicherungsschicht Ethernet
1 Physikalische Schicht

Tab. 1: OSI-Schichtenmodell

Basierend auf dem Internet als Verbindung unterschiedlicher Computernetze ermöglichen diverse Protokolle den Zugriff auf eine Vielzahl von Anwendungen. Die wohl prominenteste dieser Anwendungen ist das World Wide Web.

Webtechnologien

Das World Wide Web (WWW)

Seit seiner Entwicklung im Jahr 1989 durch die Forschergruppe um Sir Tim Berners-Lee (Cailliau, 1995), wurde aus dem World Wide Web die wohl bekannteste und meist benutzte Anwendung des Internets. In vielen Fällen wird der Begriff Internet, obwohl er eigentlich nur die darunterliegende Netzwerkinfrastruktur bezeichnet, als Synonym für das World Wide Web verwendet. Beim WWW handelt es sich in seiner Grundstruktur um eine verteilte Sammlung von Dokumenten, welche unter Verwendung von Internet-Protokollen über eine Anwendung abrufbar sind.
Diese Dokumente sind untereinander mittels #Hyperlinks verknüpft und bilden dadurch ein weltweites Netz an Informationen. Die Anwendung, mit der auf diese Dokumente, man spricht häufig von Webseiten, zugegriffen werden kann, wird als Browser bezeichnet. Bekannte Browser sind der Internet Explorer von Microsoft, Chrome von Google, Firefox von Mozilla, Safari von Apple oder Opera von Opera Software.

!

Weitere Browser können Sie beispielsweise bei Wikipedia finden
(http://de.wikipedia.org/wiki/Liste_von_Webbrowsern) oder in der L3T-Gruppe bei Diigo
https://groups.diigo.com/group/l3t_20 unter #l3t_webtech.

Jedes Dokument im Web wird durch eine URL (Uniform Resource Locator) identifiziert. Diese URL besteht im Web zumeist aus drei Komponenten: Protokoll, Host und Pfad.

!

Die Komponenten der URL sind folgendermaßen angeordnet: protokoll://host/pfad. Der Host-Teil gibt die Adresse des Webservers, auf dem die Dokumente gespeichert sind, an. Er kann darüber hinaus einen Port, das heißt einen ‚Anschluss‘ am Server (zum Beispiel http://www.example.org:80), beinhalten.
Der Pfad-Teil kann um einen query string, das heißt zusätzliche Informationen wie die Inhalte einer Suchanfrage (z. B. http://www.example.org:80/demo/example.cgi?land=de&stadt=aa),
erweitert sein.

?

Identifizieren Sie die drei Teile der URL http://de.wikipedia.org/wiki/Wikipedia:Hauptseite

Hypertext Transfer Protocol (HTTP)

Der Browser verständigt sich mit dem Webserver, auf dem die Dokumente gespeichert sind, über das Hypertext Transfer Protocol. Wie jedes Protokoll beschreibt HTTP den Aufbau der Nachrichten vom Client an den Server. Die Kommunikation erfolgt immer über Anfragen des Clients an den Server und zugehörige Antworten. Alle Nachrichten werden als Klartext, also unverschlüsselt, übermittelt.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Durch diesen Aufbau der Kommunikation ist eine zentrale Problematik der Entwicklung von Webanwendungen bedingt: Der Server kann nicht von sich aus mit dem Client kommunizieren, da er immer auf eine Anfrage angewiesen ist. Wartet eine Anwendung nun auf ein bestimmtes Ereignis (zum Beispiel das Ergebnis einer aufwendigen Berechnung), kann der Server den Client nicht über dessen Eintritt verständigen, sondern der Client muss in regelmäßigen Abständen Anfragen über den Status an den Server schicken. Dies bringt natürlich einerseits zusätzlichen Netzwerkverkehr und anderseits zusätzliche Arbeitszeit des Servers mit sich. Bei HTTP handelt es sich um ein zustandsloses Protokoll. Alle Anfragen sind somit voneinander unabhängig zu betrachten. Für die meisten Anwendungen im Web ist es aber notwendig, mehrere Anfragen in Zusammenhang zueinander zu sehen. So besteht zum Beispiel der Bestellvorgang in einem Webshop durchaus aus mehreren sequentiellen Anfragen (Auswahl der Waren, Eingabe der Adresse, Bestätigung des Kaufes). Solche Zusammenhänge können nicht durch das Protokoll selbst verwaltet werden, sondern müssen durch die Anwendungen gehandhabt werden, welche ihre Daten über HTTP übertragen. Hierzu können Sitzungen (Sessions) verwendet werden, in denen eine eindeutige ID mit jeder Anfrage versendet wird. Eine andere Möglichkeit ist die Verwendung von Cookies, mit denen der Browser persistente Informationen (zum Beispiel Kundinnen- und Kundendaten) zu einem Webserver lokal speichern kann. Üblicherweise beginnen solche Sessions mit der Anmeldung mittels Login und Passwort und enden durch Abmeldung oder wenn der Browser geschlossen wird.

!

HTTP ist ein zustandsloses Anfrage-/Antwort-Protokoll und dient zur Übermittlung von Daten im WWW.

HTTPS

Die Übertragung der Daten in Klartextform bei HTTP ist nicht in jedem Fall wünschenswert. So könnten sensible Daten wie zum Beispiel Kennwörter durch beliebige ‚Zuhörer /innen‘ abgefangen werden. Aus diesem Grund wurde das Hypertext Transfer Protocol Secure (HTTPS) als Verfahren entwickelt, um Daten im Web abhörsicher zu übermitteln.
Das Protokoll ist an sich identisch zu HTTP, allerdings werden die Daten mittels des Protokoll Secure Socket Layer bzw. Transport Layer Security (SSL/TLS) verschlüsselt. Zu Beginn der verschlüsselten Verbindung muss sich bei HTTPS der Server identifizieren. Dies geschieht über ein Zertifikat, welches die Identität bestätigen soll. Bei der ersten Anfrage an einen Webserver kann es notwendig sein, dass die Authentizität dieses Zertifikates bestätigt werden muss.

HTML

Die eigentlichen Dokumente, die über HTTP vom Server an den Client übermittelt werden, sind meist HTML-Dokumente. Die Hypertext Markup Language (HTML) ist eine Auszeichnungssprache, welche Dokumentinhalte beschreibt. Der Browser zeigt anhand von HTML und der mitgelieferten Formatierungsinformation diese Dokumente an. Üblicherweise wird also das Aussehen der HTML-Dokumente in einer separaten Datei beschrieben. Diese Cascading Style Sheets (CSS) werden ebenfalls vom Browser über HTTP angefordert. Mit HTML5 lassen sich neben Texten, Tabellen und Bildern auch multimediale Inhalte (Videos, Animationen) beschreiben, die dann unmittelbar vom Browser wiedergegeben werden können. Für die Darstellung solcher Inhalte waren bisher zusätzliche Softwareprodukte wie etwa Adobe Flash notwendig.

Webanwendungen

Im Laufe der Zeit haben sich die Anforderungen an Informationssysteme im Web von der bloßen Zurverfügungstellung von Dokumenten in Richtung ausgefeilter Programmlogik weiterentwickelt. Wie im Kapitel #infosysteme aufgezeigt, erfordern natürlich auch Informationssysteme für das Lernen und Lehren solch eine Programmlogik. Diese Programme, die auf einem Webserver ausgeführt werden, werden Webanwendungen genannt.

Wie bei statischen Webseiten, das heißt reinen HTML-Dokumenten, wird ein Browser zur Interaktion mit dem Webserver verwendet und die Daten werden mittels HTTP(S) übermittelt. Im Unterschied zu einer einfachen Webseite übermittelt der Webserver beim Aufruf der URL allerdings nicht ein bereits vorliegendes Dokument, sondern ruft ein Programm auf, welches aus einer Vorlage für Inhalt und Formatierung sowie aus variablen Daten dynamisch ein Dokument erstellt und an den Client übermittelt.

Der Browser übernimmt in diesem Fall also die Rolle der Benutzer/innen-Schnittstelle für ein auf dem Server ausgeführtes Programm. Mit Webanwendungen kann komplexe Software realisiert werden, welche clientseitig nur einen Webbrowser bzw. entsprechende Plug-Ins benötigt.
Für die Entwicklerin oder den Entwickler der Software wird die Softwarewartung erheblich vereinfacht, da Anpassungen nur am Server erfolgen müssen. Für die Benutzerinnen und Benutzer ergibt sich der Vorteil, dass die zusätzliche Installation einer Software weitestgehend entfällt.

!

Webanwendungen sind Computerprogramme, die auf einem Webserver laufen und den Browser als Benutzerschnittstelle verwenden.

Andererseits hat dieser Ansatz auch einige Nachteile. So ist eine ständige Internetverbindung mit ausreichender Bandbreite nötig. Zudem kann der Server, bedingt durch die Tatsache, dass HTTP auf dem Anfrage-/Antwort-Prinzip basiert, nicht selbstständig Informationen an die Clients senden, sondern ist auf periodische Anfragen angewiesen.
Zu guter Letzt bedeutet unter anderem das zustandslose Design des Protokolls, dass die Sicherheit der Webanwendung ein nicht zu vernachlässigender zentraler Bestandteil der Entwicklung der Software sein muss, um vor einer Vielzahl von möglichen Angriffsszenarien, wie das Ausspähen von Passwörtern, geschützt zu sein.

Webservices

Webservices sind eine spezielle Art von Webanwendungen, die der Bereitstellung von Daten für andere Applikationen dienen (World Wide Web Consortium, 2004). Sie sind üblicherweise Application Programming Interfaces (API) und stellen als solche eine einheitlich definierte Schnittstelle für fremde Anwendungen zur Verfügung, um auf die Funktionalität des Service zuzugreifen, indem der Service Daten bereitstellt.

In Zusammenhang mit Informationssystemen für das Lernen und Lehren bietet die Integration solcher Webservices innovative Ansätze für die Einbindung externer Ressourcen und Funktionalitäten in ein derartiges Informationssystem (Vossen & Westerkamp, 2003). Anders als bei Webanwendungen werden bei Webservices üblicherweise keine HTMLDokumente vom Server geladen, da für die aufrufenden Applikationen Formatierungen sowie die Lesbarkeit für menschliche Benutzer/innen irrelevant sind und der Fokus rein auf dem Inhalt liegt.

Der Grundgedanke von Webservices ist die Möglichkeit der automatischen Verarbeitung von Daten im Web durch Softwareagenten, welche lose gekoppelt Aufgaben für Benutzer/innen ausführen. Webservices stellen ihre detailliert beschriebene Funktionalität hierbei anderen Anwendungen zur Verfügung, seien dies autonome Agenten, Webanwendungen oder andere Webservices. Dadurch können Entwickler/innen bereits bestehende Funktionalitäten in ihren eigenen Anwendungen verwenden (Mashup, siehe Abschnitt 6).

Die technologische Umsetzung von Webservices erfolgt meist über eine der folgenden Möglichkeiten:

?

Beschreiben Sie die Unterschiede zwischen Webanwendungen und Webservices Vergleichen Sie Ihre Antwort mit Tabelle 2.

Webanwendung Webservice
Zielgruppe: (menschliche) Benutzer/innen Zielgruppe: andere Applikationen
Ausgabe als HTML Ausgabe als XML o.ä. für Maschinen optimierte Formate
Clientseitiges Programm: Browser Verarbeitung in anderen Applikationen

Tab. 2: Unterschiede von Webanwendung und Webservice

Webservices verwenden als Ausgabeformat häufig XML-Dokumente. Die EXtensible Markup Language (XML) beschreibt eine sehr allgemeine, flexible und für individuelle Bedürfnisse erweiterbare Auszeichnungssprache. Wie HTML dient sie zur Darstellung strukturierter Inhalte, ist aber in erster Linie nicht für die menschenlesbare Darstellung, wie beispielsweise in Webservices, gedacht. Sie ist von konkreten Plattformen und Implementierungen unabhängig und durch ihre Charakteristik als Metasprache vielseitig verwendbar.
Letzteres bedeutet, dass sich auf Basis von XML durch die anwendungsspezifische Definition und Verwendung eines Schemas Datenaustauschformate, man spricht von Dialekten, für spezialisierte Anwendungen definieren lassen.

Webtechnologien

Einführung in die Applikationsentwicklung für das Web

Die Entwicklung von Webapplikationen und -services kann generell in zwei Gruppen von Ansätzen unterteilt werden. Bei serverseitigen Ansätzen erfolgt die Verarbeitung der Programmlogik am Webserver, der Client, und damit der Benutzer bzw. die Benutzerin, erhält lediglich das Ergebnis. Bei clientseitigen Ansätzen erfolgt zumindest ein Teil des Programmablaufes am Rechner der Benutzer/innen. In realen Anwendungen wird meist eine Kombination von Ansätzen beider Gruppen verwendet.

Serverseitige Ansätze

Der Vorteil von serverseitigen Ansätzen liegt darin, dass die Benutzer/innen außer einem Browser keine weiteren Programme benötigen. Der eigentliche Programmcode wird serverseitig verarbeitet und das Ergebnis, meist ein (X)HTML-Dokument, an den Client gesandt. Der Nachteil liegt in der Verminderung der Reaktionsgeschwindigkeit. Einerseits erfordert jede Aktion der Nutzerin bzw. des Nutzers einen erneuten HTTP-Request (Anfrage) und damit einen neuen Aufruf der Seite. Andererseits benötigt das Ausführen der Programmlogik Rechenzeit am Server und vermindert somit zusätzlich dessen Reaktionszeit.

PHP ist der heute wohl am meisten verbreitete serverseitige Ansatz für Webapplikationen. Die Abkürzung, ursprünglich ‚Personal Home Page tools‘, ist ein rekursives Akronym für PHP, ‚Hypertext Preprocessor‘ (The PHP Group, 2010). Es handelt sich bei PHP um eine Skriptsprache, das heißt, der eigentliche Programmcode wird nicht zu einem Bytecode kompiliert (der direkt vom Rechner ausgeführt werden kann), sondern bei jedem Aufruf von einem Interpreter neu verarbeitet. Dieser Performance-Nachteil kann aber durch optionale Erweiterungen der Software kompensiert werden. PHP-Programmcode wird innerhalb der Dokumente durch ein vorangestelltes am Ende des Codes gekennzeichnet. Der Interpreter ignoriert Inhalte außerhalb dieser Begrenzungen und übermittelt diese unverändert an den Client. So kann Programmlogik beispielsweise direkt in HTML-Auszeichnungen eingebettet werden.

Seine Verbreitung hat PHP mehreren Aspekten zu verdanken. Einerseits steht es im Rahmen vieler günstiger Webhosting-Angebote vorinstalliert zur Verfügung, da es einfach zu installieren, zu warten und in bestehende Webserver zu integrieren ist. Andererseits ist PHP für Entwickler/innen schnell zu erlernen und sehr flexibel. Nachteile liegen in der Tatsache, dass PHP potentiell erlaubt, schlechter skalierbare und unsichere Webanwendungen zu entwickeln, auch wenn die konkrete Umsetzung einen deutlichen Einfluss auf die Skalierbarbeit und Sicherheit haben kann. Speziell unerfahrenen Entwicklerinnen und Entwicklern fällt es mit anderen Technologien leichter, auf die Aspekte Skalierbarkeit und Sicherheit Rücksicht zu nehmen, da sie dort zur Einhaltung entsprechender Regeln gezwungen werden.

Java Servlets basieren auf der objektorientieren Programmiersprache Java. Sie sind Java-Klassen (logisch gekapselte Teile von Programmcode), welche auf einem Server für die Abarbeitung von Anfragen der Clients zuständig sind. Als Antwort auf diese Anfragen liefern Servlets dynamisch generierte HTML-Dokumente. Anders als bei PHP werden diese Programme nicht zur Laufzeit interpretiert, sondern liegen bereits kompiliert vor, was die Abarbeitung beschleunigt.

Obwohl die Entwicklung mit Java die Einarbeitung in eine komplexere Technologie bedeutet, bietet diese Technologie einige Vorteile. So kann sie durch Anwendung der richtigen Architektur große Verbesserungen in Skalierbarkeit und Erweiterbarkeit bedeuten. Um abgearbeitet zu werden, benötigen Java Servlets einen Servlet Container, wie Apache Tomcat, der den einfachen Webserver ersetzt. Diese technologische Einschränkung ist auch der Grund dafür, dass Java Servlets eher bei großen (Business-)Anwendungen als bei kleinen und mittleren Webanwendungen verwendet werden. Nur wenige Webhoster/innen bieten Pakete mit einem Servlet Container an, da die Installation und die Administration aufwendiger sind.

Java Server Pages (JSP) sind eine weitere auf Java basierende Technologie. Bei klassischen Servlets ist die Ausgabe der resultierenden Webseiten recht aufwendig. Syntaktisch wird bei JSP, ähnlich wie bei PHP, der Java Programmcode mit <%@ und %> abgegrenzt. Der Rest des Dokumentes wird nicht interpretiert und enthält die HTML-Beschreibung der Webseite. Somit sind JSP-Seiten ähnlich den Servlets, erlauben jedoch die Kombination von Programm- und HTML-Code in einem Dokument und erleichtern so, beide Technologien miteinander zu kombinieren.

Active Server Pages (ASP) war ursprünglich ein PHP ähnlicher Ansatz der Firma Microsoft. In der aktuellen Version ASP.NET basiert die Technologie auf dem Microsofts .NET- Framework. Die eigentlichen Anwendungen können hierbei in verschiedenen .NET-Programmiersprachen erstellt werden. Gebräuchlich sind hierbei C# (C Sharp) und VB.NET (Visual Basic.NET). Anders als bei PHP werden bei ASP.NET Programmcode und HTML voneinander getrennt. Da der Programmcode dadurch kompiliert vorliegen kann, wird die Abarbeitung beschleunigt. Der Nachteil von ASP.NET liegt in der Tatsache, dass die Technologie sowohl proprietär als auch kostenpflichtig ist und darüber hinaus einen Microsoft Webserver erfordert.

Clientseitige Ansätze

Im Gegensatz zu serverseitigen Ansätzen wird hier die Programmlogik direkt auf dem Client abgearbeitet. Dies bietet den Vorteil, dass sowohl weniger Datenverkehr notwendig ist als auch die Ressourcen des Webservers geschont werden. Von Nachteil ist allerdings, dass clientseitig eine komplexere Software erforderlich ist, der Client entsprechend leistungsfähig sein muss, um die Programme abarbeiten zu können, und potentiell sicherheitskritische Berechnungen nur auf der Server-Seite durchgeführt werden sollten.

Die wohl wichtigste Basistechnologie in diesem Zusammenhang ist JavaScript. Der Interpreter für diese Sprache ist bereits in den Browser integriert, wodurch keine zusätzliche Softwareinstallation notwendig ist. Allerdings sind diese Interpreter je nach Browser unterschiedlich, was für die Entwicklung der Software zusätzlichen Aufwand bedeutet, um JavaScript-Programme auf allen (beziehungsweise möglichst vielen) Browsern lauffähig (‚browsersave‘) zu machen. JavaScript-Programme können entweder direkt in HTML-Seiten integriert sein oder in eigene Dateien ausgelagert werden. Die implementierte Funktionalität kann hierbei von einfachen Aufgaben, wie der Validierung von Formulareingaben, bis hin zu dynamischer Manipulation der vom Webserver übertragenen Webseite reichen.

Asynchronous JavaScript and XML (AJAX) bezeichnet ein Konzept von Webanwendungen, bei denen JavaScript eingesetzt wird, um Informationen von einem Webserver anzufordern. Bei klassischen Webseiten muss wiederum für jede Aktion vom Client eine Anfrage erstellt und die Antwort des Servers vom Browser interpretiert werden. Dies erfordert ein komplettes Neuladen der Seite, auch wenn sich nur kleine Teile ändern. Mit AJAX werden vom Webserver nur mehr Teilinhalte angefordert. Diese werden als XML-Dokumente übermittelt und anhand der XMLStruktur interpretiert. AJAX manipuliert nun die bereits geladene Seite und ändert nur jene Daten, die wirklich notwendig sind.
Dadurch erhält man wesentlich performantere (‚schnellere‘) Applikationen, mit denen ein Verhalten ähnlich zu Desktop-Anwendungen (in ‚KlickGeschwindigkeit‘) erreicht wird. Dies führte im nächsten Schritt zu RIA.

Als ‚Rich Internet Application‘ (RIA) bezeichnet man jene Webanwendungen, welche durch clientseitige Anwendung von JavaScript Möglichkeiten wie vergleichbare DesktopAnwendungen bieten. So ist es zum Beispiel mit diesem Ansatz möglich, Office-Anwendungen als Webanwendungen zu implementieren. Anders als bei Desktop-Anwendungen müssen diese allerdings nicht installiert werden und bieten die Möglichkeit, auf jedem Rechner, welcher über einen kompatiblen Browser verfügt, ausgeführt zu werden (sind also unabhängig vom verwendeten Betriebssystem). Die Daten werden hierbei zentral auf dem Server hinterlegt. Die Interaktion mit dem Webserver ist auf ein Minimum beschränkt, was flüssiges Arbeiten mit RIA ermöglicht.

?

Stellen Sie die Vor- und Nachteile von server- und clientseitigen Ansätzen gegenüber. Vergleichen Sie Ihre Antwort mit Tabelle 3.

Serverseitiger Ansatz Clientseitiger Ansatz
Vorteile unabhängig von clientseitiger Softwareausstattung gleiches Verhalten auf allen Clients Reaktionszeiten ähnlich zu Desktop-Anwendungen nur benötigte Inhalte werden geladen und in die aktuelle Seite integriert
Nachteile jede Aktion erfordert einen Aufruf serverseitiger Funktionalität jede Aktion erfordert komplettes Neuladen der aktuellen Seite Verhalten von Browser (JavaScript Engine) abhängig Sicherheit der Anwendungen ist aufwendiger zu gewährleisten

Tab.3: Vor- und Nachteile des serverseitigen und des clientseitigen Ansatzes

Webtechnologien

Vor Gebrauch gut schütteln — Syndikation und Integration

Moderne Webapplikationen verdanken ihre Verbreitung großenteils der Tatsache, dass ihre Verknüpfung zentraler Bestandteil ihrer Funktionalität ist. Diese Verknüpfung (Syndikation) geht über einfache Hyperlinks weit hinaus: Inhalte und Funktionalitäten werden zur Verfügung gestellt und in andere Web-Applikationen integriert. So wird eine Kreativität bei der Erstellung von neuen Applikationen ermöglicht, wie sie ohne diese Offenheit und den daraus resultierenden Vorteil, bestehende Funktionalität nicht erneut selbst implementieren zu müssen, nur schwer vorstellbar wäre. Die Syndikation mehrerer fremder Funktionalitäten oder Integration fremder Inhalte in eine Webapplikation werden als Mashup bezeichnet. Dieser Begriff wurde ursprünglich in der Musikbranche verwendet, um Remixes zu beschreiben. Im Zusammenhang von Webapplikationen bedeutet er eine in der Anwendung transparente Integration fremder Dienste und Inhalte.

Damit sind jedoch auch Nachteile verbunden:

!

Ein Mashup ist die Integration von Inhalten und Funktionalitäten anderer Webapplikationen in die eigene.

Programmierschnittstellen

Application Programming Interfaces (API) sind wohldefinierte Schnittstellen für die Interaktion mit Applikationen. Im Zusammenhang mit Webapplikationen werden sie üblicherweise als Webservices (siehe oben) implementiert und liefern entweder XML-Daten oder vergleichbar strukturierte Daten, zum Beispiel nach der einfacheren JavaScript Object Notation (JSON). Sowohl SOAP als auch REST-Ansätze sind möglich, auch wenn der Trend der letzten Jahre in Richtung REST-Anwendungen weist.
Einerseits können APIs dazu verwendet werden, um Funktionalität zur Verfügung zu stellen, wie zum Beispiel die Darstellung von Koordinaten in Karten mittels der Google-Maps-API (siehe Beispiel in Abbildung 3). Andererseits können solche Applikationen auch Inhalte zur Verfügung stellen. So ist es mit der Flickr-API zum Beispiel möglich, auf Fotos des Internetdienstes zuzugreifen. Andere APIs ermöglichen beispielsweise die Integration von Daten aus sozialen Netzwerken, wie die Facebook-API.

Abb. 1: TUGeowiki: Integration von Kartenmaterial über die GoogleMaps API. Quelle: Safran und Zaka, 2008
Abb. 1: TUGeowiki: Integration von Kartenmaterial über die GoogleMaps API. Quelle: Safran und Zaka, 2008

RSS

Real Simple Syndication (RSS) beschreibt eine Technologie, mit deren Hilfe Inhalte von Websites, sogenannte Feeds, zur Verfügung gestellt werden. Die Daten liegen hierbei in einem XML-Format vor. RSS dient hauptsächlich zur Benachrichtigung bei häufig aktualisierten Informationen, wie Weblogs oder Nachrichtenseiten. Benutzer/innen können RSS-Feeds mit einem Client (z.B. auch einem Mailprogramm) abonnieren, der ihnen immer die jeweils neuesten Meldungen anzeigt. In Webapplikationen bietet RSS eine gute Möglichkeit zur Syndikation von Daten aus unterschiedlichen Quellen. Da die Daten in XML vorliegen, können sie einfach maschinell weiterverarbeitet und in die eigene Webseite integriert werden.

Widgets

Eine dritte Technologie, die bei der Integration verschiedener Webanwendungen Anwendung findet, sind Widgets. Widgets sind kleine, in sich abgeschlossene Programme, die im Rahmen einer anderen grafischen Benutzeroberfläche ablaufen. Die Funktionalität solch eines Widgets ist üblicherweise spezialisiert und eingeschränkt. Im Desktop-Bereich haben sich Widgets inzwischen bei den meisten Betriebssystemen durchgesetzt und können entweder direkt als Teil des Desktops (wie Minianwendungen in Microsoft Windows) oder über eine getrennte WidgetEngine (wie das Dashboard bei Mac OS X) benutzt werden.

Im Zusammenhang mit Webapplikationen bezeichnet der Begriff Widget genauso eine eigenständige, abgeschlossene und in eine andere Applikation integrierte Funktionalität. Diese sind meist innerhalb der Benutzer/innen-Schnittstelle der eigentlichen Webapplikation mehr oder weniger frei positionierbar. So können Widgets zum Beispiel Daten über einen RSS-Feed abrufen oder auf Funktionalitäten mittels einer API zugreifen. Ein Beispiel für Widgets sind die Apps des sozialen Netzwerks Facebook, welche nicht selbst von Facebook, sondern von anderen Entwicklerinnen und Entwicklern erstellt, aber in die Webapplikation Facebook integriert werden. Für Benutzer/innen ist kaum ein Unterschied erkennbar. Über eine API greifen diese Apps zusätzlich auf die Funktionalität von Facebook zu.

Die Personal Learning Environment an der TU Graz

ls Praxisbeispiel für ein Mashup kann die Personal Learning Environment (PLE) an der Technischen Universität Graz genannt werden (Taraghi & Ebner, 2012). In dieser persönlichen Lernumgebung sind verschiedene, zum Teil unabhängige und verteilte Dienste der TU Graz sowie andere Webanwendungen aus dem Internet integriert. Abbildung 2 stellt dieses Grundkonzept graphisch dar. Universitätsdienste wie das Administrationssystem (TUGRAZ.online), LMS (TUGTC), Blogosphere (TUGLL) und viele Lernobjekte für unterschiedliche Lehrveranstaltungen sind in der PLE kombiniert (Ebner et al., 2011).
Zusätzlich dazu können zahlreiche fremde Lernobjekte und webbasierte Dienste wie Google-Applikationen, Flickr, YouTube, Twitter, Facebook etc. integriert werden. Die Integration dieser Dienste erfolgt mittels der angebotenen API und darauf aufbauenden Widgets. Das PLE als eine Rich Internet Application (RIA) bietet ein Mashup von Widgets, die an die persönlichen Nutzungsbedürfnisse anpassbar sind. Neben einer Portierung dieser Widgets für mobile Endgeräte ist auch eine inter-Widget-Kommunikation möglich. Ein Widget kann mit einem anderen gekoppelt sein, in dem es zum Beispiel auf Google Maps eine Stadt sucht und das Wetter-Widget automatisch für diese Stadt die Wetterprognose anzeigt. Die Benutzer/innen sind in der Lage, sich die geeigneten, zu ihrem Studium benötigten Widgets auszusuchen und diese nach ihren aktuellen Bedürfnissen zu konfigurieren.

Abb. 2: PLE: Ein Mashup von Widgets ermöglicht die Integration von verschiedenen Universitätsdiensten sowie der fremden Ressourcen aus dem Internet.
Abb. 2: PLE: Ein Mashup von Widgets ermöglicht die Integration von verschiedenen Universitätsdiensten sowie der fremden Ressourcen aus dem Internet.
Webtechnologien

Aktuelle Trends in der Entwicklung von Webanwendungen

In den letzten Jahren haben sich drei Ansätze bei der Entwicklung von Webanwendungen durchgesetzt. Vom serverseitigen Standpunkt aus bieten viele, vor allem bekannte und große Webanwendungen, wie die verschiedenen Google-Produkte oder Facebook, parallel zu ihren Webanwendungen Webservices als API an. Dies ermöglicht die Verwendung ihrer Funktionalität in anderen Webanwendungen und ermutigt dazu.

Vom clientseitigen Standpunkt ist RIA der Stand der Technik. Hier wird bei vielen Webanwendungen darauf Wert gelegt, dass den Benutzerinnen und Benutzern die Anmutung einer Desktop-Anwendung vermittelt wird. Durch die Anwendung von AJAX haben sich die Reaktionszeiten der Webanwendungen erheblich verbessert.

Zu guter Letzt gehört Syndikation und Integration zum Stand der Technik in vielen Anwendungsbereichen. Durch die Möglichkeiten, die Webservices und RIA bieten, kann auf Funktionalität und Inhalte anderer Anwendungen leicht zurückgegriffen werden. Diese können nahtlos in die eigene Benutzungsschnittstelle integriert werden.

Webtechnologien

Literatur

Multimediale und interaktive Materialien

Gestaltung von Materialien zum Lernen und Lehren

Interaktive und multimediale Lernmaterialien gehören heute im Lehralltag zum guten Ton wie seinerzeit die Kreidetafel, die heute allerdings in vielen Disziplinen immer noch nicht wegzudenken ist. Eine ungeheure Vielfalt an Gestaltungs- und Einsatzmöglichkeiten von Lernmaterialien macht die Wahl und Erstellung nicht gerade einfacher. Dieses Kapitel möchte durch eine Einführung und Übersicht über diese Thematik erste Orientierungshilfen geben. Aufgrund dieses Einführungsgedankens besteht kein Anspruch auf Vollständigkeit – zu umfangreich und komplex ist die Materie und viele weitere Aspekte gehören in der Praxis berücksichtigt. Zu Beginn geben wir eine Einführung in das Thema, welche aufzeigt, was möglich wäre und welche Überlegungen zu einem möglichen Einsatz angestellt werden sollten. Die ersten Reflexionsaufgaben dienen Ihrer persönlichen Orientierung und Evaluierung Ihrer Vorhaben. In weiterer Folge betrachten wir die drei Medien Bild, Audio und Video im Detail und geben so einen Überblick über Einsatzmöglichkeiten. Wie diese Materialien erstellt werden können und vor allem mit welchen Software-Produkten erfahren Sie ebenso. Abgerundet wird das Kapitel mit einer ausführlichen Betrachtung von interaktiven Lernmaterialien und im Speziellen der Thematik Videoannotationen.

Multimediale und interaktive Materialien

Die Mischung macht’s – Überlegungen zu Beginn

In den letzten Jahren wurden auf technischen Gebieten wesentliche Durchbrüche erzielt. Die Kanalkapazitäten der verfügbaren Netze in den modernen Industriestaaten erlauben es zum Beispiel Videos in nahezu beliebiger Größe zu speichern und auch mobil zur Verfügung zu stellen.

Theoretische Hintergründe für die Methoden zum Lernen mit multimedialen und interaktiven Lernmaterialien werden in lerntheoretischen Abhandlungen beschrieben (siehe bspw. Kapitel #lerntheorie). In diesem Text wird vor allem auf praktische Anwendbarkeit Wert gelegt.

Gleich zu Beginn also auch praktische Beispiele: Videos über Programmieren auf einem Smartphone zu betrachten ist weitestgehend sinnlos, da die Lernenden beim Erlernen der Fähigkeit ‚Programmieren’ auf beständiges Üben angewiesen sind und dies am Smartphone nicht sinnvoll möglich ist. Es ist also nicht weiter überraschend, dass viele Projekte, die lediglich die technische Komponente des Lernens betrachten, nach einer anfänglichen Phase der Euphorie recht häufig scheitern und nicht weiter verfolgt werden. Ganz ähnlich sieht es mit Verfahren aus, die vorhandene Texte durch fast vollständig automatisierte Verfahren in Audiofiles umwandeln. Ganze Projekte, die auf diese Weise Gigabytes an Audiofiles für gängige portable Geräte (zum Beispiel Smartphones, Tablets oder MP3-Player) erstellt haben, werden von den Lernenden kaum beziehungsweise nur zögerlich angenommen. Der Grund liegt nahe: Es ist sehr unpraktisch einen Text anzuhören, der ursprünglich für das visuelle Erfassen konzipiert wurde.

!

Deshalb sind online zur Verfügung gestellte Lernmaterialien ausgesprochen sorgfältig in Richtung der Bedürfnisse der Anwender/innen zu entwickeln und zu gestalten.

Abb. 1: Beispiel einer Strukturierung: Der Aufbau dieses Kapitels
Abb. 1: Beispiel einer Strukturierung: Der Aufbau dieses Kapitels

Lernende wollen vor allem eines: mit möglichst geringem Aufwand ein Maximum an Wirkung erzielen. Um dafür die richtigen Medien auswählen zu können, müssen unserer Erfahrung nach folgende drei Fragen der Reihe nach gestellt und präzise beantwortet werden:

Entscheidend für die Auswahl der optimalen Medien zur Vermittlung des Wissens ist die Beantwortung der dritten Frage.

!

Studierende verwenden Unterlagen nur dann, wenn sie das Lernen effizient und bequem unterstützen! Lehrende verwenden ein Lernmanagementsystem (LMS) und multimediale bzw. interaktive Materialien nur dann, wenn sie Unterlagen einfach erstellen und hochladen können (siehe Kapitel #systeme und #infosysteme).

?

Versuchen Sie eine Mindmap für die Planung Ihres Kurses und zur Beantwortung der drei Fragen zu erstellen!

Multimediale und interaktive Materialien

Über Bilder, Audio, Video und Animationen zu interaktiven Lernmaterialien

Gehen wir davon aus, dass geschriebener Text und gesprochene Sprache in Form eines Vortrages als Standardmedium und Lernmaterial dienen.

Bilder

Als ‚einfachstes’ zusätzliches Medium wird seit jeher das Bild angewendet. Einzelbilder sind der Einstieg in die multimediale Welt. Bilder ziehen Aufmerksamkeit auf sich und sollen das Verständnis von Inhalten erleichtern. Nicht umsonst gibt es das Sprichwort: „Ein Bild sagt mehr als tausend Worte“. Im Gegenzug bietet aber auch kein anderes Medium mehr Möglichkeiten zur (Fehl-)Interpretation. Daher muss sehr viel Augenmerk auf eine möglichst gezielte und fehlinterpretationsfreie Gestaltung gelegt werden. Oftmals benötigen Bilder (Fotografien) und Grafiken, im Speziellen etwa Diagramme, zusätzliche Informationen zur Erklärung – jeder Mensch interpretiert das Gesehene in seinem eigenen Erfahrungskontext.

!

Bilder können zur Veranschaulichung (Beschreibung und Ergänzung des Textes), Strukturierung (Visualisierung einer inhaltlichen Struktur, zum Beispiel in Form einer Mindmap) oder zur Dekoration (zur Umrahmung und Motivation der eigentlichen Inhalte) eingesetzt werden. (Hametner et al., 2006, 36-39)

Audio

Audio kann in unterschiedlichen Formen in multimedialen Lernszenarien zum Einsatz kommen: als Hörspiel, als Vorlesehilfe, als Podcast (kurzes Audiofile) für mobile Endgeräte oder auch als komplexes Hörgebilde, welches durch Musik und Sprache kombiniert Lerninhalte vermittelt (siehe Kapitel #educast).

Abb. 2: Screenshot der freien Audiobearbeitungssoftware Audacity
Abb. 2: Screenshot der freien Audiobearbeitungssoftware Audacity

Prinzipiell können beim Medium Audio zwei Arten unterschieden werden: Sprache und Musik. Mit Sprache können konkrete Informationen (zum Beispiel weiterführende Erläuterungen zu einem Bild oder einer Textpassage) zur Verfügung gestellt werden, die auf einer herkömmlichen Textseite keinen Platz mehr finden oder vom wesentlichen Inhalt ablenken würden. Darüber hinaus können Sprach-Podcasts genutzt werden um Inhalte gezielt für Wiederholungen zu komprimieren.

!

Musik setzt vor allem in virtuellen Lernwelten oder in E-Learning-Programmen an und dort vor allem auf der emotionalen Ebene (Niegemann et al., 2003, 128-132).

Inhalte, die mit Emotionen verknüpft sind, werden leichter im Gedächtnis verankert. Die Erzeugung von Emotionen ist ein komplexer Prozess und nicht nur auf Musik beschränkt (Campbell, 1999; Vogler & Kuhnke, 2004).

!

Einfache Audiofiles (Texte) können sinnvoll verwendet werden, wenn es darum geht eine genügende Anzahl von Wiederholungen zu erzeugen, um etwas dauerhaft zu erinnern und im Gedächtnis zu festigen. Darüber hinaus kann die Abspielgeschwindigkeit der Audiofiles individuell variiert und an die persönlichen Bedürfnisse angepasst werden.

Das Hören eines Textes erleichtert es den Lernenden wesentlich, sich den Inhalt beim weiteren Lesen einzuprägen. Lehrstoff sollte nicht ausschließlich in Form eines Audiofiles vermittelt werden, sondern immer mit einem Textfile ergänzt werden. Beispielsweise machen unserer Meinung nach, zumindest im technischen Kontext, Audiofiles als alleinige Lehrmaterialien wenig Sinn, denn technische Strukturen erfordern meist vernetztes Denken und dies kann in einem linearen Format, wie es das Hören von Text ist, nur sehr schlecht trainiert werden. Eine Ergänzung durch andere Medien, wie bereits angesprochen, in Form von Text oder Bild ist daher von Nöten.

Besonders effizient sind Textdateien, die einen sehr ähnlichen, ergänzenden, aber nicht immer identischen Inhalt zum Audiofile haben. Durch das Wahrnehmen der ähnlichen Inhalte über unterschiedliche Sinneskanäle wird das Einprägen gefördert und es können durch die Wiederholung mit größerer Wahrscheinlichkeit zusätzliche Querverbindungen hergestellt werden.

Video

Lehrfilme und kurze Videos sollten heute zum Unterrichtsstandard gehören. Vor allem die Entwicklung der CD-ROM machte Videos für den Einsatz in E-Learning-Umgebungen interessant, da mit deren Hilfe erstmals die entsprechenden Datenmengen in Zeiten vor dem Internet verteilt werden konnten.

!

Videos sprechen beim Menschen zwei Sinneskanäle an – sowohl den auditiven als auch den visuellen.

Im Gegensatz zu Bildern liefern Videos durch die Einbeziehung der Komponente Zeit einen sehr starken Realitätsbezug. Eine dramaturgische Gestaltung durch den gezielten Einsatz von Musik unterstreicht die Aussage des Inhaltes zusätzlich (Niegemann et al., 2003, 148-149).

Menschen lernen in vielen Fällen durch Nachahmung, dafür ist der Einsatz des Mediums Video für Instruktionen häufig ideal.

In der Informatik zum Beispiel fallen die Bedienung einer bestimmten Softwareumgebung oder die Benutzung eines Debuggers und ähnliches in diese Kategorie.

Zudem hat sich als optimal herausgestellt, derartige Videos durch Präsentationen zu ergänzen. Es ist in vielen Fällen für Lernende sehr angenehm anhand von Folien, in denen sie einfach vor- und zurückblättern können, die Kernaussagen der Videos zu wiederholen, auch für unterwegs auf mobilen Endgeräten.

!

Sie wollen sich bei Kolleginnen und Kollegen Anregungen holen, wie diese ihre Vorlesungsmitschnitte organisieren? Unter http://www-lehre.inf.uos.de/~ainf/2006/Aufzeichnungen/ stehen Aufzeichnungen, MP3s und Podcasts zu einer Vorlesung über Algorithmen und Datenstrukturen zur Verfügung. Interessant zum Stöbern sind auch die Angebote deutschsprachiger Institutionen in Apples iTunesU.

In solchen Fällen ist ein kurzes Video von maximal 15 Minuten, besser 7 Minuten Länge, empfehlenswert. Bei längeren Videos sinkt die Aufmerksamkeit der Zusehenden zunehmend und der gewünschte Lerneffekt stellt sich nicht ein – selbiges gilt auch für Audiofiles.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Ein weiterer Trend ist die Aufzeichnung kompletter Vorlesungen via Video und deren Bereitstellung für die Lernenden, meist über ein Webportal. Dies bietet die Möglichkeit verpasste Einheiten zu wiederholen oder in Lerngruppen den durchgenommenen Stoff zu reflektieren und zu diskutieren.

Animationen

Eine Sonderform von Videos stellen Animationen dar, da sie nicht unmittelbar die Realität widerspiegeln. Somit können aber vor allem abstrakte und komplexe Zusammenhänge (zum Beispiel chemischer oder physikalischer Natur) veranschaulicht werden, die rein auditiv oder statisch visuell nicht oder nur schwer erfassbar gemacht werden können. Ebenso kann mit Animationen die Aufmerksamkeit der Lernenden gesteuert werden (Wendt, 2003, 199).

Interaktive Lernmaterialien

Das explorative Lernen im Rahmen des konstruktivistischen Lernparadigmas (siehe Kapitel #lerntheorie) lässt sich sehr gut mit interaktiven Lernmaterialien und deren zeitlicher Steuerbarkeit des Ablaufs unterstützen. Die Interaktion kann in einfachster Weise durch die Auswahl einzelner Objekte repräsentiert werden, in komplexeren Szenarien stehen den Lernenden weitere Möglichkeiten zur Verfügung, wie die Veränderung von Objekten, die Nutzung von tutoriellen Systemen oder die Möglichkeit multimediale Elemente mit Annotationen zu versehen.

Multimediale und interaktive Materialien

Datenkompression bei multimedialen Materialien

Mit Multimedia ist unweigerlich das Problem der Datenkompression verbunden. Bedenkt man, dass sämtliche Daten möglichst in Echtzeit bei den Lernenden ankommen beziehungsweise am Bildschirm auf Knopfdruck erscheinen sollten, sah man sich besonders in den Anfängen des World Wide Web mit großen Problemen konfrontiert.

Mit einem damals in Privathaushalten verfügbarem Modem war eine Übertragungsrate von 14.400 Bits pro Sekunde möglich. Eine nicht komprimierte Bilddatei mit einer Größe von 1024 * 768 Pixel erreicht bei einer angenommenen Farbtiefe von 24 Bits (24 Bits = 3 Bytes) je Pixel bereits 1024 * 768 * 24 Bits, also 18.874.368 Bits. Dies ergäbe bei Verwendung obigen Modems im Idealfall eine Übertragungszeit von 1.311 Sekunden oder circa 22 Minuten. Eine Steigerung der Übertragungsrate auf 28.800 Bits pro Sekunde oder sogar 56.000 Bits pro Sekunde schaffte nur bedingt Abhilfe. Nachdem ein Video nur die schnelle Abfolge von vielen Einzelbildern darstellt, wurde das Problem nur noch weiter verschärft.

Somit wurden verlustfreie (Informationen aus dem Datenbestand werden unter Vermeidung von Redundanzen neu strukturiert) und verlustbehaftete (dabei wird in der Regel ein Kompromiss zwischen einer möglichst hohen Datenkompression und einem möglichst kleinen Qualitätsverlust angestrebt) Datenkompressionsverfahren entwickelt, um, je nach Einsatzzweck, die zu übertragende und zu speichernde Datenmenge zu reduzieren. Wenn bei den erstellten Lehrmaterialien eine möglichst hohe Qualität sowie eine spätere Bearbeitung gewünscht werden, wird man sich für eine verlustfreie Datenkompression entscheiden; sollen die Materialien ‚nur’ konsumiert werden können, dann ist oftmals eine verlustbehaftete Datenkompression geeigneter.

Zur Kompression/Dekompression von Multimediadaten, im speziellen Audio- und Videodaten, kommt ein sogenannter Codec (als Abkürzung für ‚coder’ und ‚decoder’) zum Einsatz. Dieser kann in Software- oder Hardwareform vorliegen. Bei lizenzpflichtigen Verfahren sind diese beiden Teile auch manchmal getrennt: Der Kompressor ist gebührenpflichtig, während der Dekompressor frei zugänglich ist.

Datenkompression von Bildern

Im Laufe der Jahre entstanden unterschiedliche Kodierungsverfahren, die heute von verschiedenen Bildformaten verwendet werden. JPG, PNG, GIF, SVG, BMP, TIFF, WMF, Postscript, PDF sind die bekanntesten Formate. Wie im vorhergehenden Abschnitt dargestellt, besteht beim Bild ein Zusammenhang zwischen der Bildauflösung (Anzahl der Bildpunkte), der Anzahl der verwendeten Farben (Farbtiefe) sowie der Art des Bildes (Vektor- oder Pixelgrafik) und gegebenenfalls auch der Anzahl der unterschiedlichen Ebenen (Layer) eines Bildes.

In den Anfängen kam im World Wide Web vor allem das GIF-Format zur Anwendung, da es bei geringer Farbtiefe auch Transparenz und kleine Animationen zuließ. Des Weiteren wurde es in die HTML-Spezifikation aufgenommen. Auf Grund von Lizenzproblemen greifen viele (Firmen) allerdings auf die heute gängigen JPEG- oder PNG-Formate zurück.

JPEG-Kompression eignet sich sehr gut für fotorealistische Bilder bei ausgezeichneten Kompressionsraten, jedoch bilden sich bei harten Übergängen Artefakte und bei mehrmaliger Kompression verändert sich die Qualität des Bildes stark. JPEG ist zwar für Darstellungen im Web geeignet, aber nicht für die Bildbearbeitung. In den letzten Jahren setzte sich immer stärker das PNG-Format durch, wie auch das Vektorgrafikformat SVG, das in modernen Webbrowsern verlustfrei dargestellt werden kann.

Datenkompression von Audio

Audiokompression ist heute sehr stark durch das MP3-Format geprägt, welches auch auf einem sehr einfachen Prinzip beruht: Zur Kompression von Audio-Signalen speichert man unwichtige Informationen nicht ab. Basierend auf Studien über das menschliche Gehör entscheidet der so genannte Encoder, welche Informationen wichtig sind und welche nicht. Beim Menschen ist es prinzipiell nicht viel anders: Bevor ein Klang ins Bewusstsein dringt, haben Ohr und Gehirn ihn schon auf seine Kernelemente reduziert. Die psychoakustische Reduktion der Audiodaten nimmt diesen Vorgang teilweise vorweg. Der Schlüssel zur Audiokompression besteht darin, auch solche Elemente zu beseitigen, die nicht redundant, aber irrelevant sind. Dabei geht es um diejenigen Teile des Signals, die die menschlichen Zuhörerinnen und Zuhörer ohnehin nicht wahrnehmen würden.

Ähnlich wie bei Bildern und Videos gibt es eine hohe Anzahl an verschiedenen Kompressionsverfahren. Hierzu seien exemplarisch das quelloffene Format OGG Vorbis oder auch das auf MPEG aufsetzende AAC-Format genannt. Ein verlustfreies Format ist zum Beispiel FLAC.

Datenkompression von Videos

Digitale Videotechnik nimmt aufgrund der verfügbaren Endgeräte einen immer höheren Stellenwert in unserem Alltag ein. Sie bleibt aber aufgrund der notwendigen Datenmenge nicht unproblematisch – selbst hochwertige Computer sind bei der Verarbeitung derartiger Daten gefordert. Um die Speichermengen zu verdeutlichen, gehen wir davon aus, dass eine digitale Videokamera mit einer Auflösung von 800.000 Pixeln arbeitet. Bei voller Farbtiefe benötigt dieses Bild circa 2,3 Megabyte. Um eine realistische Bewegtbildfolge zu erhalten, sind 24 bis 30 Bilder pro Sekunde nötig. Das führt, je nach Bildrate, zu einem Datenstrom von ca. 60 Megabyte pro Sekunde. Ein abendfüllender Film (120 Minuten) würde nichtkomprimiert also 422 Gigabyte an Daten produzieren. Ohne Datenkompression wäre eine Übertragung im Internet undenkbar und es wurde daher eine große Anzahl unterschiedlicher (Komprimierungs-)Codecs entwickelt. Die wichtigsten Codecs sind Cinepak, Indeo, Video-1, MS-RLE, MJPEG und Codecs nach H.261, H.263 und MPEG.

Ähnlich den Bildern und Audiofiles können verschiedene Dateiformate durchaus verschiedene Codecs unterstützen, sodass man keinen direkten Schluss aus dem Dateiformat auf den verwendeten Codec ziehen kann. Bekannte Beispiele sind das von Apples Quicktime verwendete MOV-Format und das von Windows angebotene WMF- oder ASF-Format.

Multimediale und interaktive Materialien

Aktuelle Programme zur Erstellung von Lernmaterialien und deren Einbindung in Lernmanagementsysteme

Um den Rahmen dieses Kapitels nicht zu sprengen, möchten wir an dieser Stelle nur ein paar Tools (Software) vorstellen, mit denen man von einfachen Lernmaterialien angefangen bis hin zu komplexen multimedialen Lerneinheiten selbst gestalterisch aktiv sein kann. Hauptaugenmerk liegt hierbei auf kostenfreien Angeboten für Desktops, die frei verfügbar sind sowie plattformunabhängig, für Microsoft® Windows®, Apple® Mac OS X und Linux, eingesetzt werden können beziehungsweise zur Verfügung stehen. Vorweg sei aber auch angemerkt, dass eine erfolgreiche und zielführende Gestaltung nicht von heute auf morgen erreicht werden kann und es in vielen Fällen sehr viel Übung und Erfahrung bedarf, um das optimale Lernmaterial entwickeln zu können.

Es empfiehlt sich auch immer wieder einen Blick in den App-Store von Apple® (iTunes), Google® (Play Store) oder auch Microsoft® Windows Phone® zu werfen – zahlreiche kreative Apps stehen für mobile Endgeräte wie Tablets und Smartphones zur Verfügung, mit denen ansprechende Lernmaterialien gestaltet werden können.

Bilder

Um Bilder anzusehen, Attribute wie Größe oder Auflösung zu ändern oder rudimentäre Bildbearbeitungen durchzuführen, kann unter Windows® das Freeware-Programm IrfanView eingesetzt werden. Für Mac OS X ist zum Beispiel die interne Vorschau verfügbar und für Linux XnView. Zahlreiche plattformunabhängige Open-Source-Programme können zur Erstellung von Bildern und Grafiken genannt werden: Für Mindmaps bietet sich Freemind an, für Diagramme Dia, Vektorgrafiken können mit Inkscape erstellt werden, Desktop Publishing (DTP) gelingt mit Scribus und für professionelle Bildbearbeitung empfiehlt sich GIMP. Screenshots, auch von Teilen Ihres Bildschirms und die Bearbeitung derselben gelingen in Windows® einfach mit dem mitgelieferten Programm Snipping Tool, unter Mac OS X kann mit dem mitgelieferten Programm Bildschirmfoto und unter Linux mit der Software Take Screenshot gearbeitet werden.

Audio

Zur Aufnahme von Sprache, aber auch Musik, benötigt man zusätzlich zu einem geeigneten PC mit angeschlossenen Mikrofonen nur mehr eine Recording-Software. Das freie Programm Audacity erfreut sich immer steigender Beliebtheit. Als kommerzielle Anbieter seien Steinberg (mit zum Beispiel WaveLab) oder Adobe (mit Audition) angeführt. Mit diesen Produkten kann beinahe jedes beliebige Audiofile bearbeitet, geschnitten und konvertiert werden.

?

Bearbeiten Sie Ihre eigenen Audiofiles mit Audacity, das Einstiegstutorial unter http://www.lehrer-online.de/audacity-tutorial.php hilft Ihnen dabei!

Video

Unzählige am Markt verfügbare Videoschnittprogramme, von einfachsten und kostenlosen angefangen bis hin zu professionellen Systemen, machen es den Anwenderinnen und Anwendern schwer, die richtige Auswahl für ihre Bedürfnisse zu treffen. Beispielsweise seien hier der in Windows® integrierte MovieMaker, das in Apple® Mac OS X integrierte iMovie oder das freie und für alle Desktop-Plattformen verfügbare AviDemux genannt.

Um sogenannte Screenrecordings (Aufzeichnen des eigenen Bildschirminhalts mit Audiokommentaren) durchzuführen, stehen kostenfrei unter Windows zum Beispiel die Programme CamStudio und Wink zur Verfügung, unter Mac OS X das Programm CaptureMe und unter Linux die Programme Wink wie auch RecordMyDesktop. Der Markt wird jedoch von Adobes Captivate, Techsmiths Camtasia oder Lecturnity von IMC dominiert. Für Live-Streaming ins Internet kann die so genannte Open Broadcaster Software eingesetzt werden, die für alle genannten Desktop-Plattformen zur Verfügung steht.

Einfache Animationen können mit Präsentationsprogrammen (PowerPoint, Impress, Keynote) entwickelt werden. Komplexe Animationen können mit professioneller Software, beispielhaft seien hier Blender und trueSpace genannt, erstellt werden.

Autorensysteme für interaktive Lernmaterialien

Komplexe Lernmaterialien können mit sogenannten Autorensystemen erstellt werden (siehe auch Kapitel #infosysteme). Diese Werkzeuge erlauben es, neben den unterschiedlichsten multimedialen Elementen auch Testfragen und Aufgabenstellungen zu integrieren, deren Antworten meist automatisiert ausgewertet, beziehungsweise bei denen den Lernenden in Abhängigkeit der erzielten Punkte weitere Lernelemente freigeschaltet werden. Beispielhaft seien an dieser Stelle die Programme WBTExpress oder auch EXELearning, neben zahlreichen kommerziellen Lösungen, wie Lectora und ToolBook und vielen anderen genannt. Komplexe interaktive Lernmaterialien werden für Webseiten häufig mit Adobes Flash oder Silverlight von Microsoft realisiert.

Integration in Lernmanagementsysteme

Multimediale Lernmaterialien können in den meisten Lernmanagementsystemen durch Hochladen integriert werden und meist stellen die Systeme auch die passenden Player für die Lernenden zur Verfügung (siehe Kapitel #infosysteme).

Wenn allerdings Testfragen in den Materialien integriert sind oder Abhängigkeiten zwischen unterschiedlichen Lernmodulen bestehen, so müssen die Lernmaterialien mit dem Lernmanagementsystem kommunizieren und Daten austauschen. Dazu wurden Standards entwickelt, die sicherstellen sollen, dass die Daten korrekt abgerufen und gespeichert werden können. Unter anderem können so der Name der/des Lernenden vom Lernmanagementsystem zum Lernmaterial übertragen (damit kann zum Beispiel eine persönliche Anrede gestaltet werden) oder aber auch die erzielten Punkte beim Test zentral im Lernmanagementsystem abgespeichert werden. Beispiele solcher Standards sind SCORM (siehe Kapitel #ebook) oder AICC.

!

Unter http://www.lernmodule.net/modul/ finden Sie kostenlose Lernmodule zu unterschiedlichsten Themengebieten, die Sie mit Hilfe der SCORM-Referenz in ihren Moodle-/Ilias-/Fronter-Kurs integrieren können. Anleitungen dazu finden Sie auf der angegebenen Website. Für jedes Lernmodul existieren ausführliche Informationen vom Schwierigkeitsgrad bis zum Interaktivitätslevel. Unter http://www.learningapps.org finden Sie eine Vielzahl an browserbasierten Apps zum Einsatz im Unterricht.

Multimediale und interaktive Materialien

Fazit und Kontrollfragen

Multimediale und interaktive Lernmaterialien können jedes Lernszenario bereichern, sofern sie an die Bedürfnisse der Lernenden, der Zielgruppe, angepasst sind und deren Anforderungen gerecht werden. Umfangreiche Medienkompetenzen seitens der Erstellenden sind von Nöten, um diesen Ansprüchen zu genügen. Stellen Sie sich zu Beginn der Entwicklungsphase Ihres multimedialen und interaktiven Lehrangebotes die drei Reflexionsfragen aus der Einleitung. Diese liefern Ihnen einen ersten Anhaltspunkt, welche Materialien Sie benötigen und welche Sie als zusätzliches Angebot zur Verfügung stellen können.

Zum Abschluss der Lerneinheiten – egal mit welchen Medien diese gestaltet wurden – eignen sich kleine einfache Tests bestens, um das Erlernte dauerhafter im Gehirn zu verankern. Daher möchten wir Ihnen nicht nur diese Empfehlung mit auf den Weg geben, sondern auch gleich mit gutem Beispiel voran gehen und Fragen zur Reflexion stellen.

In der Praxis: Videoannotationen

Als konkretes und zeitgemäßes Beispiel für interaktive und multimediale Lernmaterialien möchten wir an dieser Stelle das Thema „Videoannotationen“ näher betrachten und vorstellen. Annotationen sind ergänzende Informationen im Video, die zusätzlich oder nachträglich hinzugefügt werden. Es kann sich dabei um Texte, Bilder, weiteres Videomaterial oder Links auf externe Webseiten handeln (Meixner et al., 2009).

Die Grenzen zwischen dem Produzieren und Konsumieren von Inhalten schwinden spätestens seit dem ‚Web-2.0-Zeitalter’ zunehmend. Spezielle Autorenwerkzeuge kommen meistens bei der Produktion von interaktiven Lehrinhalten mit Hilfe einer Client-Software zum Einsatz. Die zusammengestellten Inhalte können veröffentlicht und den Lernenden zum rezeptiven Lernen zur Verfügung gestellt werden. Dem gegenüber steht eine Variante der Videoannotation, die es allen Benutzerinnen und Benutzern via Webtechnologien gleichermaßen ermöglicht, Videos während des Betrachtens kollaborativ mit Annotationen zu versehen. Welche technischen Umsetzungen gibt es? Um Bildausschnitte mit zeitlicher Erstreckung zu generieren und die Multiperspektivität in Form von Hypervideos zu fördern, empfiehlt sich das Annotationswerkzeug WebDiver (Zahn et al., 2009). Ähnlich wie beim WebDiver können mit der Autorenumgebung SIVA Producer Videoszenen herausgeschnitten und mit Zusatzinformationen angereichert werden (Meixner et al. 2009).

Der edubreak-Videoplayer ermöglicht die bildgenaue, kollaborative Annotation mit Texten, Schlagwörtern, Sprachnotizen und Zeichnungen (http://www.ghostthinker.de). Die professionelle Analyse und das Verwalten von Videos ermöglicht die netzwerkfähige Client-Anwendung DARTFISH Classroom. Ein plattformunabhängiges und frei verfügbares Video-Annotationstool wäre ANVIL. Auch das populäre Videoportal YouTube bietet die Möglichkeit einfache Annotationen in Videos vorzunehmen.

Sollen Videoannotationen in der Lehre eingesetzt werden, ist vor allem das didaktische Design von Bedeutung (Krammer & Hugener, 2005; Vohle & Reinmann, 2012). Mindestens zwei Aspekte sind zu beachten: zum einen die Annotierungsebene und zum anderen das Lernsetting.

Hinsichtlich der Annotierungsebene ergeben sich folgende Unterfragen: Geht es darum, im Videomaterial bestimmte Inhalte/Botschaften zu suchen und zu annotieren oder darum, bestimmte Zeitmarken aufzusuchen, um dort gestellte Fragen zu beantworten? Oder sollen die Lernenden frei Kommentare in Form von Textannotationen einbinden oder das Video mit Schlagwörtern anreichern (Tagging)?

Für das Lernsetting sind folgende Fragen relevant: Werden die Videoannotationen in einer Präsenzphase besprochen oder geschieht der Austausch auch virtuell (synchron oder asynchron)? Welche Art von Videoannotation ist im Rahmen eines Blended-Learning-Ansatzes sinnvoll, wie hängen die virtuelle Lernphase und die Präsenzphase zusammen?

?

Warum und vor allem wann ist es sinnvoll eine gesamte Vorlesung 1:1 aufzuzeichnen und warum oder wann ist es für die Lernenden hilfreicher, einzelne Abschnitte komprimiert zur Wiederholung bereitzustellen?

?

Nennen Sie je ein Beispiel, bei dem eine statische Bildfolge gegenüber einem Video den Sachverhalt besser nachvollziehbar darstellt! Gibt es einen Sachverhalt, der mittels Video nachvollziehbarer gestaltet werden kann als mit einer statischen Bildfolge?

?

In welchem didaktischen Kontext und unter welchen Bedingungen ist der Einsatz von Bildern/Audio/Video/Videoannotationen sinnvoll?

Multimediale und interaktive Materialien

Literatur

Standards für Lehr- und Lerntechnologien

Metadaten, Inhaltsformate und Beschreibung von Lernprozessen

Dieses Kapitel führt in die Bedeutung von Standards, die von Informationssystemen für das Lernen und Lehren verwendet werden, ein und stellt deren wichtigste Vertreter/innen vor. Das Einhalten von Standards durch Informationssysteme für Lehren und Lernen ermöglicht den Nutzer/innen Lehr- und Lernressourcen zwischen verschiedenen Informationssystemen austauschen zu können und damit auch verschiedene Informationssysteme unterschiedlicher Anbieter nutzen zu können. Dementsprechend ist ein Grundverständnis der Standards und ihrer jeweiligen Aufgabe bei der Auswahl von Informationssystemen für Lehren und Lernen relevant. Ein Schwerpunkt des Kapitels liegt auf Metadaten. Der Nutzen von Metadaten und Standards für Metadaten zur Beschreibung von Lehr- und Lernressourcen werden erläutert. Da Informationssystemen für Lehren und Lernen häufig von Benutzenden die Eingabe von Metadaten verlangen und in diesen Systemen mittels Metadaten gesucht wird, ist ein Verständnis von Metadaten in diesem Bereich von hoher Relevanz. Neben Standards für Metadaten werden mit dem *Sharable Content Object Reference Model* (SCORM) und *Question and Test Interoperability* (QTI) zwei Standards, die den Austausch von Lernressourcen zwischen verschiedenen Informationssystemen ermöglichen, vorgestellt. Zur einheitlichen Beschreibung von Lehr- und Lernprozessen dienen *IMS Learning Design* (IMS LD) und didaktische Entwurfsmuster, die ebenfalls Gegenstand diese Kapitels sind. Ziel dieses Kapitels ist es, insgesamt für die unterschiedliche Bedeutung und Aufgaben von Standards für Informationssysteme für das Lehren und Lernen zu sensibilisieren und ein Grundverständnis der wichtigsten im Themenbereich relevanten Standards zu vermitteln.

Standards für Lehr- und Lerntechnologien

Einführung

Bei der Realisierung von Informationssystemen sind Standards allgemein von großer Bedeutung. Standards im Bereich der Informationssysteme beschreiben, wie Informationssysteme realisiert werden und insbesondere welche Daten in welcher Form zwischen Informationssystemen ausgetauscht werden. Das Ziel von Standards ist es, eine Kompatibilität, das heißt das Miteinanderfunktionieren, von verschiedenen Systemen und den Austausch von Daten zwischen Systemen verschiedener Anbieter sicher zu stellen. Dazu müssen sie von Herstellern bei der Realisierung von Informationssystemen genutzt werden. Standards werden im Rahmen eines Standardisierungsprozesses definiert. Standards und die auf deren Einhaltung basierende Interoperabilität von Systemen sind im Interesse der Systemnutzenden, denn sie reduziert die Abhängigkeit von einzelnen Herstellern, aber auch im Interesse der Anbieter, denn sie ermöglichen einen freien Handel der Systeme ohne zusätzliche Anpassungskosten.

Der Prozess der Standardisierung ist in der Regel ein Aushandlungsprozess zwischen verschiedenen Interessensgruppen. Sehr häufig wird der Prozess von der Industrie unter Einbezug von Wissenschaftlerinnen und Wissenschaftlern und Nutzerinnen und Nutzern vorangetrieben. Erfolgt die Standardisierung durch ein nationales oder internationales anerkanntes Verfahren, z.B. unter Leitung des Deutschen Instituts für Normung (DIN), spricht man auch von Normen im Gegensatz zu Industriestandards. Standards haben nur dann eine rechtliche Verbindlichkeit, wenn in Gesetzen oder Verordnung ihre Einhaltung verlangt wird, was in gesellschaftlich relevanten Feldern häufig geschieht (Arnold et al., 2013).

!

Standards und Normen haben keine rechtliche Verbindlichkeit solange ihre Einhaltung nicht in Gesetzen oder Verordnungen festgeschrieben sind. Ihre Einhaltung liegt aber auch ohne rechtliche Verbindlichkeit oftmals im Interesse der Anbieter und Nutzer/innen von Produkten.

Die bedeutendsten Standardisierungsgremien, die Normen für Informationssysteme für Lehren und Lernen festschreiben, sind (Heddergott, 2006):

Im Bereich Lernen und Lehren sind verschiedene Standards relevant, die in Abbildung 1 dargestellt sind und nachfolgend beschrieben werden.

Abb. 1: Überblick über Standards für Lehren und Lernen mit Informationssystemen
Abb. 1: Überblick über Standards für Lehren und Lernen mit Informationssystemen
Standards für Lehr- und Lerntechnologien

Metadaten

Aufgaben von Metadaten

Metadaten sind Daten, die andere, in der Regel größere Daten wie Dokumente, Bilder oder Videos beschreiben bzw. deren Eigenschaften zusammenfassen. Der Zweck von Metadaten besteht insbesondere darin, die eigentlichen Daten zu suchen, ohne sich die Daten selbst ansehen zu müssen. Metadaten werden traditionell in Bibliothekskatalogen zur Beschreibung von Büchern oder Zeitschriften verwendet. Bestandteile von Metadaten sind dann beispielsweise die Autorin bzw. der Autor, der Titel, das Erscheinungsjahr, aber auch Schlagworte, die den Inhalt der Veröffentlichung beschreiben.

Auch elektronische Dokumente werden mit Metadaten beschrieben, um sie zielgerichteter auffinden zu können. Anstelle einer Suche über die Inhalte des Dokumentes selbst, werden die Metadaten durchsucht.

?

Überlegen Sie sich, wo Sie selbst bereits elektronische Dokumente mit Metadaten beschrieben haben oder mittels Metadaten gesucht haben. Mögliche Lösungen finden Sie in auf diigo.com unter #metadaten #musterloesungen.

Learning Object Metadata

Zur Beschreibung von Lehr- und Lernressourcen dienen die Learning Object Metadata (LOM). Der LOM-Standard IEEE 1484.12.1 (IEEE, 2002) wurde 2002 vom IEEE LTSC veröffentlicht. Er definiert ein Datenmodell, bestehend aus verschiedenen Attributen zur Beschreibung von Lehr- und Lernressourcen sowie einem bei der Beschreibung zu verwendenden Vokabular. Die mehr als 80 Attribute sind in neun inhaltlich zusammengehörigen Kategorien gegliedert (vgl. Abbildung 2).

Abb. 2: Attribute von Learning Object Metadata
Abb. 2: Attribute von Learning Object Metadata

Unter anderem gibt es eine Kategorie Educational, die beispielsweise die Attribute Typ der Lernressource oder Schwierigkeitsgrad enthält. Für diese Attribute wird ein Vokabular definiert, aus dem ausgewählt werden muss. Beispielsweise gibt es die Schwierigkeitsgrade sehr leicht, leicht, mittel, schwer und sehr schwer und die Typen Übung, Tabelle, Experiment, erzählender Text, etc. LOM ist von hoher praktischer Relevanz, denn der LOM-Standard wird mittlerweile von nahezu allen Lernmanagementsystemen (#infosysteme), Lerncontentmanagementsystemen (#infosysteme), vielen Repositories, wie beispielsweise Global Learning Object Brokered Exchange (GLOBE), und vielen Autorensystemen (#infosysteme) für Lernressourcen unterstützt. Abbildung 3 zeigt beispielhaft einen Editor zur Erstellung von Metadaten nach dem LOM-Standard.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Abb. 3: Metadateneditor der Open-Learning-Content-Plattform docendo
Abb. 3: Metadateneditor der Open-Learning-Content-Plattform docendo

?

Wählen Sie eine von Ihnen erstellte Lernressource und beschreiben Sie diese mit den LOM-Attributen der Kategorie Educational. Eine Beschreibung der einzelnen Attribute finden Sie in (IEEE, 2002). Bei der Bearbeitung der Aufgabe werden Sie feststellen, wie aufwändig die Beschreibung der Lernressource ist.

Herausforderungen in der Nutzung von Learning Object Metadata

In der Praxis hat sich herausgestellt, dass die Auszeichnung von Lernressourcen mittels Metadaten nach dem LOM-Standard nur mit Einschränkungen geschieht. Autorinnen und Autoren von Lernressourcen sind keine Spezialistinnen bzw. Spezialisten in der Erstellung von Metadaten, wie es beispielsweise Bibliothekarinnen und Bibliothekare sind, und ein Anreiz für die Erstellung von umfangreichen Metadaten ist oftmals nicht gegeben. LOM selbst hat sich einerseits als zu umfangreich herausgestellt, viele Attribute werden nicht gefüllt (Ochoa et al., 2011), andererseits wird aber die Aussagefähigkeit insbesondere hinsichtlich der didaktischen Merkmale als zu gering eingeschätzt (Arnold et al., 2003).

Um mit diesen Herausforderungen umzugehen, wurden vermehrt anwendungsspezifische LOM-Profile definiert, in denen eine Organisation definiert, bei welchen Attributen es sich um Pflichtfelder handelt, wie die Attribute zu verwenden sind oder welche Werte für einzelne Attribute verwendet werden können. Alternativ zum LOM-Standard wird, unter anderem aufgrund dessen Komplexität, häufig auch der Dublin Core Standard (Dublin Core, 2012) zur Beschreibung von Lehr-/Lernressourcen genutzt. Dublin Core dient allgemein zur Beschreibung von digitalen Objekten und wird vielfach von digitalen Bibliotheken verwendet. Es umfasst nur 15 Kernelemente, die um speziellere Elemente erweitert werden können.

Standards für Lehr- und Lerntechnologien

Standards für Inhaltsformate

Nicht nur für Metadaten zur Beschreibung von Lehr- und Lernressourcen sind Standards notwendig, sondern auch für die technische Repräsentation der Lehr- und Lernressourcen. Ohne die Definition und Einhaltung solcher Standards ist es nur eingeschränkt möglich, Ressourcen mit einem Autorensystem zu erstellen und über verschiedene Lernmanagementsysteme den Lernenden zur Verfügung zu stellen bzw. Ressourcen in verschiedenen Informationssystemen für Lehren und Lernen zu verwenden.

Sharable Content Object Reference Model

Das Sharable Content Object Reference Model (SCORM) ist eine Sammlung von Standards zur Beschreibung von web-basierten Lehr- und Lernressourcen, also solchen Ressourcen, die den Lernenden im Web in der Regel über Lernmanagementsysteme zur Verfügung gestellt werden. Diese Sammlung wurde von der Advanced Distributed Learning Initiative veröffentlicht. Aktuell liegt der Standard in der Version 2004 vor (ADL, 2004); in Informationssystemen häufig realisiert ist zumeist die Version 1.2 (ADL, 2002).

Abb. 4: Bestandteile des SCORM-Standards
Abb. 4: Bestandteile des SCORM-Standards

SCORM besteht, wie in Abbildung 4 gezeigt, aus unterschiedlichen Teilen. Teil I gibt einen Überblick über den Standard und erläutert die Verwendung der anderen Teile. Teil II, das Content Aggregation Model (CAM), spezifiziert das Datenmodell (basierend auf XML) (#webtech), in welchem die Ressourcen zu erstellen, zu strukturieren, zusammenzufassen und mit Metadaten zu beschreiben sind. Als Metadatenformat wird wiederum LOM verwendet. Eine Lernressource nach SCORM kann letztendlich als gepackte Datei (ZIP-Datei) gespeichert und so zwischen verschiedenen Informationssystemen ausgetauscht werden.

Der dritte Teil mit Titel Runtime Environment (RTE) definiert ein Protokoll, welches Lernmanagementsysteme (#infosysteme) verwendet, um den Prozess des Lernens einzelner Lernenden mit einer nach dem CAM beschriebenen Lernressource zu dokumentieren. So speichert das Lernmanagementsystem unter anderem den Lernfortschritt, also zum Beispiel welche Seiten einer Lernressource ein/e Lernende/r bereits betrachtet hat oder welche Aufgaben er/sie erfolgreich bearbeitet hat. Teil IV, Sequencing and Navigation (SN), erlaubt es, beim Entwurf von Lernressourcen Regeln zu spezifizieren, mittels denen abhängig vom individuellen Lernergebnis innerhalb von Lernressourcen aber auch zwischen verschiedenen Lerneinheiten navigiert wird. Damit soll eine Anpassung der Präsentation einer Lernressource an den individuellen Lernfortschritt erreicht werden. SN ist erst seit der Version 2004 Bestandteil von SCORM und findet bisher kaum Verwendung.

Question & Test Interoperability Specification

Wie das Content Aggregation Model von SCORM, so definiert auch die Question & Test Interoperability Specification (QTI) ein Datenmodell speziell für Testitems, das heißt Aufgaben, die den Lernenden entweder während der Bearbeitung einer Lerneinheit oder in einer elektronischen Prüfung gestellt werden (#assessment). QTI liegt aktuell in der Version 2.1 (IMS Global, 2012) vor. Die heute in Informationssystemen verbreitetste Version ist 1.2.

QTI erlaubt die Beschreibung von Aufgaben verschiedenster Typen. Über Einfach- und Mehrfachauswahl hinaus sind dies beispielsweise Zuordnungsaufgaben, Reihenfolgeaufgaben, Lückentexte, Freitexte oder die Bestimmung von Textteilmengen. In QTI lassen sich aber nicht nur Aufgaben definieren, sondern es lässt sich auch detailliert spezifizieren, wie und wie viele Punkte vergeben werden und wie das Informationssystem nach einer richtigen bzw. falschen Antwort agieren soll. Die Aufgaben werden, wie in Abbildung 5 dargestellt, mittels eines Autorenwerkzeuges erstellt. Mehrere Aufgaben lassen sich zu einem Test kombinieren. Ein solcher Test kann dann wiederum in eine Lerneinheit integriert werden oder in einem Prüfungssystem (E-Assessment-System) zur Durchführung einer Prüfung genutzt werden. Die Erstellung von Aufgaben und Test gehört häufig auch zu den Funktionalitäten eines Lernmanagementsystems oder eines Prüfungssystems, wobei erstere oftmals nur eine beschränkte Anzahl von Aufgabentypen unterstützen.

Abb. 5: An der Erstellung und Nutzung von Aufgaben und Tests beteiligte Systeme
Abb. 5: An der Erstellung und Nutzung von Aufgaben und Tests beteiligte Systeme

?

Erstellen Sie in dem auf diigo.com verlinkten onyx-Editor eine eigene Aufgabe nach dem QTI-Standard. Bei der Bearbeitung der Aufgabe werden Sie feststellen, wie vielen Möglichkeiten QTI bietet und wie aufwändig die Erstellung einer Aufgabe sein kann.

Standards für Lehr- und Lerntechnologien

Standards zur Beschreibung von Lehr- und Lernprozessen

Beim Lehren und Lernen mit neuen Technologien sind nicht nur die verwendeten Lernressourcen bedeutsam, sondern es ist insbesondere auch notwendig, den Lernprozess so zu gestalten, dass die Technologien sinnvoll eingesetzt werden. Insofern gibt es Bestrebungen, auch die eigentlichen Lehr- und Lernprozesse zu beschreiben, sodass andere Lehrende auf den gesammelten Erfahrungen aufbauen können.

IMS Learning Design

Learning Design (IMS Global, 2013) ist ein ebenfalls von der IMS festgeschriebener umfassender Standard zur Beschreibung von Lernszenarien. Lernszenarien werden darin verstanden als eine Kombination der Lernressourcen und der Methoden, wie diese verwendet werden. Für die Beschreibung der Lernressourcen integriert Learning Design die zuvor genannten Standards (die Bücher von SCORM, LOM und QTI). Dabei werden in Learning Design nicht nur Lerninhalte als Ressourcen verstanden, sondern auch Personen oder Funktionalitäten eines Informationssystems für Lehren und Lernen. Auf der methodischen Ebene liegt dann der Fokus auf der Beschreibung didaktischer Aspekte rund um die entsprechenden Lernprozesse zur Gestaltung technologiegestützter Lehre und Lernens. Dazu definiert der Standard verschiedene Elemente:

Mittels einer Definition von Lernzielen und Vorbedingungen lassen sich so sehr komplexe Szenarien definieren und festhalten. Learning Design ist ebenfalls ein XML-basiertes Datenmodell, sodass die mittels eines entsprechenden LD-Editors erstellten Beschreibungen zwischen verschiedenen Informationssystemen ausgetauscht werden können und auch zur Instanziierung von beispielsweise Lernmanagementsystemen genutzt werden können.

Didaktische Entwurfsmuster

Neben Learning Design haben sich in den vergangenen Jahren Didaktische Entwurfsmuster als Möglichkeit zur Beschreibung von Lehr- und Lernszenarien zunehmend etabliert. Bei den didaktischen Entwurfsmustern handelt es sich im engeren Sinne nicht um einen Standard, da sie nicht von einem Standardisierungsgremium veröffentlicht werden. Der Prozess ihrer Entstehung ist aber ebenfalls ein Aushandlungsprozess, an dessen Ende eine Publikation des Entwurfsmusters steht.

Entwurfsmuster (engl. Design Pattern) wurden ursprünglich in der Architektur von Christopher Alexander als Beschreibung von etablierten Lösungen verwendet. Die Idee der Entwurfsmuster wurde dann in der Softwareentwicklung aufgegriffen und wird heute in verschiedensten Themenbereichen verwendet. Ein Entwurfsmuster beschreibt eine etablierte Lösung bzw. Vorgehensweise in einem für den jeweiligen Themenbereich vereinbarten Format, bestehend aus verschiedenen Abschnitten. In der Regel verwendete Abschnitte sind Titel, Verwendungszusammenhang, Problembeschreibung, Lösungsbeschreibung, Beispiele, ähnliche Muster.

Vor der Veröffentlichung eines Entwurfsmusters steht ein Diskussionsprozess an dem mehrere Expertinnen und Experten beteiligt werden. Damit soll sichergestellt werden, dass es sich tatsächlich um etablierte Lösungen handelt. Entwurfsmuster sollen sich insbesondere dadurch auszeichnen, dass sie nicht nur für eine Expertin oder einen Experten lesbar und verständlich sind. Sie sind daher im Gegensatz zu Learning Design in natürlicher Sprache formuliert und nicht durch Informationssysteme interpretierbar. Auch ist ihre Mächtigkeit im Vergleich zu Learning Design eingeschränkt. Da es sich bei Entwurfsmustern um etablierte Lösungen handeln soll, die in verschiedenen Situationen nutzbar sind, sind diese in der Regel auch unabhängig von konkreten Lerninhalten formuliert.

?

Benennen Sie drei wesentliche Unterschiede zwischen didaktischen Entwurfsmustern und dem Standard Learning Design. Die Musterlösung finden Sie auf diigo.com unter #metadaten #musterloesungen.

!

Weiterführende Informationen zu Entwurfsmustern finden sich in Kohls und Wedekind (2008).

!

Beispiele für didaktische Entwurfsmuster finden sich unter den Links zum Kapitel auf www.diigo.com.

Standards für Lehr- und Lerntechnologien

Zusammenfassung und Ausblick

In den vergangenen Jahren sind, wie zuvor beschrieben, verschiedenen Standards für Lehr- und Lerntechnologien definiert worden. Ihre tatsächliche Nutzung ist bis heute sehr unterschiedlich ausgeprägt. Am weitesten verbreitet sind die Standards zur Beschreibung von Lehr- und Lernressourcen LOM und SCORM sowie von QTI. Allerdings werden diese nicht immer in ihrer aktuellen Version in Informationssystemen umgesetzt (siehe dazu beispielsweise die von der ADL herausgegebene Übersicht über die SCORM-zertifizierten Informationssysteme (ADL, 2012)). Im Zusammenhang mit dem zunehmenden Einsatz von bestehenden Social-Media-Anwendungen oder Kollaborationswerkzeugen im Lernen, rücken allgemeine Standards für Webtechnologien (#webtech) zunehmend in den Fokus des Interesses.

Learning Design als Standard zur Beschreibung von Lernszenarien hingegen wird weniger verwendet. Die Nutzung von Learning Design beschränkt sich aufgrund seiner Komplexität, des Mangels an Informationssystemen, die LD unterstützen, derzeit primär auf das akademische Umfeld, insbesondere in Forschungsprojekten (Lockyer et al., 2008). In diesem Zusammenhang stellt sich auch die Frage, ob es sinnvoll ist, pädagogisches Handeln standardisiert zu beschreiben (Arnold et al., 2013, 345). Der Vollständigkeit halber soll mit dem Qualitätsmanagement im E-Learning (#qualitaet) noch auf einen weiteren Bereich der Standardisierung hingewiesen werden. Die Norm ISO/IEC 19796-1 (ISO, 2005) ist ein Qualitätsmanagementstandard, der Prozesse der Aus- und Weiterbildung beschreibt, und bezieht an wesentlichen Stellen auch E-Learning mit ein.

Standards für Lehr- und Lerntechnologien

Literatur

Human-Computer-Interaction

Usability Engineering im Bildungskontext

Moderne Informationstechnologie im Bildungskontext ermöglicht raschen Zugriff auf immer mehr Daten. Mehr Daten heißt aber nicht mehr Information. Mehr Information heißterst recht nicht mehr Wissen. Während die technische Performanz steigt, stößt die kognitive Performanz der Lernenden rasch an ihre Grenzen. Die zunehmende Informationsflut bei steigender Komplexität der Inhalte lässt daher Benutzbarkeit (Usability) nicht mehr als Zusatznutzen (added value) erscheinen, sondern vielmehr als zentralen Erfolgsfaktor. Grundvoraussetzung dafür ist ein Verständnis für Problemstellungen an der Nahtstelle von Informatik und Psychologie. Grundlagen dazu kann das Fach Mensch-Computer-Interaktion (engl. „human-computer-interaction“, HCI)einbringen, die im Usability Engineering (UE) praktisch umgesetzt werden. Die Herausforderung liegt in der Interaktionzwischen Mensch und Computer. Dazu benötigen wir zunächst einen kurzen Überblick über die historische Veränderung dieser Interaktion. Danach lernen wir, ausgehend von den prinzipiellen Unterschieden zwischen Mensch und Computer, einige Grundlagen, die zur technischen Gestaltung der Interaktion der Nahtstelle von Mensch und Maschine (engl. „Graphical User Interface“, GUI) wichtig sind.

Human-Computer-Interaction

Einführung

Human-computer-interaction (HCI) ist ein erst seit rund 30 Jahren etabliertes Teilgebiet der Informatik, das mit der Verbreitung sogenannter grafischer Benutzeroberflächen (Shneiderman, 1983) entstand und von Beginn an versucht, die Interaktion zwischen Computern (wie auch immer sie heute aussehen, mobil, pervasive, ubiquitous) (siehe Kapitel #grundlagen) und Menscheffektiv und effizient zu ermöglichen. Während die klassische HCI-Forschung (Card, Moran & Newell, 1983; Norman, 1986) sich auf das Zusammenspiel zwischen Mensch–Aufgabe–Computer konzentrierte, widmet sich die neuere HCI-Forschung neben der Erforschung neuer Interaktionsparadigmen (zum Beispiel intelligente, adaptive, personalisierte Interfaces, Augmented Non-Classical Interfaces, aber auch Social Computing und andere) vor allem der Erhöhung der Effektivität und Effizienz des Zusammenwirkens menschlicher und technischer Performanz. HCI-Wissen ist somit auch grundlegend zur Optimierung technologiegestützten Lehrens und Lernens (Niegemann et al., 2008),insbesondere im Bereich der Interaktion zwischen zukünftigen semantischen Technologien und menschlichen Wissensräumen (Cuhls, Ganz & Warnke, 2009). Die Betrachtung der Unterschiede und Gemeinsamkeiten von menschlicher und maschineller Intelligenz ist ein wichtiger Aspekt moderner HCI-Forschung (Holzinger, 2013).

Abb. 1: HCI erforscht Aspekte an der Nahtstelle zwischen Information, Perzeption und Kognition
Abb. 1: HCI erforscht Aspekte an der Nahtstelle zwischen Information, Perzeption und Kognition
Human-Computer-Interaction

Interaktion und Interaktivität

Interaktion ist eigentlich ein Begriff aus der Psychologie und bezeichnet einen auf der Basis gewisser Erwartungen, Einstellungen und Bewertungen beruhenden Austausch (von Information) auf sprachlicher oder nichtsprachlicher (symbolischer) Ebene. Interaktion ist also eng mit dem Begriff Kommunikation verbunden. Darum wird im Deutschen HCI auch oft als Mensch-Computer-Kommunikation bezeichnet. Interaktivität hingegen ist ein technischer Begriff, der Möglichkeiten und Eigenschaften des Computers bezeichnet, den Benutzerinnen und Benutzernverschiedene Eingriffs-, Manipulations- und Steuerungsmöglichkeiten zu ermöglichen.

Interaktivität wird zu einem didaktisch wichtigen Teil des technologiegestützten Lernens gezählt (Schulmeister, 2002), insbesondere weil Interaktivität die Möglichkeit bietet, dass die Endbenutzerinnen und Endbenutzer die Auswahl, die Art und die Präsentation von Informationen aktiv manipulieren können und damit ihrem individuellen Vorwissen und ihren Bedürfnissen anpassen können (Holzinger, Searle & Wernbacher, 2011). Das war allerdings nicht immer so. Zu Beginn der Computertechnik war die Interaktivität sehr beschränkt, Computer hatten weder Bildschirm noch Tastatur: Eingabedaten wurden mit Lochkarten in Stapelverarbeitung (Batch-Processing) an den Rechner übergeben, die sequenziell abgearbeitet wurden und als Output wiederum Ausgabedaten auf Lochkarten erzeugten.

Character-based User Interfaces

Die Verwendung von Bildschirm (vom Fernsehgerät) und Tastatur (von der Schreibmaschine) als Computer-Interface-Geräte war ein wichtiger Schritt: Zeichen sind nun unabhängig davon, was sie darstellen und können daher auf unterschiedlichste Weise realisiert werden. Anstatt einen auf Lochkarten vorgefertigtenStapel von Aufträgen zu liefern und auf das Ergebnis zu warten, wird die Aufgabe nun Schritt für Schritt im Dialog erledigt. Somit wird nicht nur die Durchführung der eigentlichen Aufgabe, sondern auch die Entwicklung der Aufgabenstellung im Dialog mit dem Computer unterstützt.

Das ist eine ganz wesentliche Voraussetzung für Lernprogramme. Allerdings waren es anfangs noch Dialogsysteme mit Kommandozeilen-Interpreter (engl. Command Line Interpreter,Shell). Dies waren die ersten User Interfaces, die bereits Text in der Kommandozeile einlesen, diesen Text als Kommando interpretieren und ausführen konnten. So konnten Programme gestartet, Parameter und Dateien übergeben werden. Die Realisierung als eigenständiges Programm führte schnell zu Verbesserungen zum Beispiel durch Fehlerbehandlungsroutinen und Kommandounterstützung. Waren Computerbenutzerinnen und Computerbenutzer anfangs noch ausgewiesene Expertinnen und Experten, wird nun – gerade aufgrund der immer breiteren Gruppe von Endbenutzerinnen und Endbenutzern - die Benutzeroberfläche selbst zum Gegenstand von Forschung und Entwicklung. Damit war die Basis geschaffen, HCI an unterschiedlichste Dialogprinzipien anpassen zu können.

Graphical User Interfaces (GUI)

Die immer breitere Anwendung von Computern in der Öffentlichkeit verlangte, dass die zeichenbasierte Unabhängigkeit der Dialogsysteme noch weiter abstrahiert wurde, weil auch andere als alphanumerische Zeichen für die Darstellung und den Dialog verwendet werden können:Dies sind grafische Elemente, die analog zum alltäglichen Arbeiten durch Zeigen, Nehmen, Verschieben, Ablegenund anderes manipuliert werden können (sogenannte WIMP: Windows, Icons, Menus, Pointers). Diese WIMP-Interaktion, die sich als „Desktop Metapher“ an unterschiedliche Arbeitsumgebungen anpassen kann und über „Point&Click“ sowie „Drag&Drop“ benutzbar ist, eröffnete dem technologiegestützten Lernen einen ungeheuren Schub, da diese Möglichkeit der „direkten Manipulation“ virtueller Objekte den kognitiven Konzepten der Benutzerinnen und Benutzer sehr entgegenkommt.GUI und Desktop sind Kernparadigmen der HCI, die zwar kontinuierlich erweitert und verbessert werden (zum BeispielToolbars, Dialogboxen, adaptive Menüs), aber vom Prinzip her konstant bleiben. Dies ist eine Konstanz, die ein wichtiges Prinzip unterstützt: Reduktion kognitiver Überlastung. Die GUIs bestehen zwar aus grafischen Elementen, dochim Hintergrund bleiben abstrakte, zeichenbasierte Beschreibungen von Prozessen, die grundsätzlich unabhängig von der Art der Darstellung sind und daher auch über unterschiedlichste Interface-Prinzipien realisiert werden können.

Erweiterte WIMP-Interfaces: SILK (Speech, Image, Language, Knowledge)

Der Desktop als Metapher ist nicht für alle Anwendungsbereiche ideal. Durch die Einbindung von Multimedia (Sprache, Video, Gesten und andere mehr) in das GUI und die Integration mobiler und zunehmend pervasiver und ubiquitärer Technologien, also Computer, die in Alltagsgegenständen eingebettet und als solche gar nicht mehr erkennbar sind,werden Alternativen zu WIMP nicht nur möglich, sondern auch notwendig.Hier können quasi-intelligente, semantische Funktionen integriert werden, wodurch ein weiterer wichtiger Schritt erfolgte: Wenn Interfaces unterschiedlichste Metaphern unterstützen müssen und die Metapher an unterschiedliche Benutzerinnen und Benutzer, Medien, Endgeräte und Situationen angepasst werden muss, bedarf es einer Standardisierung der Interfacemechanismen und einer entsprechenden Beschreibung (zum Beispieldurch XUL – XML User Interface Language), die über unterschiedliche Werkzeuge realisiert werden können.

!

GUI und Desktop sind Kernparadigmen der HCI, die zwar kontinuierlich erweitert und verbessert werden (zum Beispiel Toolbars, Dialogboxen, adaptive Menüs), aber vom Prinzip her konstant bleiben.

Non-Classical Interfaces

Desktop und WIMP-Interfaces beruhen auf der Nutzung der klassischen Interface-Geräte (Bildschirm, Tastatur, Maus usw.), die Schritt für Schritt bei Beibehaltung ihrer Grundstruktur erweitert – zum Beispiel für SILK oder für andere Metaphern – und adaptiert werden. Die Leistungsfähigkeit der Computer und die zunehmende Unabhängigkeit der Interfaces integrieren damit Schritt für Schritt auch andere Ein- und Ausgabegeräte und Interaktionsmechanismen wie beispielsweise Sprache und Gesten. Unsere klassischen Sinne Sehen und Hören können damit durch weitere „körperbewusste“ (propriozeptive) Modalitäten wie Berühren/Tasten, Schmecken, Riechen, aber auch Temperatur, Gleichgewicht, Schmerz, Aufmerksamkeit und so weiter ergänzt werden. Solche „Non Classical Interfaces“ haben sich daher zu einem wichtigen Forschungsbereich entwickelt. Damit wird der Mensch als Ganzes in die Interaktion miteinbezogen, was zu neuen Möglichkeiten des Lehrens und Lernens führt (ein aktuelles Beispiel ist die Nintendo Wii mit der Wiimote (Holzinger et al., 2010).

!

Moderne Interfaces erlauben nicht nur die Interaktion des Menschen mit dem Computer mit herkömmlichen Eingabegeräten, sondern versuchen, haptische Möglichkeiten zu berücksichtigen.

Intelligente adaptive semantische Interfaces

Da heutige Computersysteme zunehmend alle Lebensbereiche durchdringen und sich die Interaktivität immer mehrvom klassischen Schreibtisch wegbewegt, verbreiten sich neue ubiquitäre, pervasive Möglichkeiten für das Lehren und Lernen (Safran et al., 2009). In Zukunft werden Benutzeroberflächen mit intelligenten, semantischen Mechanismen ausgestattetsein. Diese unterstützen die Benutzerinnen und Benutzerbei den immer vielfältiger und komplexer werdendenAufgaben des täglichen Lernens und wissensintensiven Arbeitens (zum Beispiel Suchen, Ablegen, Wiederfinden, Vergleichen). Diese Systeme passen sich dynamisch an die Umgebung, Geräte und vor allem ihre Benutzerinnen und Benutzer und deren Präferenzen an(Holzinger & Nischelwitzer, 2005). Entsprechende Informationen werden für die Gestaltung der Interaktion in Profilen gesammelt und ausgewertet (User profiling).Ebenso erlaubt die steigende technische Performanz,die Multimedialität und Multimodalität voranzutreiben, wodurch man sich von der Desktop Metapher immer weiter entfernen kann. Damit können adaptive Systeme realisiert werden, bei denen die Systeme selbst mit der Umgebung intelligent interagieren und semantische Information verarbeiten und so die User Interfaces der jeweiligen Situation, den Bedürfnissen, dem Kontext und den vorhandenen Endgeräten anpassen (Holzinger, Nischelwitzer & Kickmeier-Rust, 2006), (Holzinger, Geier & Germanakos, 2012). Personalisierung ist auf vielen Gebieten ein wichtiger Trend (Belk et al., 2013).

Web 2.0 als Ausgangspunkt der veränderten HCI

Mit dem Aufkommen des Web 2.0 (O’Reilly, 2005,2006) veränderte sich die Interaktion – weg vom klassischen Personal Computing. Die Benutzerinnen und Benutzer sind nicht mehr passive Informationskonsumentinnen und -konsumenten, sondern erstellen aktiv Inhalte, bearbeiten und verteilen und vernetzen sich darüber hinaus mit anderen (socialcomputing). Obwohl der Begriff Web 2.0 keine rein technische Entwicklung bezeichnet, werden einige Ansätze aus der Informatik unmittelbar damit verbunden wie zum Beispiel RSS-Feeds (Really Simple Syndication) zum schnellen Informationsaustauschfür die einfache und strukturierte Veröffentlichung von Änderungen auf Websites (beispielsweise Blogs) in einem standardisierten Format (XML) oder AJAX (Asynchronous JavaScript and XML) als mächtiges Konzept der asynchronen Datenübertragung zwischen einem Browser und einem Server. Damit hat man die Möglichkeit, in einem Browser ein desktopähnliches Verhalten zu simulieren, wodurch sich vielfältige Möglichkeiten für E-Learning-Anwendungen ergeben. Wir wenden uns nun aber in aller Kürze einigen Grundregeln für benutzergerechte HCI zu.

Human-Computer-Interaction

Grundregeln für benutzergerechte HCI

Unterschiede Mensch-Computer

Wenn wir uns mit der Interaktion, Perzeption und Kognition von Information durch den Menschen beschäftigen,müssen wir einige wesentliche Unterschiede zwischen Mensch und Computer kennen. Während Menschen die Fähigkeit zum induktiven, flexiblen Denken und komplexen Problemlösen auszeichnet, zeigen Computer bei deduktiven Operationen und logischen Aufgaben ermüdungsfreie Performanz (Bild 2).

Abb. 2: Grober Vergleich Mensch – Computer (Holzinger, 2000c)
Abb. 2: Grober Vergleich Mensch – Computer (Holzinger, 2000c)

!

Usability ist nicht nur die – wie das Wort ins Deutsche übersetzt wird – schlichte „Gebrauchstauglichkeit“. Usability setzt sich nämlich aus Effektivität, Effizienz und der Zufriedenheit der Endbenutzerinnen und Endbenutzer zusammen.

HCI und Usability

Zur Interaktion zwischen Mensch und Computer gibt es einige Elemente, die im Folgenden kurz vorgestellt werden. Wichtig ist zu berücksichtigen, dass sowohl funktionale als auch ästhetische Elemente zusammenwirken sollten. Brauchbarkeit (usefulness), Benutzbarkeit (usability) und Ästhetik (enjoyability) sollten ausgewogen zusammenwirken.

Usability – was ist das eigentlich? Usability ist nicht nur die – wie das Wort ins Deutsche übersetzt wird – schlichte „Gebrauchstauglichkeit“. Usability setzt sich nämlich aus Effektivität, Effizienz und der Zufriedenheit der Endbenutzerinnen und Endbenutzer zusammen. Effektivität wird daran gemessen, ob und in welchem Ausmaß die Endbenutzerinnen und Endbenutzer ihre Ziele erreichen können. Effizienz misst den Aufwand, der zur Erreichung dieses Ziels nötig ist. Zufriedenheit schließlich ist gerade im E-Learning wichtig, denn sie enthält subjektive Faktoren wie „joy of use“, „look & feel“ und „motivation & fun“ (enjoyability). Usability wird demnach durch das optimale Zusammenspiel von Effektivität, Effizienz und Zufriedenheit für einen bestimmten Benutzerkontext gemessen.

In den folgenden Aufzählungen soll exemplarisch klar werden, worauf es in der Usability ankommt:

  1. Orientierung. Elemente wiebeispielsweise Übersichten, Gliederungen, Aufzählungszeichen, Hervorhebungen oder Farbbereiche dienen dazu, sich zurechtzufinden. Die Endbenutzerinnen und Endbenutzer müssen stets zu jeder Zeit genau erkennen, wo sie sich befinden und wo sie „hingehen“ können.
  2. Navigation (zum Beispiel Buttons, Links oder Navigationsleisten) helfen den Benutzerinnen und Benutzern, sich zu bewegen und gezielt bestimmte Bereiche anzuspringen. Die Navigation muss logisch, übersichtlich, rasch und konsistent (immer gleichartig) erfolgen. Sprichwort: „Whatever you do, beconsistent“ Das gilt auch für Fehler: Solange sie konsistent sind, fallen sie nicht so sehr auf.
  3. Inhalte (zum Beispiel Texte, Bilder, Töne, Animationen, Videos) sind die Informationen, die vermittelt werden sollen (engl. „content“). Hier gelten alle Grundregeln der menschlichen Informationsverarbeitung. Alle Inhaltselemente müssen entsprechend aufbereitet werden. Text muss kurz und prägnant sein. Anweisungen müssen eindeutig und unmissverständlich sein.
  4. Interaktionselemente (zum Beispiel Auswahlmenüs, Slider, Buttons) ermöglichen, gewisse Aktionen zu erledigen. Sämtliche Interaktionen müssen den (intuitiven) Erwartungen der Endbenutzerinnen und Endbenutzer entsprechen.

Usability-Engineering-Methoden sichern den Erfolg. Eine breite Palette an Usability-Engineering-Methoden (UEM) sichern erfolgreiche Entwicklungsprozesse (sieheHolzinger, 2005). Ein Beispiel hierfür ist das „User-Centered Design“ (UCD). Dieser Ansatz orientiert sich an Bedürfnissen, Fähigkeiten, Aufgaben, Kontext und Umfeld der Endbenutzerinnen und Endbenutzer, die von Anfang an in den Entwicklungsprozess mit einbezogen werden. Daraus entwickelte sich das „Learner-Centered Design“ (LCD), das sich auf die Grundlagen des Konstruktivismus (Lernen als konstruktive Informationsverabeitung) und des Problem-basierten Lernens stützt. Ähnlich wie beim UCD fokussiert sich das LCD auf das Verstehen der Lernenden im Kontext. Die E-Learning-Umgebung (also das Tool) und der Lerninhalt (engl. „content“) müssen einen maximalen Nutzen (Lernerfolg) bringen.

Ähnlich wie im User-Centered Design wird bei dieser Methode ein spiralförmiger (iterativer) Entwicklungsprozess durchlaufen, der aus drei Phasen besteht. In jeder Phase kommen spezielle Usability-Methoden zum Einsatz, die Einblick in die Bedürfnisse, das Verhalten und den Kontext der Endbenutzerinnen und Endbenutzer erlauben (Wer? Was? Wann? Wozu? Wie? Womit? Warum?). So kann eine genaue Kenntnis der Lernenden gewonnen werden: Ziele, Motivation, Zeit, Kultur, Sprache, Voraussetzungen, Vorwissen und weiteres.

!

„Thinking aloud“ beschreibt eine Methode, bei der zumeist vier bis fünf Testpersonen gebeten werden, ein Programm oder einen Programmablauf zu testen und ihre Gedanken dabei laut auszusprechen.

Es wird jeweils zum nächsten Schritt übergangen, wenn kein nennenswerter Erkenntnisgewinn mehr erzielt wird. Wichtig ist die interdisziplinäre Zusammenarbeit verschiedener Personen, wie zum Beispiel Fachexperten und Fachexpertinnen, Didaktiker/innen, Multimedia-Experten und -Expertinnen, Usability-Ingenieure und Lernende! Selten fallen alle Rollen in einer Person zusammen. Während der Analysen wird klar, welches didaktische Modell für den jeweiligen Kontext am besten geeignet ist und welche pädagogischen Konzepte angewandt werden können, die die Lernenden im Zielkontext mit der jeweiligen Zieltechnologie (zum Beispiel Mobiltelefon, iPod, iTV) bestmöglich unterstützen.

Mit Hilfe eines ersten Prototyps kann Einsicht in viele Probleme gewonnen werden. Sehr bewährt hat sich das sogenannte „Rapid Prototyping“, das auf papierbasierten Modellen beruht und enorme Vorteile bringt (Holzinger, 2004). Dabei kann das Verhalten der Endbenutzerinnen und Endbenutzer zum Beispiel mit der Methode des Lautdenkens (englisch „thinking aloud“, siehe Infokasten) untersucht werden. Erst wenn auf Papierebene alles „funktioniert“, wird ein computerbasierter Prototyp erstellt, der dann wiederholt getestet wird. Erst wenn auch hier kein weiterer Erkenntnisgewinn erfolgt, kann die Freigabe für die Umsetzung der endgültigen Version gegeben werden. Papier in der Anfangsphase, das klingt seltsam, ist aber extrem praktisch, weil wesentliche Interaktionselemente schnell erstellt und simuliert werden können, ohne dass bereits Programmierarbeit geleistet wird.

!

Erfolgsregel: Alles, was bereits in der Anfangsphase erkannt wird, spart Zeit und Kosten! Der Return on Investment (RoI) liegt dabei zwischen 1:10 bis 1:100.

!

„Bedienerfreundlichkeit“ wird im englischen Sprachraum nicht mit Usability bezeichnet. Der Begriff Usability setzt sich aus zwei Worten zusammen: use (benutzen) und ability (Fähigkeit), wird im Deutschen mit „Gebrauchstauglichkeit“ übersetzt und umfasst weit mehr als nur Bedienerinnen- und Bedienerfreundlichkeit: In der ISO Norm 9241 wird Usability als das Ausmaß definiert, in dem ein Produkt durch bestimmte Benutzer/innen in einem bestimmten Nutzungskontext (!) genutzt werden kann, um deren Ziele effektiv und effizient zu erreichen.

Lerninhalt – Metadaten – Didaktik. Damit E-Learning-Inhalte einem lerntheoretisch adäquaten Ansatz entsprechen, müssen diese nicht nur entsprechend aufbereitete Lerninhalte und Metainformationen (Metadaten sind Informationen die zum Beispiel das Wiederfinden ermöglichen) enthalten, sondern auch noch einige weitere technische Voraussetzungen erfüllen. Ähnlich wie in der objektorientierten Programmierung (OOP), entstand die Grundidee von Lernobjekten, das heißt komplexe Lerninhalte (engl. „content“) in einzelne kleine Objekte aufzuteilen. Wünschenswerte technische Eigenschaften solcher Objekte sind Austauschfähigkeit (engl. „interoperability“) und Wiederverwertbarkeit (engl. „reusability“). Dazu muss das Objekt aber nicht nur Lerninhalte und Metadaten enthalten, sondern auch Fragen zum Vorwissen (engl. „prior knowledge questions“) und zur Selbstevaluierung (engl. „self-evaluation questions”).

Fragen zum Vorwissen haben im Lernobjekt die Funktion von AdvanceOrganizers(Ausubel, 1960). Dabei handelt es sich um einen instruktionspsychologischen Ansatz in Form einer „Vorstrukturierung“, die dem eigentlichen Lernmaterial vorangestellt wird. Allerdings driften hier die Forschungsbefunde auseinander: Die ältere Forschung betont, dass ein Advance Organizer nur dann wirksam wird, wenn dieser tatsächlich auf einem höheren Abstraktionsniveau als der Text selbst liegt, das heißt lediglich eine inhaltliche Zusammenfassung des nachfolgenden Textes ist noch keine Vorstrukturierung. Solche Vorstrukturierungen, die analog zu den Strukturen des Textes aufgebaut sind, bringen bessere Ergebnisse bei der inhaltlichen Zusammenfassung als solche, die zwar inhaltlich identisch, aber nicht in diesem Sinn analog aufgebaut sind. Andererseits hebt die jüngere Forschung hervor, dass sich konkrete, das heißt weniger abstrakt formulierte, Vorstrukturierung auf das Behalten längerer Texte positiv auswirkt. Sie aktivieren demnach das vorhandene Vorwissen und verbinden sich damit zu einer „reichhaltigen Vorstellung“ – einem mentalen Modell (dazu Ausubel, 1968; Kralm & Blanchaer, 1986; Shapiro, 1999). Das Konzept der AdvanceOrganizer ist verwandt mit dem Schema-Modell kognitiver Informationsverarbeitung (Bartlett, 1932). Schemata spielen eine wichtige Rolle bei der sozialen Wahrnehmung, beim Textverstehen, beim begrifflichen und schlussfolgernden Denken und beim Problemlösen. Ähnlich wie Schemata funktioniert die Theorie der Frames und Slots nach Anderson(Anderson et al., 1996). Die Wissensrepräsentation mit Hilfe von Frames stellt eine objektorientierte Wissensrepräsentation dar und zeigt Ähnlichkeiten zwischen menschlichem Gedächtnis und wissensbasierenden Informationssystemen. Objekte der realen Welt werden dabei durch sogenannte Frames dargestellt. Die Eigenschaften der Objekte werden in den Frames in sogenannten Slots (Leerstellen) gespeichert. Der Tatsache, dass es in der realen Welt mehrere unterschiedliche Objekte eines Objekttyps gibt, wird mit Hilfe von generischen Frames und deren Instanzen Rechnung getragen. Ein generischer Frame hält für jedes Attribut, mit dem ein Objekt beschrieben wird, einen Slot bereit. In einer Instanz des generischen Frames wird nun jedem Slot – entsprechend für das Attribut, für das er steht, – ein Wert zugeordnet. Die Beziehung zwischen einem generischen Frame und einer Instanz wird mit Hilfe des „is-a“-Slot hergestellt. Im Beispiel ist im ,,is-a“-Slot gespeichert, dass es sich bei Katharina um ein Kind handelt. In den übrigen Slots sind jeweils Werte zu den Attributen gespeichert. Diese Theorien besagen, dass Lernende besser lernen, wenn die Information assoziativ organisiert ist, da Lernende neue Informationen stets auf alten Informationen (Vorwissen) aufbauen. Bereits Piaget (1961) bezeichnete Schemata als grundlegende Bausteine zum Aufbau von Wissen.

In der Praxis: Evaluation von Systemen und Software

Für die Praxis ist die Evaluation, also die Beurteilung von Systemen und Software wichtig. Eine Evaluation sollte stets systematisch, methodisch und prozessorientiert durchgeführt werden.

Es wird unterschieden zwischen formativer Evaluation (während der Entwicklung) und summativer Evaluation (nach der Fertigstellung). Subjektive Evaluation schließt die mündliche und die schriftliche Befragung und das laute Denken ein. Objektive Evaluation bedient sich der anwesenden und abwesenden Beobachtung. Bei leitfadenorientierten Evaluationsmitteln wird das Produkt entlang eines Prüfleitfadens beurteilt, der sich aus typischen Aufgaben des Systems ergibt. Bei der Erfassung der Messwerte können verschiedene Skalen (zum Beispiel Nominalskala, Rangskala, Verhältnisskala) verwendet werden, die unter bestimmten Voraussetzungen durch eine Skalentransformation ineinander überführt werden können. Messungen sollen sich stets durch hohe Reliabilität (Zuverlässigkeit), Validität (Gültigkeit) und Objektivität (Sachlichkeit) auszeichnen. Als Beurteilungsverfahren (Zuweisung von Werten) werden Grading (Einstufung), Ranking (Reihung), Scoring (Punktevergabe) und Apportioning (Aufteilung, Zuteilung) verwendet. Eine quantitative Beurteilung (Vorteil: leichte Vergleichbarkeit von Systemen) kann durch Schulnoten erfolgen; oft wird es aber auch umgekehrt gemacht, wobei mehr Punkte besser sind. Multimedia-Systeme können systematisch mit Checklisten beurteilt werden.

Was bringt Usability? Ein Usability-orientierter Prozess schafft Erfolgssicherheit, deckt Risiken frühzeitig auf und sichert eine endbenutzerinnen- und endbenutzerzentrierte Entwicklung. Usability-Engineering-Methoden machen nicht nur Probleme sichtbar, sondern generieren in der Entwicklungsphase neue Ideen und Möglichkeiten – denn Usability Engineering stellt den Menschen in den Fokus der Entwicklung.

Human-Computer-Interaction

Ausblick

So spannend Forschung und Entwicklung neuer Technologien zur Unterstützung menschlichen Lernens auch sind, muss uns doch stets klar sein: Lernen ist ein kognitiver Grundprozess, den jedes Individuum selbst durchlaufen muss – Technologie kann menschliches Lernen lediglich unterstützen – nicht ersetzen. Unsere großen Chancen beim Einsatz neuer Technologien liegen zusammengefasst in drei großen Bereichen (Holzinger, 1997; Holzinger & Maurer, 1999; Holzinger, 2000a; Holzinger, 2000d):

?

Überlegen Sie, wie man mit zukünftigen Computersystemen in Dialog treten könnte. Denken Sie dabei an schon vorhandene Interfaces, zum Beispiel WiiRemote Controller: Was ist dort besonders gut gelungen? Was wird unterstützt? Was könnte damit alles gemacht werden?

Technologiegestütztes Lehren und Lernen erfordert,stets den gesamten Bildungsprozess inklusive der durch die neuen Medien entstehenden Lehr-Lern-Kultur und den Kontext zu betrachten. Fragen der Effektivität (Ausmaß der Zielerreichung) und der Effizienz (Kosten-Nutzen-Relation) sind notwendig. HCI-Forschung versucht, einen kleinen Beitrag dazu zu leisten und UE versucht, die Erkenntnisse auf systemischer Ebene einfließen zu lassen.

?

Gehen Sie in Gedanken systematisch Ihre persönliche Arbeitsumgebung durch (also jene Dinge, die Sie selbst als Lernunterstützung verwenden), und bewerten Sie diesemit der Schulnotenskala (1 „sehr gut“ bis 6 „nicht genügend)“ anhand der folgenden ausgewählten Kriterien:

Human-Computer-Interaction

Literatur

Didaktisches Handeln

Die Beziehung zwischen Lerntheorien und Didaktischem Design

Behaviorismus, Kognitivismus und Konstruktivismus gelten als die drei großen Lerntheorien, haben sich stets weiterentwickelt (durch soziale, biologische und konnektivistische „Ausläufer“) und beeinflussen sowohl das Forschen in der Wissenschaft als auch das Denken und Handeln in der Praxis des (technologiegestützten) Lehrens und Lernens. Trotzdem haben Lerntheorien keine direkte handlungspraktische Relevanz, wenn es darum geht, didaktische Entscheidungen zu treffen. Verfahrensregeln zur Erarbeitung von vor allem technologiegestützten Lehr-Lernangeboten, wie sie z.B. das Instructional-System-Design anbietet, scheinen dagegen genau diese, den Lerntheorien fehlende, handlungspraktische Relevanz zu haben, erweisen sich aber letztlich als zu starr und der Komplexität didaktischer Herausforderungen nicht gewachsen. Didaktisches Design versucht, Lehrenden Leitlinien für die Gestaltung didaktischer Szenarien an die Hand zu geben, die dem besonderen Verhältnis zwischen Lehren und Lernen gerecht werden. Zu diesen Leitlinien gehören unter anderem Lehrzieltaxonomien und Heuristiken zur Inhaltsauswahl, aber auch Verfahrensvorschläge, die sich an der Logik didaktischen Handelns orientieren. Didaktisches Design ist eine Entwurfsdisziplin und will als solche das didaktische Handeln der Lehrenden durch Gestaltungsmaßnahmen im Vorfeld des Unterrichtens unterstützen. Dafür greift sie auf lerntheoretische und didaktische Erkenntnisse zurück, ohne davon auszugehen, dass sich didaktische Szenarien stets regelhaft gestalten und Unterricht in allen Aspekten planen lassen.

Didaktisches Handeln

Lerntheorien – vom Lernen zum Lehren?

Lernen kann der Mensch immer – auch ohne Lehren. Das gilt ganz besonders im Zusammenhang mit digitalen Technologien, die zahlreiche Lernchancen und -anlässe bieten, ohne dass Lehrende diese explizit zu Bildungszwecken arrangiert haben müssen. Lehren ohne Lernen dagegen ist sinnlos, denn: Ziel allen Lehrens (und damit auch aller Bildungsinstitutionen, in denen gelehrt wird) muss das Lernen sein. Es ist daher zunächst einmal naheliegend anzunehmen: Wenn ich weiß, wie Lernen funktioniert, weiß ich auch, wie man am besten lehren kann. Wie man lernt, darüber sollten Lerntheorien Auskunft geben. Lerntheorien versuchen, zu beschreiben und zu erklären, nach welchen Prinzipien oder gar Gesetzen Lernen „funktioniert“. Mit Lernen wiederum meint man in der Regel einen Erfahrungsprozess, der dazu führt, dass eine Person relativ stabile Dispositionen aufbaut und in der Folge ihr Verhalten, Handeln, Denken, Fühlen oder Meinen verändert. Lerntheorien sollten also, so könnte man folgern, am Anfang stehen, wenn man die Rolle des Lehrenden innehat und Lernprozesse (unter anderem mit technologiegestützten Bildungsangeboten) fördern will. Allerdings gibt es verschiedene Lerntheorien, sodass man sich offenbar für eine Lerntheorie entscheiden oder zumindest wissen muss, welche Lerntheorie für welche Zwecke brauchbar ist. Novizen auf dem Gebiet des Lehrens und Lernens gehen denn auch oft davon aus, dass ihnen Lerntheorien den Weg zum rechten Lehren weisen – nach dem Motto: „Sag mir, welche Lerntheorie ich nehmen soll, und ich weiß, was zu tun ist.“ Der viel diskutierte „shift from teaching to learning“ scheint Gedankenketten dieser Art auf den ersten Blick zu bestärken: Wenn der Fokus auf den Lernenden und ihren Lernprozessen liegt, kann es nicht falsch sein, das Lehrhandeln an Lerntheorien auszurichten – den „richtigen“ natürlich. Um beurteilen zu können, ob diese Überlegungen stichhaltig sind oder besser verworfen werden sollten, muss man sich genauer ansehen, welche Lerntheorien es überhaupt gibt und was diese leisten können.

Welche Lerntheorien gibt es?

Leider ist alles andere als klar, was eine Lerntheorie eigentlich ist. Im Allgemeinen werden die drei großen Theoriesysteme des Lernens als die Lerntheorien bezeichnet: Behaviorismus, Kognitivismus und Konstruktivismus. Aber auch theoretische Annahmen etwa über das Gedächtnis, das Lernen mit verschiedenen Symbolsystemen oder die Rolle der Erfahrung beim Lernen können einem in der wissenschaftlichen Literatur als Theorie oder Modell begegnen. Orientiert man sich an der Verwendungshäufigkeit, liegt es nahe, Lerntheorien auf die großen Theoriesysteme des Lernens zu beschränken. Unterhalb von Lerntheorien in diesem Sinne findet man eine Vielzahl von (behavioristischen, kognitivistischen, konstruktivistischen) Teil- oder Partialtheorien, Modellen und Konzepten (vgl. Kron, 2008, 56 f.).

Behaviorismus. Im Behaviorismus spielen Tierversuche (mit Hunden, Tauben, Ratten) eine bekannte Rolle, bilden aber nur auffällige Wegmarken dieser Lerntheorie, deren Prinzipien vor allem die Psychologie bis zur Mitte des 20. Jahrhunderts dominiert haben. Grundlage des Behaviorismus ist das Reiz-Reaktions-Modell. An mentalen Prozessen zwischen Reiz und Reaktion ist der Behaviorismus dagegen nicht interessiert (Black-Box-Denken). Das Gehirn wird als ein Organ angesehen, das auf Reize mit angeborenen oder erlernten Verhaltensweisen reagiert. Nachfolgende Konsequenzen gelten als neue Reize, die das Verhalten formen. Damit sind zwei Konditionierungsmodelle (also behavioristische Teiltheorien) angesprochen: Beim klassischen Konditionieren wird ein an sich neutraler Reiz zeitlich mit einem Reiz gekoppelt, der eine (reflexartige) Reaktion auslöst, sodass der erstere später auch allein die Reaktion bedingt. Das funktioniert besonders gut bei physiologischen, aber auch emotionalen Reaktionen wie Furcht und Stress (Watson & Rayner, 1920). Beim operanten Konditionieren wird ein spontanes Verhalten mit einem angenehmen Reiz (positiv) oder durch Entfernung eines unangenehmen Reizes (negativ) verstärkt und auf diese Weise geformt (Skinner, 1954). Dass Verhaltensweisen nicht nur durch eigenes Tun und Verstärkungen, sondern auch durch Beobachtung und Nachahmung erlernt werden können, hat Bandura (1977) mit dem Lernen am Modell gezeigt: Hier ist das Modellverhalten ein Hinweisreiz für eine Nachahmungsreaktion. Nachgeahmt wird das Verhalten dann, wenn das Modell dem Beobachter ähnlich und erfolgreich ist. Die Prinzipien des Behaviorismus werden hier um kognitive und soziale Aspekte erweitert. Behavioristische Lerntheorien beruhen auf einer großen Anzahl von Laboruntersuchungen, in denen man sich grundsätzlich nur für beobachtbares Verhalten interessiert; innere Vorgänge kommen erst in Banduras Prinzip der Nachahmung allmählich zum Tragen. Forschungsmethodisch setzt der Behaviorismus auf experimentalpsychologische Verfahren, um Ursache-Wirkungs-Beziehungen aufzudecken und Prozesse der Verhaltensänderung möglichst eindeutig beschreiben und erklären zu können. Das Menschenbild im Behaviorismus ist mechanistisch und geprägt von Konditionierungsprozessen. Lernen gilt als Sonderform des Verhaltens und wird als eine Art Trainingsvorgang verstanden. Beim Lehren soll bezogen auf ein bestimmtes Ziel Verhalten gesteuert und verändert werden. Fast zwangsläufig resultiert aus dieser Auffassung eine eher autoritäre Rolle der Lehrenden: Sie haben eine starke Machtposition und entscheiden, was wie zu lernen ist. Sie gestalten „Reizsituationen“ und Konsequenzen so, dass die angestrebten Lernergebnisse eintreten und stabilisiert werden.

Das Kommunikationsverhältnis zwischen Lehrenden und Lernenden ist unidirektional (Baumgartner, Häfele & Maier-Häfele, 2004). Lernende sind in behavioristisch gestalteten Lernumgebungen zwar sichtbar aktiv, allerdings sind diese Aktivitäten für Lehrende nur im Hinblick auf die Lernergebnisse (den Output) von Interesse.

!

Lernen gilt im Behaviorismus als Sonderform des Verhaltens und wird als eine Art Trainingsvorgang verstanden. Das Kommunikationsverhältnis zwischen Lehrenden und Lernenden ist unidirektional.

Kognitivismus. Der Kognitivismus schob sich seit Beginn der 1980er Jahre lerntheoretisch in den Mittelpunkt der Theorie- und Forschungslandschaft. Seine Ursprünge liegen in der Technik und Mathematik (Kybernetik, Informationstheorie, Künstlichen Intelligenz); das zentrale Modell ist das der Informationsverarbeitung (vgl. Baumgartner & Payr, 1999). Anders als der Behaviorismus interessiert sich der Kognitivismus nicht für die direkte Verbindung von Reizen und Reaktionen, sondern dafür, mit welchen Methoden Menschen zu Problemlösungen kommen. Lernen gilt als ein mentaler Prozess, der sich analog zur Informationsverarbeitung im Computer modellieren lässt. Die Aufnahme und Verarbeitung von Information führen zu Wissen, das im Gehirn repräsentiert ist und gespeichert wird. Lehr-Lernprozesse stellt man sich als meist sprachlich codierte Informationsübertragung vom Sender (Lehrende) zum Empfänger (Lernende) vor. Diese Vorstellungen aus der Nachrichten- und Computertechnik haben vor allem die Gedächtnisforschung, aber auch die Problemlösepsychologie stark beflügelt. Seit einigen Jahren ergänzt und modifiziert der konnektionistische Ansatz mit biologischen Modellen über Gehirn und neuronale Netze die kognitivistische Empirie und Theorie (vgl. Rey, 2009).

Kognitivistische Lerntheorien setzen in der Regel auf (quasi-)experimentelle Studien und suchen nach Ursache-Wirkungs-Mechanismen und Korrelation von Variablen – unter anderem mit Hilfe digitaler Simulation regelhafter Zusammenhänge. Das Menschenbild im Kognitivismus ist weniger mechanistisch als im Behaviorismus, weil man dem Menschen auch zielgerichtetes Handeln und Problemlösen und nicht nur reaktives Verhalten unterstellt. Kennzeichnend ist die Suche nach berechenbaren Beziehungen und Regeln innerhalb von und zwischen Prozessen. Lernende haben eine aktive Rolle, sind aber nicht selbsttätig. Lehrende bereiten Inhalte und Probleme didaktisch auf, um den Informationsverarbeitungsprozess zu erleichtern; sie haben die „Problemhoheit“ und bestimmt weitgehend, was wie gelernt wird. Das Kommunikationsverhältnis ist bidirektional, ohne dass aber Lehrende und Lernende tatsächlich gleichberechtigte Rollen haben (Baumgartner et al., 2004). Anders als im Behaviorismus steuern Lehrende den Output allerdings nicht über die Gestaltung von Reizen und Konsequenzen, sondern vor allem durch tutorielle Unterstützung, aber auch durch eine Aufbereitung von Lerninhalten, welche die Informationsaufnahme und das Verstehen erleichtert.

!

Im Kognitivismus gilt Lernen als Prozess der Informationsverarbeitung mit dem Ziel, Probleme zu lösen. Das Kommunikationsverhältnis zwischen Lehrenden und Lernenden ist zwar bidirektional, die Rollen aber sind nicht gleichberechtigt.

Konstruktivismus. Es gibt verschiedene Konstruktivismus-Varianten mit Bezug zur Erkenntnistheorie, Sprach- und Kommunikationswissenschaft, Wissenssoziologie, Kognitionsforschung etc. (vgl. Pörksen, 2001). Gemeinsam ist ihnen die Auffassung, dass sich Realität nicht objektiv bzw. voraussetzungsfrei oder gar direkt wahrnehmen und erklären lässt. Vielmehr beruhe jeder Wahrnehmungs-, Denk- und Erkenntnisprozess notwendig auf den Konstruktionen der Beobachtenden. Es interessiert daher weniger, was wahr ist, sondern was sich als nützlich (viabel) erweist (von Glasersfeld, 1996). Für den Konstruktivismus ist der menschliche Organismus ein System, das zwar energetisch offen und mit der Umwelt strukturell gekoppelt, aber auch informationell geschlossen ist: Das Gehirn reagiert nach dieser Auffassung nur auf bereits verarbeitete und interpretierte Information von außen (Autopoiesis). Lernen ist ebenfalls ein autopoietischer Vorgang, der nur ermöglicht oder durch Störungen angeregt werden kann. Vertreter/innen des pädagogisch-didaktischen Konstruktivismus fordern daher komplexe Lernumgebungen mit authentischen Inhalten und Aufgaben, die Selbstorganisation und sozialen Austausch anregen (Reusser, 2006).

Von Selbstorganisation geht auch die konnektivistische Vorstellung vom Lernen aus: Lernen findet statt, wenn man Verbindungen in realen oder virtuellen Netzwerken herstellt und in Netzwerken partizipiert (Moser, 2008, 67). Einen Status als eigene Lerntheorie hat der Konnektivismus bislang allerdings nicht erlangt. Wissen ist für den Konstruktivismus eine individuelle und/oder soziale Konstruktionsleistung des Menschen. Forschungsmethodisch konzentriert man sich konsequenterweise auf Feldstudien mit teilnehmender Beobachtung und interpretativen Verfahren, um komplexe Phänomene besser zu verstehen.

Anthropologisch betrachtet sind Menschen im Konstruktivismus Erschaffer ihrer eigenen Realität (Welterzeuger), die nicht nur reagieren oder Informationen verarbeiten, sondern gestaltend in ihre Umwelt eingreifen und diese verändern. Lehren und Lernen gelten als unterschiedliche Systeme, die allenfalls lose miteinander gekoppelt sind. Lehrende können Lernaktivitäten nur anstoßen und Lernende bei der Identifikation und Lösung komplexer Probleme unterstützen – entweder direkt durch soziale Interaktion oder indirekt durch die Gestaltung von Kontexten. Als Coaches haben Lehrende im Vergleich zu Lernenden zwar einen Erfahrungsvorsprung; die Zusammenarbeit aber wird als gleichberechtigt betrachtet. Das Kommunikationsverhältnis ist demnach nicht nur bidirektional, sondern ausgewogen (Baumgartner et al., 2004).

!

Lernen ist aus konstruktivistischer Sicht ein autopoietischer Vorgang, der nur ermöglicht oder durch Störungen angeregt werden kann. Das Kommunikationsverhältnis zwischen Lehrenden und Lernenden ist bidirektional und ausgewogen.

Was leisten Lerntheorien?

Im Prinzip ist jedem intuitiv klar, dass Lernen auch in organisierten Bildungssituationen vieles heißen kann: Es kann heißen, (a) sich zu informieren, um bestimmte Fakten zu gegebener Zeit wiederzuerkennen, (b) sich neues Wissen anzueignen, um Prüfungen zu bestehen oder besser zu argumentieren, (c) Fähigkeiten aufzubauen, um sich anders zu verhalten oder anders zu handeln, (d) so kompetent zu werden, dass man sich zur Expertin bzw. zum Experten auf einem Gebiet entwickelt etc. Es erscheint kaum möglich, diese Vielfalt an Formen und Resultaten des Lernens mit einer Theorie beschreiben oder erklären zu wollen. Vor diesem Hintergrund muss man es nicht als Defizit betrachten, dass es mehrere Theoriesysteme des Lernens gibt, von denen ein jedes nur Aspekte des Lernens fokussiert und eine je spezifische Perspektive einnimmt: z.B. Lernen als Verhaltensänderung, als Informationsverarbeitung, als Bedeutungskonstruktion. In der Folge werden Lehrenden und Lernenden unterschiedliche Rollen und Beziehungen zugewiesen und jeweils andere Lernergebnisse betrachtet: z.B. antrainiertes Verhalten und konditionierte Emotionen (im Behaviorismus), erinnerte Informationen und erworbene Problemlösestrategien (im Kognitivismus), selbst entdeckte Einsichten und flexible Handlungsmuster (im Konstruktivismus). Genau das muss man wissen, um nicht dem Irrtum zu unterliegen, eine Theorie würde einem die Wahrheit über das Lernen mitteilen.

!

Keine Lerntheorie liefert eine Beschreibung oder Erklärung für alle Lernformen. Als Paradigma begrenzt jede Lerntheorie zudem die wissenschaftliche Auseinandersetzung mit Lernen. Trotzdem (oder deswegen) ist die Kenntnis von Lerntheorien wichtig, um deren Einflüsse zu erkennen.

Jede Lerntheorie spannt einen bestimmten Forschungsrahmen auf. In dieser Funktion werden speziell die großen Theoriesysteme des Lernens zu Paradigmen und bedingen die Sichtweise in der Wissenschaft, legen also bestimmte Forschungsfragen nahe (z.B. solche nach Mechanismen, Wirkungen oder Erscheinungsformen von Lernen) und drängen andere zurück, lenken Strategien und Methoden der Datenerhebung (z.B. rezeptiv-beobachtend oder eingreifend-verändernd) und der Datenauswertung (z.B. quantitativer oder qualitativer Art) und definieren die Ausschnitte der Wirklichkeit, die wissenschaftlich bearbeitet werden. Lerntheorien prägen zudem die Vorstellung von erwünschten Formen des Lernens, nehmen damit direkt oder indirekt Einfluss auf (normativ wirkende) Auffassungen von Lehren in der Praxis und legen ein jeweils unterschiedliches Menschenbild nahe. Lerntheorien haben so gesehen eine sehr große, aber auch diffuse, oftmals implizite Wirkung auf Forscher/innen und Praktiker/innen gleichermaßen. Sie prägen mehr oder weniger dominierend den Zeitgeist einiger Jahre oder Jahrzehnte, ändern sich merklich oder unscheinbar und tun dies in der Regel in Verbindung z.B. mit anderen gesellschaftlichen, unter anderem auch technologischen, Entwicklungen.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Innerhalb des Rahmens, den Lernparadigmen aufspannen, entwickeln sich verschiedene Teil­theorien, die auch für Fragen des Lehrens bedeutsam sind (z.B. Selbstwirksamkeitstheorie, Schematheorie, Theorie des situierten Lernens) oder Modelle, die direkt das Lehren thematisieren (z.B. Reinmann, 2005): Beispielsweise stammt die programmierte Instruktion zum kleinschrittigen Aufbau klar eingegrenzter Kenntnisse oder Fertigkeiten aus dem behavioristischen Forschungsumfeld; die Elaborationstheorie mit Leitlinien zur lernförderlichen Aufbereitung von Inhalten ist das Ergebnis kognitivistischer Forschung; Modelle wie die Anchored Instruction oder Goal-based Scenarios, die ein Lernen in möglichst reichhaltigen oder authentischen Kontexten fördern, proklamieren für sich eine eher konstruktivistische Forschungsgrundlage. Modelle dieser Art können für Lehrende handlungsrelevant werden. Wie unmittelbar diese Handlungsrelevanz ist, hängt davon ab, auf welchem Abstraktionsniveau die Modelle beschrieben sind. Lerntheorien im Sinne von Lernparadigmen dagegen haben keine unmittelbar handlungspraktische Relevanz.

Didaktisches Handeln

Didaktisches Design – vom Lehren zum Lernen?

Auch wenn Menschen prinzipiell vieles von ganz allein lernen, haben sich Bildungsinstitutionen, und damit Formen des organisierten Lernens, letztlich als sinnvoll erwiesen. Überall dort, wo man von Unterricht spricht (z.B. in der Schule, Hochschule und Weiterbildung), wird nicht nur gelernt, sondern auch gelehrt. Trotzdem ist natürlich Lehren kein Garant dafür, dass gelernt wird. Lernen ist nicht machbar, aber man kann durch die Art eines Unterrichts das Lernen durchaus beeinflussen, bestimmte Lernprozesse mehr oder weniger wahrscheinlich machen etc. Das gilt auch für technologiegestütztes Lehren. Das Verhältnis von Lernen und Lehren ist allerdings komplex und entspricht nicht einem einfachen Verhältnis gleich dem von Geben und Nehmen, von Verkaufen und Kaufen, von Veräußern und Aneignen (Prange, 2005[1]). Lernen und Lehren müssen in der Regel erst aufeinander abgestimmt werden. Lehren ist ein sozialer Prozess; Lernen als Erfahrungsprozess ist dagegen letztlich individuell: Man kann sich beim Lernen nicht vertreten lassen (beim Lehren schon), sondern ist ganz auf sich angewiesen – selbst dann, wenn man mit und von anderen lernt. Lehren ist stets in irgendeiner Form sichtbar; wie jemand lernt, ist dagegen weitgehend unsichtbar: Wir können das Lerngeschehen selbst nicht sehen; wir sehen nur die Bemühung und das Resultat, an dem man abzulesen versucht, ob etwas gelernt worden ist oder nicht. Lehren ist ein Akt des Gestaltens, der voraussetzt, dass es auch Lernende gibt. Lernen dagegen ist ein Akt der Rezeption und Konstruktion und unabhängig von jedem Lehren möglich. Die folgende Argumentation orientiert sich an Prange (2005), der allerdings nicht von „Lehren“, sondern vom „Zeigen“ spricht; seine Vorstellung vom Zeigen aber ist aus meiner Sicht analog zum Lehren zu sehen (Die folgende Argumentation orientiert sich an Prange (2005), der allerdings nicht von „Lehren“, sondern vom „Zeigen“ spricht; seine Vorstellung vom Zeigen aber ist aus meiner Sicht analog zum Lehren zu sehen).

Vor diesem Hintergrund ist es sinnvoll, Didaktik als Lehre vom Lehren und Lernen zu bezeichnen. Lehren bedarf der Vorbereitung und lässt sich bis zu einem gewissen Grad planen. Technologiegestütztes Lehren, so könnte man annehmen, muss man planen, allein schon deshalb, weil man z.B. die eingesetzten medialen Inhalte und/oder digitalen Werkzeuge selten ad hoc (also unmittelbar in der Lernsituation) zur Verfügung stellen kann. Unterrichtsplanung bzw. den Entwurf von Lernumgebungen (oder Teilen davon) kann man Didaktisches Design nennen. Nun liegt es nahe, dass das Didaktische Design genau die Verfahren liefert, die man braucht, um (technologiegestützten) Unterricht zu planen, in dem zumindest eine hohe Wahrscheinlichkeit besteht, dass auch gelernt wird. Ob diese Erwartung angemessen ist, lässt sich wiederum nur klären, wenn man den Begriff des Didaktischen Designs genauer analysiert.

Was kennzeichnet das Didaktische Design?

Im deutschsprachigen Raum ist der Begriff des Didaktischen Designs nicht so gängig wie z.B. die Begriffe Mediendidaktik oder Fachdidaktik. Es gibt mehrere Quellen, aus denen sich der Begriff speist: unter anderem die (Allgemeine) Didaktik und das Instructional-(System)-Design. Gegenstand des Didaktischen Designs sind Lernumgebungen bzw. (bezogen auf organisiertes Lernen) der Unterricht (im weitesten Sinne), den es zu planen gilt; das Ergebnis sind entsprechend Unterrichtsentwürfe bzw. didaktische Szenarien.

Allgemeine Didaktik. Es besteht heute ein gewisser Konsens, unter Didaktik die Lehre vom Lehren und Lernen zu verstehen, was allerdings keineswegs immer so war. Die weitaus größere deutschsprachige Tradition stellte die Auswahl von Inhalten entsprechend ihrem Bildungsgehalt ins Zentrum und fokussiert zudem Schule und Lehrerbildung. Das gilt in ähnlicher Form für die Allgemeine Didaktik, wobei sich hier inzwischen ein breiteres Verständnis etabliert hat: „Ihr Gegenstand sind die Ziele, Inhalte und Methoden des Unterrichts, seine Voraussetzungen sowie seine institutionellen Rahmungen.Sie zielt auf die reflektierte und professionelle Gestaltung von Unterricht unter dem Anspruch von Bildung als einer regulativen Idee“ (Hericks, 2008, 62). Im Zusammenhang mit der (Allgemeinen) Didaktik wird begrifflich (ähnlich wie bei Lerntheorien) nicht exakt zwischen Theorien und Modellen unterschieden (vgl. Terhart, 2009, 99 ff.): Häufig ist von didaktischen Modellen die Rede; im Hintergrund aber können Bildungstheorien stehen. Der Modellbegriff ist allerdings ebenfalls mehrdeutig; oft wird ihm eine Mittlerrolle zwischen Theoriebildung und Lehr-Lernpraxis zugewiesen (Kron, 2008, 57 f.). Didaktische Modelle sind Strukturmodelle und stellen zusammen, welche Elemente (z.B. Lehrende, Lernende, Inhalte, Ziele, Methoden, Medien, Bedingungen) in welcher Form zusammenhängen; oder es handelt sich um Verlaufsmodelle, in denen ein Unterrichtsablauf dargestellt wird. Man kann die (Allgemeine) Didaktik als Dach bezeichnen; unter diesem behandelt das Didaktische Design einen Ausschnitt didaktisch relevanter Aufgaben. Insbesondere in Bezug auf die Ziele des Lehrens und Lernens, aber auch mit Blick auf die Inhalte liefert die Allgemeine Didaktik einen Beitrag für das Didaktische Design, der in anderen (englischsprachigen Traditionen) in dieser Form nicht zu finden ist.

Instructional-(System)-Design. Weniger gebräuchlich ist im deutschsprachigen Raum der Begriff Design, wenn es um Lehren und Lernen geht. In einem eher unspezifischen Sinne umfasst Design mindestens folgende drei Merkmale (Baumgartner, 1993, 272): erstens ein planerisches, entwickelndes und entwerfendes Element, das eine gewisse Systematik ermöglicht, zweitens ein visionäres und schöpferisches Element, das entsprechende Gestaltungsspielräume erfordert, und drittens das Primat des Inhalts vor der Form, was Design von der Kunst unterscheidet. Der Designbegriff taucht in der deutschsprachigen Didaktik-Literatur in den 1970er Jahren auf (vgl. Flechsig & Haller, 1975), ohne sich aber flächendeckend durchzusetzen. Weitaus dominanter ist der Begriff in der englischsprachigen Literatur im Zusammenhang mit technologiegestütztem Lehren und Lernen. Hier werden die Bezeichnungen Instructional Design und Instructional System Design verwendet (vgl. Richey, Klein & Tracey, 2011). Unter der Bezeichnung Instructional-(System)Design (ISD) wird damit in der Regel „die systematische Entwicklung von Lernangeboten auf der Grundlage empirischer Forschung zum Lehren und Lernen“ (Kerres, 2012, 197) erfasst (Anm.: Man findet in der Literatur beide Bezeichnungen (vgl. Richey, Klein & Tracey, 2011):Instructional-Design und Instructional-System-Design)

In dieser Tradition gibt es vor allem Verfahrensmodelle (vgl. Branch, 2009): Das wohl bekannteste ISD-(Meta-)Modell firmiert unter dem Akronym ADDIE (Analyse – Design – Develop – Implement – Evaluate). Im Fokus steht hier das gesamte System von Planung, Umsetzung und Überprüfung von (technologiegestütztem) Unterricht, weshalb die Bezeichnung Instructional-System-Design wohl am zutreffendsten ist. Inhalte und deren Bildungsgehalt spielen hier weniger eine Rolle; stattdessen geht es um Lehr-Lern-Methoden und deren Kombination zu einem möglichst wirkungsvollen Lernarrangement. Das ISD liefert mit seinen Verfahrensmodellen einen Impuls für das Didaktische Design, erweist sich gegenüber Ansprüchen im Sinne der Allgemeinen Didaktik allerdings als zu eng und mechanistisch.

!

Instructional-System-Design widmet sich dem System von Planung, Umsetzung und Überprüfung (technologiegestützten) Unterrichts und macht hierfür Verfahrensvorschläge.

Didaktische Szenarien. Das Didaktische Design bedient sich zum einen der Tradition der (Allgemeinen) Didaktik in dem Sinne, dass Bildungsziele und Inhalte sowohl Bestandteile von Unterricht als auch Entscheidungsfaktoren für dessen Gestaltung sind. Zum anderen nutzt das Didaktische Design die Tradition des ISD, indem Vorschläge zum Verfahren bei der Unterrichtsplanung gemacht werden. Didaktische Designer beschränken sich nicht auf Schule und Lehrerbildung (wie gemeinhin Vertreter/innen der Allgemeinen Didaktik), grenzen ihren Geltungsbereich (anders als Vertreter/innen des ISD) aber auf die Planung des Lehr-Lernhandelns ein, ohne jedoch von einer umfassenden Planbarkeit des Lehrens und Lernens auszugehen. Wenn man eine Unterrichtsstunde mit Medieneinsatz, ein Blended-Learning-Seminar, einen Online-Workshop oder auch einen Massive-Open-Online-Course (MOOC) didaktisch plant, steht das dort erwartete und erwünschte Lehr- und Lernhandeln im Mittelpunkt des Interesses. Für dieses erstellt man eine Art Skript. Man kann natürlich auch ein ganzes Schuljahr oder einen Studiengang planen. In diesem Fall ist der Gegenstand der Planung ein anderer: Es geht dann weniger um das Lehr-Lernhandeln an sich, sondern um den Rahmen inhaltlicher, zeitlicher, organisationaler Art, in dem Lehren und Lernen stattfindet. Didaktisches Design zielt vorrangig darauf ab, ein Skript für das künftige Lehr-Lernhandeln und damit didaktische Szenarien (und nicht deren Rahmen) zu gestalten. Peter Baumgartner (2011, S. 61 f.) erläutert den Begriff „didaktisches Szenario“ mit der Metapher des Drehbuchs: Wie ein Drehbuch, so ist auch ein didaktisches Szenario ein Entwurf, der den Ablauf der Lehr-Lernhandlung skizziert sowie Regieanweisungen und Hinweise zu den erforderlichen Requisiten gibt. Didaktische Szenarien haben eine begründete Struktur und regen einen bestimmten Ablauf an, bedürfen aber auch eines inhaltlichen Rahmens.

!

Didaktisches Design zielt darauf ab, ein Skript für das künftige Lehr-Lernhandeln und damit didaktische Szenarien zu gestalten.

Was leistet das Didaktische Design?

Die Planung von Unterricht muss man von der Umsetzung des Plans, also dem Unterrichten im Sinne einer Performanz, unterscheiden. Da das Didaktische Design der Unterrichtsplanung dient, steht nicht die Gegenwart und damit die reale Unterrichtshandlung, sondern die Zukunft und folglich der Entwurf der Unterrichtshandlung im Zentrum der Bemühungen (Baumgartner, 2011, 63). Das ist wichtig, weil damit klar wird: Didaktisches Design kann nicht garantieren, dass erfolgreiche Lernprozesse stattfinden, weil niemand eine künftige Unterrichtssituation in ihrer Dynamik (samt Hindernissen und Konflikten) voraussehen kann.

Allenfalls lässt sich diese bei der Planung berücksichtigen. Didaktisches Design sollte jedoch Leitlinien oder Heuristiken für die Gestaltung didaktischer Szenarien anbieten. Beim technologiegestützten Lehren und Lernen ist oftmals nicht eine Lehrperson für die Unterrichtsplanung verantwortlich, sondern mitunter ein ganzes Team, sodass Aufgaben verteilt werden. Die Planung (und Auswahl oder Konstruktion) einzelner Elemente eines didaktischen Szenarios, insbesondere technisch relevante „Requisiten“ wie z.B. mediale Inhalte oder digitale Werkzeuge, kann man auch auslagern, sodass am Ende eine Vielzahl verschiedener Akteure an der Gestaltung didaktischer Szenarien beteiligt ist (vgl. auch Kerres, 2012, 239 ff.).

Kontextunabhängige eindeutige Regeln kann das Didaktische Design weder für ganze Unterrichtsentwürfe noch für einzelne (technologiegestützte) Komponenten und deren Einbettung in Lernumgebungen liefern. ISD-Modelle allerdings suggerieren, dass es wissenschaftlich abgesicherte Verfahrensmodelle für die Unterrichtsplanung gibt, in denen unter anderem auch lerntheoretische (vor allem lernpsychologische) Erkenntnisse als Basis für Lehrentscheidungen nahegelegt werden. Hier wird deutlich, dass diese Modelle zwar nützlich und anregend sein können, sich das Didaktische Design darin allerdings nicht erschöpfen sollte, denn: Es gibt mehrere Wege, auf denen didaktische Szenarien entstehen können; Verfahrensregeln sind allenfalls ein Weg, der auch begleitend zu anderen hinzukommen kann. Ich möchte im Folgenden auf drei mögliche Wege der Entstehung didaktischer Szenarien verweisen.

Didaktisches Handeln

Eine Handlungslogik für die Gestaltung didaktischer Szenarien

Wenn man weder aus Lerntheorien ableiten kann, wie man am besten lehrt, noch vom Didaktischen Design eindeutige Regeln für die Gestaltung didaktischer Szenarien mit Lernerfolgsgarantie erhält, stellt sich für die Lehr-Lernpraxis die Frage: Woran orientiert man sich beim didaktischen Handeln? Gibt es richtungsweisende Strategien aus dem Didaktischen Design, denen man vertrauen kann? Sind Lerntheorien überflüssig oder nutzen einem deren Kenntnisse am Ende doch etwas? Im Folgenden schlage ich für die Lehr-Lernpraxis eine didaktische Handlungslogik für die Unterrichtsplanung vor, in der sowohl lerntheoretische und didaktische Kenntnisse hilfreich sind als auch einfache Verfahrensempfehlungen für die Gestaltung didaktischer Szenarien möglich erscheinen.

Bestimmung von Lehrzielen als Ausgangspunkt

Ausgangspunkt aller Planungen sind in der Regel die Ziele, die Lehrende haben oder aufstellen müssen, wenn sie einen Unterrichtsentwurf oder Entwürfe für technologiegestützte Lehr-Lernangebote erarbeiten wollen. Man kann darüber streiten, ob man besser von Lernzielen statt von Lehrzielen sprechen sollte. Ich halte im Kontext des organisierten Lernens den Begriff der Lehrziele für treffender, da Zweck und Ziele in Bildungsinstitutionen genau nicht oder nur in begrenztem Umfang seitens der Lernenden selbst formuliert werden können. Lernende haben Einfluss auf die Ziele, falls sie Optionen bei der Wahl von Bildungsinstitutionen und dortigen Angeboten haben. Zudem sollte man natürlich Lehrziele verständlich vermitteln und damit rechnen, dass Lernende Lehrziele nicht in der Gänze als ihre Lernziele übernehmen (vgl. Klauer & Leutner, 2007, 22 ff.). Im besten Fall lassen sich Lehrziele an Bedürfnisse oder Erwartungen von Lernenden anpassen; wo immer es geht, sollte man Spielräume nutzen, um Lernende an der Festlegung und Ausformulierung von Lehrzielen zu beteiligen.

Lehrzieltaxonomien. Lehrzieltaxonomien sind Ordnungsschemata und helfen Lehrenden, indem sie anhand bestimmter Ordnungskriterien Ziele explizit machen und so strukturieren, dass man deren Unterschiede gut erkennt. Ein mögliches Ordnungskriterium ist z.B. der Abstraktionsgrad von Lehrzielen, nach dem man konkrete von abstrakten Lehrzielen trennen kann. Ist das Kriterium inhaltlich, dann unterscheidet man etwa fachliche von überfachlichen Lehrzielen.

Das Kriterium kann auch verschiedene Dimensionen des Lernens heranziehen und kognitive, emotional-motivationale und motorische Lehrziele postulieren. Innerhalb einer Lehrzielkategorie wird häufig das Kriterium Schwierigkeits- oder Komplexitätsgrad herangezogen. Manche Lehrzieltaxonomien kombinieren zwei Ordnungskriterien und kommen auf diesem Wege zu einer Matrix. Dies ist auch bei der Lehrzieltaxonomie von Anderson und Krathwohl (2001) der Fall, die sich zwar ausschließlich auf kognitive Lehrziele beschränkt, aber seit längerem besonders verbreitet ist (siehe Tab. 1). Euler und Hahn (2007, 135 ff.) versuchen, die auf Wissen reduzierte Sicht von Anderson und Krathwohl (2001) mit Fertigkeiten (Können) und Einstellungen (Werten) zu ergänzen und verschiedenen Kompetenzbereichen (Sach-, Sozial- und Selbstkompetenzen) zuzuordnen. Deutlich wird hier, dass bisherige Lehrzieltaxonomien der aktuellen Kompetenzorientierung noch nicht angemessen nachgekommen sind.

Dimension Wissen Dimension kognitive Prozesse
Erinnern
Faktenwissen
Konzeptwissen
Prozesswissen
Metakognitives Wissen

Tab.1: Revision der Bloomschen Taxonomie nach Anderson und Krathwohl (2001)

Mit Hilfe von Lehrzieltaxonomien können sich Lehrende leichter bewusst machen, was sie mit ihrem Unterricht erreichen wollen, welchen Zieltypus sie verfolgen, woran sie noch nicht gedacht haben etc. Innerhalb von Bildungsinstitutionen unterstützen Lehrzieltaxonomien außerdem die Gestaltung von Prüfungen. Lehrzieltaxonomien können aber auch Nachteile haben: Man muss sich klar machen, dass diese von den lerntheoretischen Strömungen geprägt sein können, zu deren Zeit sie entstanden sind. In der Regel sind Lehrzieltaxonomien behavioristisch (mit Blick auf beobachtbares Verhalten) oder kognitivistisch (unter Ausklammerung anderer als kognitiver Ziele) beeinflusst. Lehrzieltaxonomien legen mitunter nahe, nur solche Ziele zu verfolgen, die sich eindeutig operationalisieren lassen, was Bildungsangebote unangemessen einengen kann. Zudem sind Lehrzieltaxonomien keine Hilfe bei der Frage, wie man zum eigentlichen Gegenstand des Lehrens und Lernens, den Inhalten, kommt.

Von Zielen zu Inhalten. Fragen zur Inhaltsauswahl werden im Didaktischen Design nicht immer ausreichend thematisiert. Allerdings sind Wissen, Können und Einstellungen, mithin auch Kompetenzen, immer an Inhalte gebunden. Daher ist es angesichts eines in der Regel begrenzten Zeitraums für Lehren und Lernen durchaus bedeutsam, sich bei der Gestaltung didaktischer Szenarien auch Gedanken über notwendige, sinnvolle oder wünschenswerter Inhalte zu machen. Hierzu gibt es mehrere Prinzipien (vgl. Euler und Hahn, 2007, 126 ff.):

Gestaltung didaktischer Szenarien

Denen, die nicht wissen, welche Ziele sie verfolgen wollen, fehlt der Richtungsweiser bei der Gestaltung eines didaktischen Szenarios. Von daher bilden die Lehr-Lernziele – in Kombination mit den bestehenden Rahmenbedingungen – den Ausgangspunkt im Didaktischen Design. Eng damit verbunden sind inhaltliche Entscheidungen. Die eben angesprochenen Inhalte bilden die materiale Seite des Lehrens, die allein allerdings zu einem bloßen Informationsangebot führen würde; hinzukommen muss eine prozessuale und soziale Seite (vgl. Reinmann, 2013). Mit anderen Worten: Ausgehend von den Zielen (und Rahmenbedingungen) muss man sich bei der Gestaltung eines didaktischen Szenarios immer um folgende drei Dinge Gedanken machen: erstens um die Frage, wie man eine Sache vermittelt (materiale Seite), zweitens um die Frage, wie man Lernende aktiviert, sich mit der Sache auseinanderzusetzen, (prozessuale Seite) und drittens um die Frage, wie man Lernende dabei begleitet bzw. betreut (soziale Seite).

Je nach Zielsetzung können diese drei Komponenten des Lehrens unterschiedliches Gewicht haben und entsprechend unterschiedliche (auch zeitliche) Anforderungen an den Planungs- und Entwurfsprozess stellen. Diese Überlegungen entlang der Logik didaktischen Handelns können eine Art Grundfigur für das Didaktische Design bilden (siehe Abb. 1).

Abb. 1: Grundfigur für das Didaktische Design
Abb. 1: Grundfigur für das Didaktische Design

Vermittlung. Inhalte zu vermitteln bedeutet, bestehendes Wissen in irgendeiner Form darzustellen und weiterzugeben – und das in allen denkbaren Formaten: als gesprochenes und geschriebenes Wort, als Audio und Video, als Bild und Animation etc. Speziell für technologiegestütztes Lehren und Lernen sind der Gestaltung (auch der interaktiven) nur mehr wenige Grenzen gesetzt (vgl. z.B. Niegemann, Domag, Hessel, Hein, Hupfer & Zobel, 2008). Für die Gestaltung medialer Inhalte sind lernpsychologische Erkenntnisse brauchbar: unter anderem solche, die (nicht nur, aber besonders) unter dem Dach kognitivistischer Lerntheorien entstanden sind. Lehrende produzieren für ihren Unterricht in der Regel nicht alle medialen Inhalte selbst. Unter Umständen bedienen sie sich sogar komplett bereits bestehender Ressourcen; doch auch für diese Entscheidungen sind sowohl lerntheoretische als auch didaktische Kenntnisse nützlich. Bei der Gestaltung der materialen Seite eines didaktischen Szenarios geht es um die Bestimmung der Art und des Anteils der Vermittlung: Der Vermittlungsanteil kann groß, aber auch klein sein – in Abhängigkeit von den Lehrzielen und sonstigen Bedingungen. So wird man sich z.B. in Projektveranstaltungen auf ein paar Texte oder Videos beschränken – möglicherweise auf solche, die authentische Informationen zum Projektgegenstand liefern. Dagegen wird man in einer Produktschulung einen hohen Vermittlungsanteil im didaktischen Szenario haben und diesen womöglich auch aufwändig interaktiv und anschaulich gestalten.

Aktivierung. Der bloßen Vermittlung sind in der Lernförderung enge Grenzen gesetzt. Es gehört zu den besonders schwierigen Aufgaben, didaktische Szenarien so zu gestalten, dass Lernende auch aktiviert werden, sich mit den Lehrinhalten intensiv auseinanderzusetzen. Dazu dienen verschiedene Aufgaben: (a) solche, mit denen man Kenntnisse oder Fertigkeiten einüben oder trainieren kann, (b) solche, die Lernende anregen, sich (z.B. mit Strukturierungshilfen, verschiedenen Gesprächsformen oder Modellen/Vorbildern) Wissen zu erschließen, (c) solche, bei denen vorgegebene Inhalte von den Lernenden transformiert werden (etwa bei Problemstellungen oder Fallstudien, beim „Lernen durch Lehren“ etc.) oder (d) solche, mit deren Bearbeitung gänzlich neues Wissen und Können entsteht, das man vorab nicht im Detail hat planen können (Projekt-, Designaufträge). Für die Aufgabengestaltung sind lernpsychologische Kenntnisse aus allen lerntheoretischen „Lagern“ hilfreich. Je mehr didaktische Modelle man kennt, umso größer wird der Ideenpool für kreative Formen der Aktivierung. Auch lerntheoretische Kenntnisse sind hilfreich, um sich ein Bild von der Art möglicher Aktivierung machen zu können. Bei der Gestaltung der prozessualen Seite eines didaktischen Szenarios geht es um die Bestimmung der Art und des Anteils direkter Anleitung und Unterstützung und/oder indirekter Ermöglichung von Lernprozessen: Der Aktivierungsanteil kann vielfältig und umfänglich oder fokussiert und klein sein – wiederum in Abhängigkeit von den Zielen.

Betreuung. Gerade beim technologiegestützten Lehren und Lernen, das man gerne mit einer Effizienzsteigerung in der Bildung in Verbindung bringt, ist es schließlich eine höchst relevante Frage, wie es um die Art und den Anteil der Betreuung in einem didaktischen Szenario bestellt ist. In Abhängigkeit von Zielen, Inhalten und vor allem auch Rahmenbedingungen (Anzahl der Lernenden, zeitliche Ressourcen etc.) müssen Lehrende neben der Gestaltung der Vermittlung und Aktivierung didaktische Entscheidungen in punkto Begleitung bzw. Betreuung der Lernenden treffen. In diesem Zusammenhang ist z.B. das Feedback auf Lernergebnisse und Lernprozesse zu nennen, aber auch die Gestaltung tutorieller Unterstützung (z.B. Einsatz von Tutorials oder Tutorinnen und Tutoren) und sozialer Räume (Lerngemeinschaften, soziale Netzwerke etc.). Im weitesten Sinne geht es hier um die Gestaltung der sozialen Seite didaktischer Szenarien. Lerntheorien könnten hier unter anderem durch ihre Menschenbilder Einfluss auf Gestaltungsentscheidungen vor allem auf der Mikroebene nehmen.

!

Fazit: Didaktischer Szenarien, die man nach der vorgeschlagenen Handlungslogik kreiert, kommen als Unterrichtsentwürfe zum Ausdruck, die Folgendes beinhalten: (a) Angaben zu den Lehrzielen einschließlich des inhaltlichen Rahmens, in dem man sich bewegt (Inhaltsbeschreibung), (b) eine Skizze, wie man die Vermittlung, Aktivierung und Betreuung umsetzen will und wie diese drei Komponenten des Lehrens (bezogen auf die Gewichtung wie auch Ausgestaltung) strukturell zusammenspielen (Strukturbeschreibung), und (c) Informationen darüber, in welchen Phasen eine Unterrichtseinheit über die Zeit abläuft (Verlaufsbeschreibung).

Didaktisches Handeln

Lerntheorien und Didaktisches Design – ein Fazit

Der Weg von der Lerntheorie zum eigentlichen didaktischen Handeln ist weit: Lerntheorien öffnen Lehrenden die Augen dafür, was Lernen alles bedeuten kann, aus welchen Perspektiven sich Lernen betrachten lässt, welche vielfältigen Beschreibungssprachen sich dafür eignen und welche Erklärungen naheliegen, wenn man Lernen (wie auch das Ausbleiben von Lernen) nachvollziehen und beeinflussen will.

Lerntheoretische Kenntnisse helfen dabei, eigene implizit wirkende Lernauffassungen zu entdecken und zu verhindern, dass sie didaktische Entscheidungen unkontrolliert lenken oder stören. Auch ideologische Einstellungen mit lerntheoretischen Wurzeln lassen sich letztlich nur durch lerntheoretisches Wissen überwinden (Schulmeister, 2006, 250).

Erkenntnisse aus lerntheoretisch motivierter Forschung (z.B. Studienergebnisse zu lerntheoretischen Teil- oder Partialtheorien und Modellen) können eine Hilfe dabei sein, Vermittlungsformate, Aufgaben zur Aktivierung und Betreuungsformen zu gestalten. Damit unterstützen sie mittelbar den Entwurf didaktischer Szenarien.

Ausgangspukt bei der Gestaltung didaktischer Szenarien sind Ziele. Lehrzieltaxonomien unterstützen die Auswahl und Beschreibung von Lehrzielen, haben allerdings den Nachteil, dass sie sich häufig einseitig auf kognitive Ziele konzentrieren. In ihren Merkmalen sind Lehrzieltaxonomien in vielen Fällen behavioristisch und/oder kognitivistisch geprägt. In jedem Fall ist es empfehlenswert, sich die lerntheoretische Prägung von Verfahrenshilfen (zu denen man auch die Lehrzieltaxonomien zählen kann) bewusst zu machen. Das gilt ebenso für Systematiken aus dem Bereich des ISD, die in einer vor allem kognitivistischen Tradition stehen.

Leider gibt es keinen simplen Weg vom Lernen zum Lehren; Lerntheorien sind daher schlechte Berater in der Frage, wie man didaktisch am besten handeln sollte. Allerdings ist man ebenso schlecht beraten, wenn man sich vom Didaktischen Design gesetzmäßig formulierte Regeln für das Lehren erhofft, mit dem man gesicherte Lernergebnisse erzielt. Der Weg führt also auch nicht direkt vom Lehren zum Lernen. Lehren und Lernen müssen aufeinander abgestimmt werden – und genau das ist eine didaktische Aufgabe, die Wissen, aber auch Kreativität und neben der Unterrichtsperformanz unter anderem Planungs- und Entwurfskompetenz verlangt. Lerntheoretisches und (allgemein) didaktisches Wissen erscheint mir hierfür genauso wichtig wie die Suche nach Leitlinien für das didaktische Handeln, auch wenn es sich dabei nicht um exakte Verfahrensschritte handeln kann. Meine eigene praktische Erfahrung sagt mir, dass wissenschaftliches Wissen (aus Theorie und Empirie) sowohl pädagogischer als auch psychologischer Prägung für die Gestaltung didaktischer Szenarien immer eine Hilfe sein kann, konkretes Entscheiden und Handeln dennoch heuristische Orientierung brauchen.

?

Schreiben Sie die wichtigsten Stichpunkte heraus, mit denen man verschiedene Lerntheorien kennzeichnen kann, und stellen Sie diese in einer Tabelle zusammen: In welchen Dimensionen unterschieden sie sich? Wie sind Sie auf Ihre Dimensionen gekommen?

?

Begriffe im Umkreis des Didaktischen Designs ähneln sich und beinhalten doch sehr verschiedene Botschaften und Auffassungen von Lehren und Lernen: Versuchen Sie, in eigenen Worten die Besonderheiten und Unterschiede zwischen (Allgemeiner) Didaktik, Instructional-(System-)Design und didaktischen Szenarien herauszuarbeiten.

?

Drucken Sie sich die Seite mit der revidierten Bloomschen Lehrzieltaxonomie aus und wenden Sie diese für Ihre nächste Lehrveranstaltung an (oder stellen Sie sich, wenn Sie keine haben, eine mögliche Veranstaltung vor). Versuchen Sie, die Ziele Ihrer Veranstaltung zuzuordnen: An welchen Stellen gelingt dies gut, an welchen nicht? Woher könnten etwaige Probleme kommen? Kommen Sie auf neue Ziele und/oder stellen Sie fest, dass Ziele fehlen? Was folgern Sie daraus?

?

Zur Gestaltung didaktischer Szenarien wird im Text eine Grundfigur vorgeschlagen (bestehend aus den Komponenten Vermittlung, Aktivierung, Betreuung). Suchen Sie drei Beispiele technologiegestützter Bildungsangebote, in denen jeweils eine Komponente das Szenario besonders prägt (also vom Umfang her dominierend und/oder besonders variantenreich ist). Wie gut eignet sich diese Grundfigur zur Beschreibung Ihrer Beispiel-Szenarien? Welche alternativen Beschreibungen oder Handlungslogiken kennen Sie? Wie unterscheiden sich diese?

Empfehlungen zur weiteren Lektüre

Didaktisches Handeln

Literatur

Medienpädagogik

Strömungen, Forschungsfragen und Aufgaben

Medienpädagogische Fragestellungen begegnen uns aufgrund der Durchdringung des Alltags mit Medien in fast allen institutionellen und außerinstitutionellen Handlungsfeldern in Zusammenhang mit Bildung, angefangen von der frühkindlichen Bildung bis hin zur Andragogik. Gerade institutionelle Lehr-Lernprozesse geraten in das Feld medienpädagogischer Auseinandersetzung. Dabei spielen Medienerziehung und Mediendidaktik als Pfeiler der Medienpädagogik eine große Rolle. Aufgabe von Medienpädagogik ist die Vermittlung und Ausbildung von Medienkompetenz bzw. die Anregung von Medienbildung. Medienpädagogik als wissenschaftliche Disziplin ist allerdings kein einheitliches Gebiet, sondern ist durchzogen von verschiedenen Strömungen. Der vorliegende Beitrag gibt einen kurzen historischen Überblick über die Entwicklungen von Medienpädagogik als Disziplin, stellt Forschungsmethoden vor und zeichnet kurz die Diskussion um Medienkompetenz und Medienbildung als Ziele medienpädagogischer Tätigkeit nach. Am Schluss geht der Artikel auf weitere medienpädagogische Fragestellungen ein.

Medienpädagogik

Einführung

!

Medienpädagogik kann bezeichnet werden als die „Gesamtheit aller pädagogisch relevanten handlungsanleitenden Überlegungen mit Medienbezug, einschließlich ihrer empirischen, theoretischen und normativen Grundlagen“ (Tulodziecki, 1989, 21).

Unterschiedliche Disziplinen haben Zugang zum Feld der Medienpädagogik, von der Pädagogik, der Medienwissenschaft, der Publizistik- und Kommunikationswissenschaft über die Psychologie bis hin zur Soziologie – all diese Disziplinen setzen sich mit Fragestellungen auseinander, die auch zentral für die Medienpädagogik sind. So verwundert es nicht, dass es innerhalb der medienpädagogischen Diskussion unterschiedliche und fachspezifische Traditionen und Fragestellungen gibt. Von daher wird im Folgenden das Feld der Medienpädagogik aus einer historischen Entwicklung heraus dargestellt, um damit die verschiedenen Diskussionen besser einordbar zu machen.

Medienpädagogik ist eng mit Erziehungsprozessen verknüpft. Diese sind unter gesellschaftlichen Herausforderungen wie beispielsweise der Mediatisierung (Krotz, 2001) kaum mehr von Medien zu trennen, denn Medien sind „Teile sozialer Wirklichkeit, die nicht nur den Informations- und Wissenserwerb beeinflussen, sondern auch den Prozess der sozialen Wirklichkeitskonstruktion mit tragen“ (Barsch & Erlinger, 2002, 12). Medienpädagogik fragt daher unter anderem nach einer Sozialisation in Medienwelten sowie nach der Vermittlung und dem Aufbau von Medienkompetenz bis hin zur Thematisierung von Medienbildungsprozessen über die gesamte Lebensspanne hinweg.

Medienpädagogik

Strömungen der Medienpädagogik

Historisch gesehen können verschiedene Strömungen in der Medienpädagogik unterschieden werden, die sich allerdings nicht gegenseitig ablösen, sondern teilweise bis heute parallel nebeneinander stehen, je nachdem, welches medienpädagogische Ziel verfolgt werden soll. Die gängigsten Konzepte sind dabei:

  1. traditionell bewahrpädagogische Positionen
  2. kritisch-emanzipative Medienpädagogik
  3. bildungstechnologische Medienpädagogik sowie die
  4. handlungsorientierte Medienpädagogik

Im Rahmen der traditionell bewahrpädagogischen Position steht vor allem das Beschützen der Kinder und Jugendlichen vor den schädlichen Medieneinflüssen im Vordergrund. Bewahrpädagogische Traditionen kamen schon in der Weimarer Republik mit der Diskussion um Schundliteratur auf und ziehen sich bis heute durch die Diskussion von Medien, vor allem deren Integration in Erziehungsprozessen. Medien werden dabei potenziell als gefährlich für die kindliche Entwicklung angesehen. Dabei beziehen sich bewahrpädagogische Haltungen immer auf die aktuell „neuen“ Medien: vom „Schund und Schmutz“ der Massenliteratur der frühen 1920er Jahre, über die Kritik am Kino bis zur heutigen Kritik an Computerspielen und dem Internet reichen die nach bewahrpädagogischen Aspekten kritischen und gefährlichen Medien, vor denen vor allem Kinder und Jugendliche geschützt werden müssen (Postman, 2003; Spitzer, 2012).

Ganz anders sieht die kritisch-emanzipative Medienpädagogik Medien in ihrer gesellschaftlichen Funktion. Ausgehend von der Frankfurter Schule und der Kritischen Theorie um Adorno und Horkheimer geht es im Rahmen kritisch-emanzipativer Medienpädagogik um eine kritische Auseinandersetzung mit (Massen-) Medien und die darüber geltenden Herrschaftsstrukturen. Medien stehen unter dem politischen Manipulationsverdacht, so dass das Subjekt potenziell Opfer der Medien werden kann. Schwerpunkt war die theoretische und analytische Tiefe der Diskussionen rund um Medien vergleichbar mit den gesellschaftlich-politischen Diskussionen der Zeit. Die Sozialwissenschaft in den 1960er- und 1970er-Jahren setzte in der „Praxis weniger auf klassische pädagogische Arbeit, sondern auf politisch orientierte Gesellschaftsveränderung“ (Ganguin & Sander, 2008, 62). Damit fehlte der Medienpädagogik aber eine Praxis- und Handlungsorientierung, in der sie hätte wirksam werden können. Es fehlten didaktische Modelle und Forschungen über die konkrete Nutzung der Rezipierenden. Der zugrunde liegende Medienbegriff sowie das dazugehörige Kommunikationsmodell sehen die Rezipientin/den Rezipienten als passives Individuum an, das den Wirkungen der Medien ausgesetzt ist; Wirkungen von Medien bei Rezipierenden sind vor allem auf Reiz-Reaktions-Schemata begrenzt (Hüther & Podehl, 2006, 123). Erweitert wurde diese Strömung durch eine gesellschaftskritische Position, in der die Medieneinflüsse durch die Schaffung einer Gegenöffentlichkeit zurückgedrängt werden und das Individuum als politisch aktives Wesen begriffen wird, das Medien auch aktiv nutzt.

Eine stärkere Rolle bekamen die Rezipierende im Rahmen handlungstheoretischer Modelle, die von aktiven Nutzenden ausgehen. Rezipierende von Medien handeln so, dass Bedürfnisse befriedigt werden.

Es kommt zu einer aktiven und erfahrungsbezogenen Auseinandersetzung mit Medien, wie z.B. im Bürgerjournalismus und dem offenen Kanal, die als handlungsorientierte Medien in den 80er-Jahren des letzten Jahrhunderts dominierten. Aufgabe der Medienpädagogik ist es in diesem Ansatz, durch das Handeln in und mit Medien Bildungsräume für eine Auseinandersetzung mit Medienerfahrungen zu schaffen, in denen das Subjekt aktiv wird. Somit soll neben Handlungsfertigkeiten auch Medienkritik zur angemessenen Nutzung von Medien erworben werden.

Neben diesen Modellen, die sich alle im Bereich der öffentlichen Kommunikation und der Gesellschaft verorten, gab es schon früh Bestrebungen, vor allem Lehr-Lernprozesse in Bildungsinstitutionen zu betrachten. Medien wurden als Mittel in Lehr-Lernsettings und pädagogischer Kommunikation thematisiert. So richtete die bildungstechnologisch-optimierende Medienpädagogik den Blick vor allem auf den effizienten Einsatz von Medien in Lern- und Bildungsprozessen. Medien sollen hier, angeregt durch „bildungsökonomische Argumente, Lehrermangel, Übernahme von Erkenntnissen der behavioristischen Lerntheorie in die Erziehungswissenschaft und erste Formen der programmierten Unterweisung“ (Hüther & Podehl, 2006, 117) Lehren und Lernen mit Medien verbessern. Während diese Hoffnungen nicht erfüllt werden konnten, gibt es bis heute im Bereich der Mediendidaktik eine Diskussion um die Integration digitaler Medien in Lern- und Bildungsprozesse. Dort können auch die vielfältigen Diskussionen verortet werden, die in den 1990er-Jahren rund um den Bereich des E-Learning aufkamen, obwohl es in vielen Fällen zu einer Koexistenz beider Handlungsfelder kam, die erst in den letzten Jahren mehr und mehr aufgebrochen wird.

Man sieht an diesen Strömungen sehr gut die Verknüpfung der Medienpädagogik mit gesamtgesellschaftlichen Entwicklungen: von Zeiten, in denen Medien noch eine vermeintliche Allmacht zugesprochen wurde und man Kinder vor diesen bewahren musste, über Entwicklungen der 68er-Bewegung und der Kritischen Theorie, die der Medienpädagogik vor allem aufklärerisches Potenzial über Macht- und Einflussstrukturen im Mediensektor zuwiesen, bis hin zu aktiver Medienarbeit als Folge dieser Aufklärung und partizipativen Strukturen durch soziale Medien (Münker, 2009). Immer wieder justieren sich Ausgestaltung und Ansprüche der Medienpädagogik.

?

Zeichnen Sie die unterschiedlichen Strömungen der Medienpädagogik nach und versuchen Sie zu jeder ein aktuelles Beispiel aus der Diskussion rund um Erziehung mit Medien zu finden.
Schauen Sie sich dann folgendes Video an. In welche der Strömungen von Medienpädagogik lässt sich der Vortrag einordnen? Worin liegt die anfängliche Überzeugungskraft Spitzers mit seinen Thesen?
http://www.youtube.com/watch?v=TLwXCS9LKS8.

Medienpädagogik

Forschungsfragen und -methoden der Medienpädagogik

Medienpädagogische Forschungsfragen ergeben sich immer dort, wo Subjekte (Rezipierende, Akteure usw.) mit und in Medien handeln. Durch die immer größere Durchdringung von Medien in der Gesellschaft breiten sich auch medienpädagogische Fragestellungen aus. Analog zu den verschiedenen Strömungen können auch in der medienpädagogischen Forschung unterschiedliche Forschungsparadigmata und -methoden zum Einsatz kommen, von der Medienwirkungsforschung über biographische Medienforschung bis zu Inhaltsanalysen, um nur einige wenige aus dem Handbuch Medienpädagogik (Sander von Gross & Hugger, 2008) aufzuführen. Kritisch merkt Petko (2011) allerdings zu Recht an, dass diese dort vorgestellten Methoden immer noch in ihren Herkunftsdisziplinen (kommunikationswissenschaftliche oder mediensoziologische und –psychologische Forschungszugänge) verankert sind, „Erkenntnisse über medienpädagogische Praxis“ (ebenda, Herv. im Original) sind allerdings mit diesen Forschungszugängen nicht immer zu finden (S. 247).

Zur besseren Einordnung soll aber ein Blick zurück geworfen werden. Am Anfang der Beschäftigung mit Medien in der Gesellschaft haben in der Medienforschung vor allem Fragestellungen interessiert, die sich mit den Wirkungen von Medien auf die/den Rezipierenden beschäftigt haben, sogenannte Rezeptionsforschung. Aus Richtung der Kommunikationswissenschaft wurde unter pädagogischer Perspektive vor allem die Wirkung von Gewalt, Sexualität und Werbung auf Kinder und Jugendliche untersucht. Studien waren meist quantitativ orientiert.

Diese Ausrichtung speiste sich aus zwei Richtungen: Zum einen war dies meist das vorherrschende Forschungsparadigma der „Heimatdisziplinen“ wie Psychologie, Pädagogik oder Medienwissenschaft, zum anderen lehnte sich das Medienverständnis stark an das Stimulus-Response-Modell an. Wenn Medien im Vordergrund stehen, lautet demnach die zentrale Frage: „Wie wirken Medien auf die Rezipientinnen und Rezipienten?“ Charakteristisch für quantitative Medienforschung ist die primäre Orientierung an Hypothesen, die eine Ursache-Wirkungs-Relation postulieren.

Zur Datengewinnung werden meist Fragebogenstudien oder Experimente durchgeführt (Möller, 2008, 310). Neuere Entwicklungen im Bereich quantitativer Medienforschung integrieren Verfahren datenbasierter Typenbildung wie Cluster- oder Korrespondenzanalysen, da die bisherigen Indikatoren gesellschaftlicher Heterogenität wie Alter oder Schicht nicht mehr ausreichen, um homogene Untergruppen zu bilden (Möller, 2008, 312).

Ebenso finden sich zu Beginn medienpädagogischer Fragestellungen auch an der Medienwirkungsforschung orientierte Studien, die der Frage nachgehen, wie ein medialer Reiz auf ein Individuum wirkt. So wurden vor allem bis in die 1950er-Jahre PR-Kampagnen und Werbemaßnahmen sowie politische Kampagnen untersucht (Grimm, 2008, 320). Methodisch kamen meist Inhaltsanalysen medialer Produkte zum Einsatz, aus deren Quantität dann auf die Wirkung beim Individuum geschlossen wird. Inhaltsanalysen und Rezeptionsforschung verweisen aber meist auf punktuelle Ergebnisse (ebenda, 253). Somit gibt es Probleme, sollen einzelne Wirkungen direkt auf Medien zurückgeführt werden: „Aus ihrer Komplexität folgt, dass das, was mit dem globalen Begriff der Wirkung bezeichnet wird, in Wahrheit ein nicht bis ins letzte zu entwirrendes Geflecht ist von Wirkung, Gegenwirkung, Wechselwirkung, von Neben-, Mit- und Nachwirkung, von kurzfristigen und langfristigen, von offenen und latenten, von kognitiven und emotionalen, von teils einander verstärkenden, teils einander neutralisierenden Wirkungen“ (Merkert, 1992, 27).

Demgegenüber beschäftigt sich qualitative Medienforschung mit der zentralen Frage „Was macht der Mensch mit den Medien, die er in Gebrauch nimmt, im Kontext und in Bezug auf seine soziale Umwelt?“ (Theunert, 2008, 302). Es geht also vor allem um Medienaneignung durch das rezipierende Subjekt. Medienaneignung umfasst so Nutzungsstrukturen, also zum Beispiel die Auswahl eines Medienprodukts, oder auch Präferenzen, aber auch qualitative Dimensionen wie Wahrnehmung von Inhalten sowie deren Bewertung und Verarbeitung. Ausgehend davon haben sich Fragestellungen entwickelt, die nach den Motiven von Mediennutzenden fragen, sich Medien zuzuwenden oder diese zu nutzen (Gehrau, 2008, 341ff). Diese werden in qualitativen Untersuchungsdesigns meist an Einzelfällen in der Tiefe untersucht. Auch biographische (z. B. Ganguin, 2008) oder ethnographische Methoden (Bergmann, 2008) werden im Bereich qualitativer Medienforschung eingesetzt. Der medienbiographische Ansatz thematisiert die Bedeutung und Rolle von Medien für die Biographiekonstruktion und -rekonstruktion von Kindern, Jugendlichen und Erwachsenen (Ganguin, 2008, 335), während der medienethnographische Ansatz soziale und kulturelle Praktiken in Bezug auf Medien mit ethnographischen Methoden untersucht.

In den letzten Jahren haben sich ausgehend von einer Kritik vor allem in der empirischen Bildungswissenschaft auch Verfahren herauskristallisiert, die unter dem Stichwort Design-Based Research oder Entwicklungsorientierte Bildungsforschung (Reinmann & Sesink, 2011) auch in der Medienpädagogik diskutiert werden (z.B. Tulodziecki et al., 2013). So weist u.a. Gabi Reinmann auf Limitationen traditioneller Ansätze bildungswissenschaftlicher Forschung hin, welche die Frage nach dem Nutzen meist nachrangig thematisiert. Gerade aber für die Medienpädagogik als Handlungswissenschaft ist die Frage nach der Entwicklung und Gestaltung von medial geprägten Bildungsprozessen essenziell und kann nicht aus dem Forschungsinteresse verbannt werden (Reinmann & Sesink, 2011, 3). Vielmehr werden gerade Entwicklungen der Praxis wissenschaftlich untersucht, um diese zu verbessern, gleichzeitig aber auch Theoriegewinnung zu betreiben.

Doch wie oben schon angedeutet, ist es auffällig, dass genuin medienpädagogische Fragestellungen beispielsweise auch hinsichtlich einer Gestaltung von medialen (Lern-)Umgebungen oftmals wenig thematisiert werden (Petko, 2011), ebenso wie eine Kombination von praxisverändernder und wirkungsorientierter Forschung fehlt. Aber auch sonstige medienpädagogische Forschung wird durchaus als defizitär eingeschätzt. So konstatiert auch Hoffmann (2013): „Der Forschungsbedarf ist aufgrund der Ausdifferenzierung der Medien und zugleich Konvergenz der Medien groß“ (S. 24).

?

Reflexionsfragen:

Medienpädagogik

Aufgabe von Medienpädagogik

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Als ein Ziel medienpädagogischer Tätigkeit und Praxis kann der Erwerb von Medienkompetenz bzw. der Ermöglichung von Medienbildungsprozessen gelten. Doch was sich genau hinter diesen Konstrukten verbirgt und wie diese genau zusammenhängen, darüber herrschen aufgrund der unterschiedlichen Referenzdisziplinen der Medienpädagogik unterschiedliche Meinungen vor (Schiefner-Rohs, 2012). Seitdem in den 1970er-Jahren der Begriff der Medienkompetenz von Baacke in die Diskussion gebracht wurde, hat der Begriff viele Debatten rund um das Lernen mit Medien ausgelöst, wobei er aktuell, so scheint es, von Medienbildung abgelöst wird (kritisch dazu u.a. Jörissen, 2011).

Baacke entwickelte Medienkompetenz aus dem Konzept der Kommunikativen Kompetenz von Habermas heraus; hierunter ist „die umfassende Fähigkeit des Menschen zu verstehen, sich zu verständigen, mittels des Austausches von Symbolen sprachlicher und nicht-sprachlicher Art“ (Schorb, 2009, 258). Kommunikationskompetenz, unabhängig von einer direkten oder einer medialen Kommunikation, ist dabei kein Wert an sich, sondern hat als Ziel die Gestaltung und Veränderung des Zusammenlebens der Menschen. Somit ist Kommunikation auf soziale Realität gerichtet (Schorb, 2009, 258). Diese Herleitung ist für das Verständnis von Medienkompetenz zentral: Es geht vor allem in den frühen Formen um gesellschaftliche Kommunikation und um die Herausbildung kritischer und mündiger Bürger. Somit verfügt Medienkompetenz schon aus der Frühform heraus über unterschiedliche Dimensionen, von der reinen Handhabbarkeit von Medien bis hin zur Analyse der Mediensprache und der Reflexion über Medien. Baacke definiert demnach Medienpädagogik als Überbegriff für die pädagogische Beschäftigung mit Medien in Theorie und Praxis, der aus den Bereichen Medienerziehung, Mediendidaktik, Medienkunde, Medienforschung besteht (Baacke, 2007, 4).

Ausgehend vom Ursprungskonzept nach Baacke haben sich unterschiedliche Facetten von Medienkompetenz aufgegliedert (z.B. Rosebrock & Zitzelsberger, 2002). Erschwerend kommt hinzu, dass die Diskussion um Medienkompetenz nicht auf eine Disziplin beschränkt ist. Ausgehend von den verschiedenen Referenzdisziplinen widmen sich beispielsweise die (Medien-)Pädagogik (Tulodziecki, 2005; Spanhel, 2002; Aufenanger, 1999; u.a.), die Psychologie (z.B. Groeben, 2004; Winterhoff-Spurk, 2000) und die Kommunikationswissenschaft (z. B. Jarren & Wassmer, 2009) dieser Aufgabe. Folgende Tabelle gibt einen ersten Überblick über die Hauptkonzepte von Medienkompetenz aus medienpädagogischer Perspektive:

!

Die Aufgabe von Medienpädagogik ist die Vermittlung und der Aufbau von Medienkompetenz als einer der wichtigen Fähigkeiten in der heutigen medial geprägten Welt.

Aufenanger (1997) Baacke (1998) Tulodziecki (1997) Kübler (1999)
Kognitive Dimension Medienkunde Mediengestaltung verstehen und bewerten
Bedingungen der Medienproduktion und -verbreitung analysierend erfassen Kognitive Fähigkeiten
Handlungsdimension Mediennutzung Medienangebote sinnvoll auswählen und nutzen Handlungsorientierte Fähigkeiten
Moralische Dimension Medienkritik Medieneinflüsse erkennen und aufarbeiten Analytische und evaluative Fähigkeiten
Ästhetische Dimension Mediengestaltung Eigene Medienbeiträge gestalten und verbreiten Sozial-reflexive Fähigkeiten
Affektive Dimension

Tab.1: Ansätze und Definitionsversuche der Teilbereiche von Medienkompetenz (Gapski, 2006, 17)

Bei all der Eindeutigkeit, die diese Unterscheidung von Baacke und anderen anscheinend liefert, muss allerdings festgehalten werden, dass die Medienpädagogik über keinen universalen Begriff von Medienkompetenz verfügt. Allerdings gibt es nach Hugger (2008, 95) zentrale Übereinstimmungen aller theoretischen Konzepte von Medienkompetenz:

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Ebenso gibt es Dimensionen, die in allen gängigen Definitionen von Medienkompetenz enthalten sind, wenn auch unter sich unterscheidenden Bezeichnungen, wie kognitive, analytische und evaluative sowie sozial-reflexive Fähigkeiten inklusive moralischer Orientierungen und emotionaler Aspekte (Kübler, 1996).

Stellt man Medienpädagogik in den Vordergrund, so betrachtet man vor allem die Vermittlung und den Aufbau von Medienkompetenz in formellen Lehr-/Lern-Settings in Schule und Hochschule oder der außerschulischen Jugendarbeit. Vor allem für Schule und Hochschule geht es in Zukunft auch darum, Handlungsfelder für den Erwerb von Medienkompetenz und Medienbildung zur Verfügung zu stellen.

Neben Medienpädagogik wird in den letzten Jahren vermehrt auch Medienbildung als Konzept in der medienpädagogischen Literatur diskutiert. Eine Abgrenzung von Medienkompetenz und Medienbildung geschieht nach Schorb (2009) aus drei Gründen: eine gewisse Überalterung des Begriffs ‚Medienkompetenz‘, eine stärkere Betonung von Orientierungswissen sowie eine gewisse Zweckrationalität von Medienkompetenz, d.h. eine starke instrumentelle Betrachtung (S. 50-51). Im Gegensatz zu Medienkompetenz betont das Konzept der Medienbildung vor allem das Subjekt als Ganzes und bringt Begriffe in die Diskussion, die im Rahmen der Medienkompetenzdebatte bisher vernachlässigt wurden, z.B. das Verhältnis des Individuums zur Welt (Marotzki & Jörissen, 2008). Medienbildung „zielt über die bisherigen Bestimmungen von Medienkompetenz hinaus auf ein wachsendes Bewusstsein von der Medialität der Bildungsräume und der Medialität aller Bildungsprozesse. Medienbildung reflektiert die mediale Gestaltung der Bildungsräume und der darin ablaufenden Kommunikationsprozesse. Dies ist die Grundbedingung dafür, dass die Heranwachsenden im Verlaufe ihrer Entwicklung immer besser befähigt werden, ihre Bildungsräume mit Hilfe der verfügbaren Medien eigenständig zu gestalten und die darin ablaufenden Lern- und Bildungsprozesse selbst zu regulieren“ (Spanhel, 2010, 50–51). Nach Hugger (2008) können Medienkompetenz und Medienbildung als „zwei Seiten derselben Medaille“ gesehen werden und Medienbildung betone „vor allem den Aspekt der Freisetzung des Subjekts zu sich selbst und der Medienreflexion“ (S. 97). Beide Konzepte seien integrativ; „(...) wer von dem einen redet, darf das andere nicht vergessen“ (ebenda). Allerdings ist in aktuellen Debatten immer wieder darauf zu achten, welche Perspektive auf Medienbildung eingenommen wird, wie Jörissen aufzeigt: Geht es bei der Perspektive auf Medienbildung um einen Output des Bildungssystems, um ein erzielbares Ergebnis von individuellen Lernprozessen oder um einen „Prozess der Transformation von Selbst- und Weltwissen“? (Jörissen, 2011, 213ff.). Je nach Perspektive finden sich unter dem „Deckmantel“ der Medienbildung ganz unterschiedliche Verständnisse des Gegenstands wieder.

Medienpädagogik

Medienpädagogik – immer noch aktuell?

Doch was zeichnet nun die aktuelle Medienpädagogik aus? In der historischen Entwicklung haben wir gesehen, dass Medienpädagogik sich meist in Abhängigkeit von gesellschaftlichen medialen Veränderungen entwickelt und diese Prozesse auch Einfluss auf die medienpädagogische Diskussion haben. Blickt man in den aktuellen medienpädagogischen Diskurs, so sind verschiedene Herausforderungen medienpädagogischer Arbeit beobachtbar: Zum einen sind in den letzten Jahren vermehrt medienpädagogische Konzeptionen entstanden, die informelle Medienaneignungsprozesse auch in Bildungsinstitutionen fruchtbar machen und damit Sozialisationsinstanzen verzahnen. So finden sich verstärkt sowohl in der außerschulischen wie auch in der schulischen Medienarbeit Peer-Education Ansätze, welche vor allem Partizipation von Kindern und Jugendlichen, aber auch von Studierenden betonen. Gerade partizipative Prozesse in Form von Peer-Education zeigen sich als reflexive Bearbeitung eigener Medienerfahrungen, in der Weitergabe dieser Medienerfahrungen an Peers sowie in der Ausgestaltung des Peer-Education Prozesses durch die Subjekte selbst (Hölterhof & Schiefner-Rohs, im Druck).

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Aus pädagogischer Perspektive wird die Frage nach der Gestaltung von Medienbildungsräumen virulent: Angesichts eines breiten Medienbegriffs, dem sich das Subjekt nicht gegenüber verorten kann, sondern in dem es handelt, hat zur Folge, dass auch Medienbildungsprozesse endinstitutionalisiert werden. Damit gibt es keine klassischen Orte der „Medienkompetenzentwicklung“ mehr, sondern es geht um eine pädagogische Auseinandersetzung mit den Bildungswerten digitaler und sozialer Medien in der sozialen Umwelt. Wichtiger werden dann immer mehr auch informelle Handlungsfelder (Hug, 2000) und Aspekte der Selbstsozialisation (Sutter, 2010). Medienbildung wird zu einem „Selbstgestaltungsprozess“ (vgl. Wolf et al. 2011) mit dem Ziel der Verortung und Verantwortungsübernahme des Subjekts in einer medialen Umwelt, der allerdings, wie Spanhel (2011) zu Recht hinweist, auch entwickelt werden muss.
Eine Entwicklung, die vor allem die Forschung in der Medienpädagogik betrifft, ist eine Veränderung von Medien und deren Nutzungs- bzw. Aneignungsprozesse (vgl. auch Schiefner-Rohs, im Druck). Medien wachsen immer mehr zusammen, weswegen das Erheben einzelner Medienformen (Nutzung von Büchern, Computern usw.) immer weniger verlässliche Daten produziert. Wichtiger wird die Frage nach den medial geprägten Handlungspraxen von Subjekten werden. Darüber hinaus hat vor allem das soziale Netz mit Prinzipien wie Partizipation, Interaktion und Mobilität emergente Nutzungs- und Aneignungspraxen hervorgerufen, welche bisher nur marginal durch die medienpädagogische Forschung untersucht sind. Von daher ist davon auszugehen, dass medienpädagogische Forschung auch in Zukunft vor vielfältigen Aufgaben steht.

In der Praxis:

Literaturempfehlung:

Das **Handbuch Medienpädagogik** bietet eine Übersicht über die vielschichtigen und vielfältigen Facetten eines kaum klar zu umreißenden Fachbereiches. Die Expertinnen und Experten geben einen umfassenden Einblick in Historie, Bezugstheorien, Methoden und Diskussionsfelder der Disziplin. In der Breite der eingebrachten Diskurse aus unterschiedlichen wissenschaftlichen Disziplinen wie Pädagogik, Soziologie oder Kommunikations- und Medienwissenschaft entfaltet der Band seine Stärke und eignet sich auch für Einsteiger, um einen Überblick über das vielschichtige Feld der Medienpädagogik zu erhalten (Sander, U.; von Gross, F. & Hugger, K.-U., 2008. Handbuch Medienpädagogik, München: VS Verlag.).

Begriffe und Theorien sind zentrale Pfeiler einer wissenschaftlichen Disziplin. Die wesentliche Begriffe und Konzepte der Medienpädagogik sind im Buch Medienpädagogik und Medienkompetenz – Beiträge zu Schlüsselbegriffen der Medienpädagogik zusammengetragen. Hier findet man eine sehr gute Übersicht über die aktuelle Diskussion von Leitbegriffen der Medienpädagogik, angefangen von methodologischen Einführungen zur Entstehung (medien-)pädagogischer Leitbegriffe über Diskussionen zur englischsprachigen Diskussion, zu Medienpädagogik, Medienkompetenz und Medienbildung bis hin zu Fragen medienpädagogischer Forschung (Moser, H.; Grell, P.; Niesyto, H., 2011, Medienpädagogik und Medienkompetenz – Beiträge zu Schlüsselbegriffen der Medienpädagogik. München: kopaed Verlag.).

Reader Entwicklungsorientierte Bildungsforschung: Das Thema der entwicklungsorientierten Bildungsforschung wurde im vorliegenden Lehrtext nur angerissen. Ausführlichere Informationen zu dieser Art von Forschung hat Gabi Reinmann in einem Reader zusammengestellt, der unter folgender Website zu finden ist:
http://gabi-reinmann.de/wp-content/uploads/2013/01/Reader Entwicklungsforschung Jan2013.pdf [2013-08-19]

Medienpädagogik

Literatur

Systeme im Einsatz

WBT, LMS, E-Portfolio-Systeme, PLE und andere

Dieser Beitrag stellt mehrere Formen von Informationssystemen vor, die derzeit im Bereich des Lernens und Lehrens eingesetzt bzw. diskutiert werden. Neben webbasierten Trainingssystemen (WBT) sind Lernmanagementsysteme (LMS) weit verbreitet. Letztere werden insbesondere zur Verwaltung von Lerninhalten und Kursabwicklung in (Hoch-) Schulen genutzt. Für die E-Portfolio-Methode werden seit Anfang des Jahrtausends passende Systeme entwickelt. Und in den letzten Jahren hat ein neues Konzept von webbasierten persönlichen Informations- und Lernmanagementsystemen an Aufmerksamkeit gewonnen, die sogenannte ‚persönliche Lernumgebung‘ (engl. ‚Personal Learning Environment‘, PLE). Schließlich werden die erst im Jahr 2012 bekannter gewordenen MOOC-Systeme vorgestellt. In diesem Beitrag werden keine technologischen Herausforderungen und Lösungen, sondern die praktischen Anforderungen und Wirkungen des Einsatzes der Systeme aus pädagogischer bzw. praktischer Perspektive betrachtet. Abschließend wird ein Ausblick gegeben, wie die Entwicklung solcher Systeme voranschreiten könnte.

Systeme im Einsatz

Einleitung

Rahmenbedingungen und Lehrmittel beeinflussen und gestalten implizit Lernprozesse: Mit einem Buch unterrichte ich anders als mit einer Tafel, in einem Stuhlkreis anders als in einem Hörsaal. Auch Technologien wirken sich auf den Unterricht und das Lernen aus. Solche Effekte werden von Lehrenden zum einen angestrebt und genutzt; zum anderen wirken sich die verwendeten Technologien auch unbewusst auf den Unterricht und das Lernen aus.

In diesem Kapitel werden wir mehrere Formen von technologischen Systemen zur Verwaltung des Lernen und Lehrens betrachten (für weitere technische Informationen siehe Kapitel #infosysteme und #webtech): Diese sind webbasierte Trainingssysteme (WBT), Lernmanagementsysteme (LMS), E-Portfolio-Systeme, sogenannte persönliche Lernumgebungen (PLE) und schließlich Systeme für Massive Open Online Courses (MOOCs). Es geht also nicht um die inhaltliche Umsetzung oder didaktische Aufbereitung für das Lernen und Lehren, sondern um die Systeme, mit denen das webbasierte Lernen aktuell gesteuert, verwaltet und dokumentiert wird.

Diese Systeme wurden ausgewählt, da sie einen besonderen Stellenwert einnehmen: Lernmanagementsysteme und E-Portfolio-Systeme sind weit verbreitet und werden seit längerer Zeit diskutiert, auch kritisiert und immer wieder an neue Bedürfnisse angepasst. Bei den webbasierten Trainingssystemen geht es, darauf weist auch die Bezeichnung hin, um (webbasierte) in sich geschlossene Lerneinheiten, die aus dem Internet oder innerhalb eines Intranets abgerufen werden. Sie erlauben den Lernenden mehr Flexibilität in räumlicher und zeitlicher Gestaltung ihres Lernprozesses. Die weiteren Konzepte sind eher jung: Persönliche Lernumgebungen fokussieren konsequent auf die Perspektive der Lernenden und erlauben diesen, ihre individuelle Informations- und Kommunikationsumgebung zu gestalten. Unter Massive Open Online Courses versteht man eine spezielle Form eines Onlinekurses, der im Vorhinein vorbereitet und mit multimedialen Inhalten angeboten wird. Wie der Name schon sagt, handelt es sich dabei meistens um Kurse mit einer sehr hohen Anzahl an Teilnehmenden. All diese Systeme werden wir in diesem Beitrag aus der Perspektive der pädagogischen Praxis beschreiben, indem wir skizzieren, welche Aufgaben diese Systeme übernehmen und wie solche Rahmenbedingungen gegebenenfalls das Lernen beeinflussen. Zum besseren Verständnis stellen wir diese Systeme als prototypische Konzepte vor. ### In der Praxis sind die realen Produkte oft weniger trennscharf konzipiert.

Systeme im Einsatz

Webbasierte Trainingssysteme (WBT)

Webbasierte Trainingssysteme (engl. ‚web-based training‘, WBT), bekannt auch als ‚webbasiertes Lernen‘, sind so alt wie das Internet selbst (siehe Kapitel #internet). Im Endeffekt versteht man darunter einen Unterricht, der, wie die Bezeichnung sagt, auf webbasierten Inhalten, Diensten und Ressourcen basiert. Die Lernmaterialen genauso wie die Lerneinheiten sind dabei in der Regel gänzlich vorbereitet. Aus Sicht der Lehrenden kann WBT als Web Based Lecture (WBL) bezeichnet werden. Manchmal werden die WBTs von einer Tutorin oder einem Tutor bzw. einer Moderatorin oder einem Moderator begleitet. Der/die Moderator/in motiviert die Teilnehmenden und unterstützt sie gezielt, wie sie die Dienste und Ressourcen im Web effizient verwenden können. Manchmal findet man für das begleitete WBT auch die Bezeichnung mWBT (moderiertes WBT) vor, wobei sich der Austausch zumeist auf internetbasierte Kommunikationstechnologien wie E-Mail, Newsgroups, Chats oder Diskussionsforen beschränkt.

In jüngster Zeit kommen auch Audio- und Videostreams zum Einsatz oder es werden Web-2.0- Applikationen eingesetzt, um den Lernenden die Möglichkeit anzubieten, selbst Inhalte (wie Blogbeiträge, Wikis) im Web zu generieren und diese miteinander zu teilen. Durch Verwendung von Schlagwörtern (Tags) lassen sich die von den Nutzer/innen generierten Inhalte verknüpfen und leicht auffindbar machen. Sie werden dann von anderen Lernenden kommentiert.

!

Die Abkürzung WBT steht für ‚Web Based Training‘. Das sind im Internet zur Verfügung gestellte, in sich geschlossene Lerneinheiten zu einem bestimmten Thema.

Auswirkungen auf die Gestaltung des Lernens und Lehrens

Web Based Trainings sind in der Regel Lehr- und Lerneinheiten, die aufeinanderfolgend präsentiert und auch abgearbeitet werden. In den meisten Fällen sind sie mit keinerlei Intelligenz ausgestattet (im Gegensatz zu intelligenten tutoriellen Systemen; siehe Kapitel #analyse), dies bedeutet, dass die Reihenfolge für jede Lernerin und jeden Lerner gleich ist. Einzig durch multimedial aufbereitete Inhalte kann Interaktivität erzeugt werden, sodass nicht ausschließlich eine einseitige Rezeption von Lerninhalten erfolgt. Eine Kritik ist also, dass sich gegenüber dem Lehrbuch wenig geändert hat, außer dass es visuell vielseitiger aufbereitet werden kann.

Systeme im Einsatz

Lernmanagementsysteme

Durch die steigenden Bedürfnisse der WBT nach gezielter Benutzer/innen-Verwaltung oder einer allumfassenden Umgebung wurde um die Jahrtausendwende begonnen, sogenannte Lernmanagementsysteme (engl.‚ learning management system‘, LMS) zu programmieren.

!

Ein Lernmanagementsystem (engl. ‚learning management system‘, LMS) ist eine serverseitig installierte Software, die beliebige Lerninhalte über das Internet zu vermitteln hilft und die Organisation der dabei notwendigen Lernprozesse unterstützt (Baumgartner et al., 2002, 24).

Es wurde also schnell erkannt, dass Lernen und Lehren vielfältige organisatorische Aufgaben verlangt. Lernmanagementsysteme unterstützen in erster Linie Managementaufgaben von Lehrenden. Umgangssprachlich werden LMS auch oft als „Lernplattformen“ bezeichnet. War die Funktionalität der entsprechenden Produkte der diversen Unternehmen anfänglich uneinheitlich, so begann sich später durch die Marktkonsolidierung und den extensiven Praxiseinsatz eine gewisse funktionelle Standardisierung herauszukristallisieren (Schulmeister, 2000).

Bäumer et al. (2004) beschreibt drei wesentliche Säulen von Lernmanagementsystemen, nämlich: Administration, Kommunikation und Inhalte. Fünf Funktionsbereiche von LMS können dabei unterschieden werden:

Wenngleich LMS eine Fülle von Funktionen haben, ist ihr praktischer Einsatz häufig auf die Bereitstellung der Unterrichtsmaterialien der Lehrenden reduziert. Nach wie vor ist der Funktionsumfang, der diese Software charakterisiert, in sta ndigem Wandel. Auch sind in den konkreten Produkten nicht alle Funktionsbereiche im gleichen Umfang vorhanden, bzw. kann in ̈ einigen Fällen die eine oder andere Kategorie fehlen. Um die Systeme zu unterscheiden, werden auch weitere Bezeichnungen verwendet. So werden LMS, die auch Werkzeuge zur Erstellung und Anpassung von Lerninhalten integrieren, auch als Learning-Content- Management-System (LCMS) bezeichnet. In nahezu jeder Hochschule in Mitteleuropa sowie in vielen Schulen und Bildungseinrichtungen werden derzeit LMS eingesetzt. Recherchiert man LMS, findet man mehrere Hunderte, die LMS anbieten. Im Open-Source-Bereich gibt es allein mehr als 50 Projekte, die aktuell LMS entwickeln und offerieren. Zu den am weitesten verbreiteten gehören hier die beiden Open-Source-Produkte Moodle und Ilias. Blackboard ist das weltweit größte kommerziell anbietende Unternehmen.

Auswirkungen auf die Gestaltung des Lernens und Lehrens

LMS übernehmen, darauf weist auch die Bezeichnung „Management“ hin, vor allem organisierende und verwaltende Aufgaben, die auf klassischen Kurs-, Klassen- und Unterrichtsstrukturen beruhen. Lernenden werden bestimmte Kurse freigeschaltet, das heißt, sie können in aller Regel dort verfügbare Unterrichtsmaterialien oder Stundenpläne einsehen und beispielsweise auch in Diskussionsforen des Kurses Beiträge der Lehrenden und Mitlernenden lesen oder eigene verfassen. LMS gewährleisten somit, dass Lernende Zugang zu denen für sie relevanten Kursen und Lehrende beispielsweise Unterstützung bei der geordneten Abgabe, Bewertung und Rückmeldung von Arbeitsaufträgen erhalten. LMS stellen hier, im Unterschied zum Austausch von Dokumenten per E-Mail sowie dezentraler Verwaltung und Bewertung der Beiträge durch die Lehrenden, eine Arbeitserleichterung dar.

Wie einführend dargestellt, limitieren und gestalten Technologien das Lernen und Lehren. Aus dieser Perspektive rücken die Funktionen von LMS in ein anderes Licht. Die Konzeption von Organisation in Kursen und Klassen, sowie insbesondere die Rolle der Lehrenden als diejenigen, die über Zugänge und Lehrmaterial wesentlich bestimmen können, entspricht nur eingeschränkt den aktuellen Vorstellungen des technologiegestützten Lernens und Lehrens.

Die aktuell dominanten Theorien und erwünschten Konzepte (siehe Kapitel #lerntheorie) guten Lehrens stellen die Eigenaktivität der Lernenden und damit eigenständige Konstruktion und Diskussionen zum Lerngegenstand in den Vordergrund, bei denen die Lehrperson nicht primär als Experte oder Expertin des Fachs, sondern vor allem als Unterstützer/in des Lernens tätig ist. Schneider (2003) argumentiert so für die Unterstützung einer aktivitätsbasierten Pädagogik und kritisiert klassische E-Learning-Technologien wie LMS.

Er weist darauf hin, dass diese eine behavioristische Tradition fortsetzen und eine Praxis der klassischen Wissensübertragung fördern: Der Zugang zu Informationen, Wissen und auch der Kontakt zu Gleichgesinnten ist in LMS in der Praxis limitiert und nur durch Vermittlung von Institutionen und Autorita ten erreichbar, die wiederum darüber Prüfungen abnehmen.

In einer Zusammenfassung der Kritik an LMS von Siemens (2004) wird zudem darauf verwiesen, dass zentralisierte, monolithische Systeme nur wenig didaktische Variation erlauben. Dalsgaard (2006) kritisiert besonders die geringe Flexibilität, die bei der Nutzung eines LMS gegeben ist und sieht dringenden Bedarf, ̈ Lernenden mehr Freiräume bei der Auswahl von Kommunikations- und Interaktionswerkzeugen zu ermöglichen.

In den letzten Jahren hat die Verbreitung der Nutzung von sozialen Netzwerksystemen und die Entwicklung von zahlreichen Webanwendungen, welche die Kommunikation und die Kollaboration von Lernenden unterstützen können, zu ihrer zunehmenden Integration bzw. der Einführung von Schnittstellen zu solchen Angeboten in LMS geführt.

?

LMS sind aus vielen Bildungseinrichtungen nicht mehr wegzudenken. Reflektieren Sie Ihre eigenen Erfahrungen mit LMS: Wie nutzen Lehrende und Lernende die Möglichkeiten dieser Systeme in Ihrer Umgebung? Haben Sie ähnliche Erfahrungen gemacht, wie sie in den zitierten Kritikpunkten genannt werden?
Stellen Sie Vorteile dieser Systeme ihren Nachteilen gegenüber.

Systeme im Einsatz

E-Portfolio-Systeme

E-Portfolios sind, wie die Bezeichnung schon sagt, die elektronische Form von Portfolios. Das Ziel eines E-Portfolios ist die Lernenden zu unterstützen, durch die elektronischen Medien (wobei dies heute fast ausschließlich mit Webtechnologien passiert) ihren Lernprozess zu organsieren, zu dokumentieren, zu reflektieren bzw. zu präsentieren.

Ein E-Portfolio ist eine digitale Sammlung von mit Geschick gemachten Arbeiten, sogenannte Artefakte, (von lateinisch arte, mit Geschick, factum, das Gemachte) einer Person, die dadurch das Produkt (Lernergebnisse) und den Prozess (Lernpfad/Wachstum) ihrer Kompetenzentwicklung in einer bestimmten Zeitspanne und für bestimmte Zwecke dokumentieren und veranschaulichen möchte. Die betreffende Person hat die Auswahl der Artefakte selbstständig getroffen und diese in Bezug auf das Lernziel selbst organisiert. Erstellende haben als Eigentümer/innen die komplette Kontrolle darüber, wer, wann und wie viel Information aus dem Portfolio einsehen darf (Salzburg Research, 2007).

E-Portfolios können zum Zweck der Dokumentation des Lernprozesses, u.a. auch fürs Lebenslange Lernen (LLL), eingesetzt werden (siehe Kapitel #offeneslernen). Durch Verwendung von E-Portfolios entstehen gewisse Mehrwerte. Man kann Hyperlinks einbinden, um innerhalb eines E-Portfolios auf die anderen Informationsquellen zu verweisen und zu verlinken. Durch das Verschlagworten (taggen) können die Inhalte eines E-Portfolios mit ähnlichen Artefakten verknüpft werden. Die Lernenden haben die Möglichkeit, auf die bereits reflektierten Arbeiten zu reagieren, diese zu kommentieren und zu diskutieren. Dadurch steigt die Motivation der Lernenden, ihre Leistungen zu reflektieren und E-Portfolios zu führen. E- Portfolios können, da sie elektronisch sind, leicht im Nachhinein bearbeitet und ergänzt werden (Ebner & Maurer, 2008).

E-Portfolios werden zunehmend vermehrt in Schulen und Hochschulen eingesetzt. Einige Hochschulen bieten ihren Studierenden an, ihre Leistungen durch E-Portfolios zu präsentieren. Daher werden manchmal die E-Portfolios in bereits bestehende LMS der jeweiligen Hochschulen integriert. OLAT und ILIAS sind zum Beispiel zwei LMS, die eine solche Möglichkeit anbieten. Hingegen ist ELGG ein Social-Networking-System, das erlaubt, E- Portfolios in chronologischer Reihenfolge zu führen, in Gruppen zusammenzufassen oder Rechte über die einzelnen Beiträge zu vergeben. Andere bekannte Softwareprodukte wie Drupal, Mahara und Wordpress bieten ähnliche Funktionalitäten an.

!

Unter E-Portfolio-Systemen versteht man Systeme, die zentrale Prozesse der E-Portfolio-Arbeit (Sammeln, Reflektieren, Publizieren) sowie den Austausch darüber (Peers, Betreuer/innen, Öffentlichkeit) unterstützen und organisieren.

Auswirkungen auf die Gestaltung des Lernens und Lehrens

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

E-Portfolio-Systeme sind dazu da, dass E-Portfolios erstellt und gepflegt werden können, denn es ist technisch gesehen sehr einfach, damit Inhalte im Internet zu veröffentlichen, egal, ob es sich dabei um reinen Text, Bilder, Videos oder interaktive Objekte handelt.

Auf der anderen Seite kann dies auch ein Nachteil sein, denn diese Systeme sind starr in ihrer Anwendung und erlauben kaum oder nur schwer andere Aktivitäten, zum Beispiel Kommunikation der Nutzer/innen oder Verwaltung von Materialien, abzubilden. Viele solcher notwendigen Erweiterungen (wie beispielsweise die Integration eines Diskussionsforums) sind nur über Plugins lösbar, was wiederum zu einer sehr speziellen, komplexen Oberfläche führt. Diese technischen Einschränkungen wirken sich natürlich auf die didaktische Gestaltung des Unterrichts aus.

Bei portfoliobasiertem Unterricht geht es um die individuelle Darstellung von Lerninhalten, das Sammeln und Teilen dieser und um die Kommunikation zwischen den Beteiligten (Schiefner & Ebner, 2008). Unabhängig vom System an sich ist, dass sich dieses didaktische Szenario nicht für alle Inhalte eignet. Abschließend muss auch darauf hingewiesen werden, dass derzeit nur wenige Bildungsinstitutionen solche Systeme bereits flächendeckend selbst zur Verfügung stellen und warten und damit das (Weiter-)Führen eines E-Portfolios zur Darstellung von Leistungen und Kompetenzen kaum möglich ist.

Systeme im Einsatz

Persönliche Lernumgebungen (PLE)

Mit der Entwicklung und dem wachsenden Erfolg von partizipativen Anwendungen im Internet gewann mit sogenannten perso nlichen Lernumgebungen (engl. ‚personal learning environment‘, PLE) ein neues Konzept an Aufmerksamkeit. Getrieben wurde diese Entwicklung weil LMSe zu sehr lehrendenzentriert sind und E-Portfolio-Systeme zwar mehr die Lernenden in den Mittelpunkt stellen, die Funktionalität jedoch sehr eingeschränkt ist. Im Fokus der ‚perso nlichen Lernumgebung‘ stehen also die Lernenden, die sich selbst Webinhalte, Lernressourcen und Lernwerkzeuge so arrangieren und sie so nutzen, dass sie deren persönliches Informations- und Wissensmanagement, also den eigenen Lernprozess, unterstützen. Im Unterschied zu den Lernmanagementsystemen fokussieren PLE auf das selbstgesteuerte und individuelle Lernen. PLE sind Systeme, bei denen Lernende verteilte Online-Informationen, -Ressourcen oder -Kontakte aus unterschiedlichen Social-Softwareanwendungen und anderen Systemen zentral integrieren und verwalten können und dabei große Freira ume bei der inhaltlichen Gestaltung haben (Schaffert & Kalz, 2008, 6).

Dabei gibt es unterschiedliche technologische Vorgehensweisen und Realisierungen (Schaffert & Kalz, 2008). Manchmal wird das persönliche Wissensmanagement unterstützt, indem eigene virtuelle Dokumentationsräume angeboten werden (zum Beispiel bei http://lernweg.de). Immer häufiger werden jedoch Mashup-Technologien eingesetzt. Eine PLE stellt dann eine technologische Basis dar, mit Anwendungen und Diensten, die Lernende nach Verfügbarkeit (zum Beispiel in Form von Widgets) beliebig hinzufügen ko nnen. Potentiell stehen ihnen dabei Ressourcen und Anwendungen des gesamten Webs zur Verfügung. Folgende Funktionsbereiche einer PLE ko nnen unterschieden werden:

Das Konzept der persönlichen Lernumgebung wird erst seit kurzer Zeit auf einer breiteren Basis diskutiert. Es gibt jedoch schon länger Ansätze in diese Richtung. So waren Olivier und Liber (2001) die Ersten, die diese Idee thematisiert haben. Einige Jahre spa ter waren es die Entwickler/innen der Blogging- und Social-Networking-Plattform ELGG, die mit den ‚Personal Learning Landscapes‘ ein integriertes Konzept vorgestellt haben, aus dem sich dann das Konzept der ‚Personal Learning Environments‘ entwickelt hat (Schaffert & Kalz, 2008). Im Gegensatz zu traditionellen, multifunktionalen, virtuellen Lernumgebungen, die verschiedene Aspekte in das System integrieren (zum Beispiel Studierendenverwaltung, Kommunikations- und Kollaborationswerkzeuge), stellt das PLE-Konzept die Lernenden, ihre Aktivita ten und Bedürfnisse in den Mittelpunkt; es stellt Werkzeuge und Informationen direkt in der PLE des/der Lernenden zur Verfügung. Anwendungen wie das heute schon wieder eingestellte iGoogle oder auch Netvibes werden aktuell ha ufig als vergleichsweise bekannte Realisierungen genannt. Auch gibt es erste PLE-Entwicklungen, die auf der Mashup-Technologie basieren, die bereits an Universitäten eingesetzt werden (Ebner & Taraghi, 2010).

PLE wurden maßgeblich als Gegenentwurf zu administrativen Verwaltungstools wie LMS kreiert und stellen die aktiven, selbstgesteuerten Lernenden in den Mittelpunkt. Lernende können in ihrer PLE auswählen, welche Ressourcen sie nutzen wollen, mit welchen Werkzeugen und wie sie mit ihren Kontakten und Netzwerken arbeiten wollen und können mit der Mashup- Technologie ihr persönliches Informationsmanagement optimieren. Dies setzt voraus, dass Lernende wissen und einen Überblick haben, (a) wie die PLE funktioniert, (b) wie sie ihr eigenes Lernen gut planen und durchführen können, (c) geeignete Quellen auswählen und bewerten können und (d) dass sie geeignete Werkzeuge und Webanwendungen kennen (beispielsweise Kalender). Damit kein falsches Bild entsteht: Die Bedienung der PLE an sich ist vergleichsweise einfach. Häufig muss man die einzelnen Anwendungen nur in das eigene Cockpit „ziehen“. Voraussetzung ist jedoch, die vorhandenen Webanwendungen und Ressourcen auch zu kennen und nutzen zu können. Dies ist also nur bei einer relativ kleinen webaffinen Gruppe selbstgesteuerter Lernenden gegeben.

!

Eine PLE ist eine hochgradig individualisierbare Plattform, bei der die Lernenden bestimmen, welche Inhalte sie angezeigt bekommen und welche Tools sie verwenden.

?

Bitte recherchieren Sie nach aktuellen Tools, die als PLE bezeichnet werden können und analysieren Sie welche Funktionalitäten diese anbieten. In welcher Weise könnten Sie mit diesen Anwendungen Ihr eigenes Lernen unterstützen?

In der Praxis

Um die möglichen Funktionalitäten einer beispielhaften PLE besser darzustellen, wird hier die eingesetzte PLE an der Technischen Universität (TU) Graz herangezogen und kurz beschrieben. Die PLE an der TU Graz (Ebner & Taraghi, 2010) ist eine widgetbasierte Mashup- Plattform, die mehrere verschiedene und zum Teil unabhängige und verteilte Dienste und Ressourcen der TU Graz und aus dem Internet integriert, kombiniert und in einer personalisierten Art und Weise den Lernenden zur Verfügung stellt (Taraghi et al., 2009). Wie in Abbildung 1 zu sehen ist, stehen viele Universitätsdienste wie das Administrationssystem (TUGRAZ.online), das LMS (TUGTC), der E-Mail-Dienst und die Blogosphäre (TUGLL) als Widgets zur Verfügung. Darüber hinaus werden Dienste aus dem World Wide Web wie Google- Applikationen, Twitter, Facebook, Slideshare, Scribd und verschiedene Lernobjekte über einen Widgetstore angeboten. Die Benutzer/innen sind in der Lage, sich die passenden, zu ihrem Studium und für ihre Lernbedürfnisse geeigneten Widgets auszusuchen und diese nach ihren aktuellen Wünschen und Bedürfnissen zu konfigurieren.

Abb. 1: PLE-Konzept an TU Graz, Mashup von verteilten Ressourcen und Applikationen
Abb. 1: PLE-Konzept an TU Graz, Mashup von verteilten Ressourcen und Applikationen

Auswirkungen auf die Gestaltung des Lernens und Lehrens

Diese Systeme halten grundsätzlich das, was sie versprechen: Sie sind in höchstem Grade personalisierbar und Lernende können ihre individuelle Sicht selbst einstellen. Dies bringt mit sich, dass auch gänzlich neue Kompetenzen seitens der Lernenden gefordert sind.

Selbstgesteuertes Lernen spielt eine zentrale Rolle und muss eingefordert werden. Darüber hinaus ist das Unterrichten mit solchen Systemen ebenfalls eine Herausforderung, da es ja keine einheitliche Sicht mehr auf die Inhalte gibt und alle selbst die benötigten Kommunikationswerkzeuge wählen können. Die Nachvollziehbarkeit von Leistungen erreicht hier also völlig neue Dimensionen und muss überdacht werden. Hierzu versprechen aber Methoden aus dem Bereich Learning Analytics (zum Beispiel die Erfassung von Datenspuren innerhalb einer Umgebung) Abhilfe zu schaffen (siehe Kapitel #analyse).

Systeme im Einsatz

Massive Open Online Courses (MOOCs)

Sogenannte ‚Massive Open Online Courses‘ (siehe auch Kapitel #offeneslernen) haben – wie wenige Trends zuvor – innerhalb kurzer Zeit große Aufmerksamkeit errungen. Darunter werden frei zugängliche Online-Kurse verstanden, an denen sich sehr viele Lernende beteiligen können, und die häufig mit multimedialen Inhalten angeboten werden. Die Anzahl der Teilnehmer/innen eines Kurses variiert je nach Popularität des Kurses und der Vortragenden von wenigen hunderten bis über hunderttausend (Carson & Schmidt, 2012). Die Kurse und Kursmaterialien sind dabei immer häufiger auf eigens entwickelten Informationssystemen zugänglich. Sie sind im Vergleich zum LMS, dem E-Portfolio-System und der PLE wesentlich einfacher gestrickt: Neben einer Kursadministration, einer Benutzer/innen-Verwaltung und sehr wenigen Kommunikationswerkzeugen gibt es ein enges Korsett, in dem Kursinhalte zur Verfügung gestellt werden können: Bei Coursera, eine der bekanntesten MOOC-Plattformen, wird zum Beispiel ein Kurs in sequentielle Lerneinheiten aufgeteilt, die meistens mittels Video nacheinander präsentiert werden. Die Länge der Aufnahmen ist dabei auf maximal 15 Minuten beschränkt. Nach jeder Lerneinheit gibt es eine Überprüfung des Lernfortschritts, die in der Regel als Multiple-Choice-Test durchgeführt wird. Zum Schluss werden die Ergebnisse zusammengezählt und den Lernenden im Erfolgsfall ein Zertifikat überreicht. Diese Art von MOOCs inklusive der nötigen Systeme wird in der Literatur als xMOOC (Wedekind, 2013) bezeichnet. xMOOCs sind an regulären Universitäten und Hochschulen besonders in den USA weit verbreitet. Das vorangestellte „x“ steht für das englische Wort „extension“. Es wurde zum ersten Mal von der Universität Harvard verwendet, um die Online-Variante ihrer Kurse von den Originalkursen zu unterscheiden.

xMOOCs werden derzeit meistens von Hochschulen und Universitäten in Einsatz genommen, wiewohl es auch vereinzelte Beispiele gibt, die von Privatpersonen oder Vereinen angeboten werden. Coursera, Udacity, Class2Go und edX sind die größten xMOOC-Plattformen im angloamerikanischen Raum, während zum Beispiel iversity versucht, in D-A-CH Fuß zu fassen.

!

MOOC-Systeme, die vorrangig xMOOCs unterstützen sollen, bestehen aus einer einfachen Kursverwaltung, einer Benutzer/innen-Verwaltung, wenigen Kommunikationswerkzeugen (Diskussionsforen) und einer einfachen Form, Webinhalte zur Verfügung zu stellen.

Im Gegensatz zu den xMOOCs kennt man in der Literatur auch sogenannte cMOOCs. cMOOCs sind eher als Online-Workshops oder Online-Seminare anzusehen. Dabei werden den Kursteilnehmenden zu Beginn jeder Kurseinheit einige im Web frei verfügbare Ressourcen, wie Texte, Videos, Präsentationen, zur Verfügung gestellt oder auch Live-Online-Events veranstaltet. Die Teilnehmenden sind dann aufgefordert, selbst aktiv zu werden, indem sie weitere Ressourcen (Lernergebnisse) in Form von Blogbeiträgen, Tweets, Videos, Podcasts, etc. erstellen. Diese neu erstellten Inhalte sind für alle Teilnehmenden sichtbar und werden in der Regel von einem großen Anteil der Teilnehmenden kommentiert und diskutiert. Dadurch entsteht eine starke Vernetzung zwischen den Teilnehmer/innen selbst und den Teilnehmer/innen und deren Inhalten. Das Konzept der cMOOCs basiert auf dem Konnektivismus (siehe Kapitel #lerntheorien) und dieser ist der Ausgangspunkt von cMOOCs (Siemens, 2005), daher das vorangestellte „c“. Systemisch betrachtet, basiert dieses Konzept in der Regel stark auf der Verwendung von RSS-Technologien (siehe Kapitel #grundlagen), indem sämtliche Online-Beiträge entsprechend aggregiert und auf einer zentralen Plattform dargestellt werden. Für cMOOCs ist vor allem die Software von Stephen Downes gRSShopper bekannt, die technisch gesehen eine Website mit RSS-Aggregator und Benutzer/innen-Verwaltung darstellt.

Auswirkungen auf die Gestaltung des Lernens und Lehrens

Beiden MOOC-Typen gemeinsam ist, dass die Lerneinheiten nach einem bestimmten Zeitplan veröffentlicht werden, also dass sie wirkliche Kursform haben. Die Teilnehmenden haben bis zu einer Deadline Zeit, eine Lerneinheit zu absolvieren, was zu mehr zeitlicher Flexibilität bei den Lernenden führt. MOOCs ermöglichen damit vielen Lernenden und Interessierten einen neuen Weg, über ihre geographischen Grenzen hinweg an einem Kurs teilzunehmen. Daher ist für die Teilnehmenden die räumliche Flexibilität auch gegeben. Insbesondere bei xMOOCs ist der Ablauf jedoch sehr strikt nach dem Schema Input, Aufgabe, Test. Von konnektivistischen Ansätzen ist hier wenig zu erkennen beziehungsweise auch durch die typische hohe Anzahl der Teilnehmenden auch gar nicht möglich (Khalil & Ebner, 2013a). Ähnlich schaut es mit der Kommunikation zwischen Lehrenden und Lernenden aus, die so gut wie nicht existiert (Khalil & Ebner, 2013b).

MOOCs verlangen ein hohes Maß an Selbstdisziplin beim Lernen. Wenn auch die Zeiten strikt vorgegeben werden, zeigt sich, dass die Drop-out-Rate sehr hoch und insbesondere bei einer hohen Anzahl an Teilnehmenden nur schwer in den Griff zu bekommen ist. Zusätzlich ist es für Lehrende schwer, die tatsächliche Anzahl zu ermitteln, da sich aufgrund der freien Zugänglichkeit auch viele Neugierige und Interessierte in den Kursen tummeln (Wang, 2012) oder durch fehlende Anerkennung der Zertifikate deren Abschluss nicht primär im Mittelpunkt steht.

Systeme im Einsatz

Ausblick

Abschließend wollen wir noch einen Ausblick geben, wie die zukünftigen Entwicklungen von Lehr- und Lernsystemen aussehen könnten. Insbesondere scheinen zwei davon sehr interessant zu sein:

  1. Semantik: Semantik-Web ist eine Erweiterung des World Wide Web (WWW) und wird als ‚web of data‘ oder ‚Web 3.0‘ bezeichnet. Dabei werden die Informationen im WWW in einer strukturierten Form derart aufbereitet, dass es Computern ermöglicht wird, sie inhaltlich zu verstehen und zu verarbeiten. Im Semantik-Web sind die Inhalte und deren Bedeutung also von Maschinen interpretierbar und analysierbar (Softic et al., 2013). Durch Verknüpfung und Analyse der strukturierten Daten können aus den bestehenden Daten automatisiert neue Informationen generiert und neue Erkenntnisse gewonnen werden. Dadurch ist es zum Beispiel möglich, intelligente Systeme zu bauen, die passende Lernressourcen automatisiert ohne menschliches Eingreifen finden und den Lernenden zur Verfügung stellen.
  2. Empfehlungsalgorithmen: Angesichts der rasch wachsenden Informationen, Dienste und Ressourcen im Web wird es für Lernende immer schwieriger, die passenden erwünschten Informationen zu einem bestimmten Thema zu finden. Es liegt nahe, dass Systeme die passenden Informationen und Ressourcen vorschlagen sollten. Empfehlungssysteme werden in vielen Bereichen, unter anderem in Lehr -und Lernsystemen, als Lösung dieser Probleme gesehen. Wie ein Empfehlungsalgorithmus aufgebaut ist, hängt stark von den Systemanforderungen ab. Im ‚content based filtering‘-Verfahren versucht man, den Lernenden Ressourcen zu empfehlen, welche den bereits verwendeten ähnlich sind. Zieht man ähnliche Lernende, nämlich die mit ähnlichen Lernzielen, in einem geschlossenen System in Betracht, spricht man vom ‚collaborative filtering‘-Verfahren, wobei das System Ressourcen vorschlägt, welche die ähnlichen Lernenden intensiv verwendeten. Um die Ziele eines Empfehlungssystems zu optimieren, werden oft verschiedene Algorithmen und Technologien, wie semantische und künstliche Intelligenz, miteinander kombiniert. Diese so genannten Hybridsysteme versuchen, den Lernenden bestmöglich Lernressourcen zu empfehlen (Taraghi et al., 2013).

?

Sie wollen einen Online-Kurs durchführen? Beschreiben Sie das Kursziel, die Kursinhalte und das didaktische Konzept. Wählen Sie danach einen geeigneten Plattform-Typ aus und begründen Sie Ihre Auswahl.

Systeme im Einsatz

Literatur

Kommunikation und Moderation

Internetgestützte Kommunikation zur Lernunterstützung

Mobiltelefone und Internet gehören mehr und mehr zu unserem Arbeits- und Lebensalltag. Computervermittelte Kommunikationsmöglichkeiten werden auch zunehmend zum Lernen und Lehren genutzt, also im Schulunterricht, im Studium oder in der berufsbegleitenden Weiterbildung. Dieses Kapitel beschäftigt sich mit computervermittelter Kommunikation und Moderation als Grundlage für Lernprozesse in Online-Lerngemeinschaften. Zunächst werden die Besonderheiten computervermittelter Kommunikation (CMC, kurz für engl. „Computer-mediated communication“) dargestellt sowie verschiedene Parameter zur Beschreibung von Online-Kommunikationsprozessen erläutert. Anschließend wird die Umsetzung von CMC in Online-Lerngemeinschaften im Modell und in der Praxis gezeigt.

Kommunikation und Moderation

Die Bedeutung von Kommunikation im Lernprozess

Viele denken beim technologiegestützten Lernen an einsame Lernende, alleine gelassen vor Bildschirmen in abgedunkelten Zimmern. Zwar kann das isolierte Aneignen von Informationen in manchen Fällen ausreichen, insbesondere für komplexe Themen und kompetenzorientiertes Lernen ist Kommunikation für das (technologiegestützte) Lernen jedoch essentiell: Sozial-konstruktivistische Lerntheorien gehen davon aus, dass der Wissensaufbau vor allem an aktive Teilnahme und Partizipation gebunden ist. Die Gestaltung von Lernumgebungen soll daher „dazu anregen, die Aktivität und Konstruktivität der Lernenden zu fördern“ (Gräsel et al., 1997, 6). Dementsprechend sollen Lernende unterstützt werden, ihre eigenen Vorstellungen zu artikulieren und sie mit denen von anderen zu vergleichen (ebd., 6).

In Diskussionen wird einerseits Erlerntes erprobt und Stellung bezogen, andererseits werden andere Sichtweisen aufgezeigt. Insbesondere beim Erfassen von komplexen Zusammenhängen steigern kommunikative und diskursive Elemente den Lernerfolg (Kerres, 2000). Schulmeister (2006) stellt zur Rolle der Kommunikation fest: „Kommunikation ist Dialog, Dialog impliziert Rückmeldung, Lernen basiert auf Verstehen, Verstehen benötigt Rückmeldung. Ohne Rückmeldung ist demnach Lernen nicht möglich“.

Gute Kommunikation zu ermöglichen, ist eine der wesentlichen Anforderungen an erfolgreiche Lernszenarien, das gilt gleichermaßen für Präsenzsituationen wie auch Online-Arrangements. In diesem Kapitel betrachten wir die Besonderheiten computervermittelter Kommunikation sowie die Möglichkeiten und Formen der Unterstützung der Bildung von Online-Lerngemeinschaften durch E-Moderation.

!

Computervermittelte Kommunikation (engl. „Computer-mediated communication“) ist die Bezeichnung für unterschiedliche Anwendungsformen der elektronischen Übermittlung, der Speicherung und des Abrufs von Daten zum Zwecke der Kommunikation durch Menschen über miteinander vernetzte Computer (Pelz, 1995, 32).

Kommunikation und Moderation

Computervermittelte Kommunikation

Bewegte sich computervermittelte Kommunikation anfangs auf schriftlicher Basis (E-Mail, Chats, Newsgroups, Mailinglisten), ist durch die stetig zunehmend verfügbaren Bandbreiten nun auch die Übertragung von Ton und Bewegtbild (Podcasts, Videos, Life-Streams; siehe Kapitel #educast und Kapitel #videokonferenz) möglich und findet immer mehr Verbreitung. Mit entsprechender technischer Ausrüstung ist heute das Telefonieren im beziehungsweise über das Internet (Voice-Over-IP) oder die Verwendung von Software für Online-Videokonferenzen möglich.

Die zahlreichen Anwendungsformen computervermittelter Kommunikation im Internet umfassen diverse Tools und Medien, wie beispielsweise E-Mail, Diskussionsforen, Chats, Webkonferenzen, Blogs, Microblogs, Wikis und eine Vielzahl anderer webbasierter Kommunikationsmöglichkeiten, insbesondere auch jener der sozialen Netzwerke.

Zur Beschreibung und Differenzierung der vielfältigen computervermittelten Kommunikationsmöglichkeiten können mehrere Parameter herangezogen werden (Beck, 2006; Hartmann, 2004; Hesse & Schwan, 2005):

Computervermittelte Kommunikation hat eine Vielzahl an Konsequenzen und Besonderheiten. Auf zwei Aspekte möchten wir dabei im Folgenden genauer eingehen: die Symbole zur Darstellung von Gefühlen sowie die Kommunikation von Vielen.

Symbole und Codes für Gefühlsdarstellungen in Texten

Die Nutzung von computervermittelter Kommunikation bringt – nicht nur in Bildungskontexten – einige Besonderheiten mit sich. Rein textbasierte computervermittelte Kommunikation wird folgendermaßen charakterisiert (Döring, 2003, 187; Misoch, 2006, 63ff.): Sie erscheint aufgrund der wenigen angesprochenen Wahrnehmungskanäle im Vergleich zur Präsenzkommunikation als defizitär und unpersönlich. Aus der Perspektive sozialer Interaktion betrachtet, ermöglicht computervermittelte Kommunikation dadurch nur einen geringen Grad an sozialer Präsenz, weil soziale Hinweisreize wie Mimik, Gestik oder Intonation ausgefiltert werden. „Internet Relay Chat“, kurz IRC, war eine populäre netzwerkgestützte Form der schriftlichen Echtzeitkommunikation in den 1980er Jahren. Hier verbreiteten und entwickelten sich eine Vielzahl zeichenbasierter Gefühlsäußerungen, die sogenannten Emoticons und andere Zeichenkürzel, welche die eigenen Gefühle darstellen sollen. So wird beispielsweise Freude durch die Zeichenfolge :-) und Ironie durch ein Zwinkern ;-) dargestellt (siehe Abbildung 1). Diese Weitergabe von sozialen Hinweisreizen scheint unter computervermittelter Kommunikation nicht weniger wichtig als in der Präsenzkommunikation (Derks et al., 2008).

!

Der Mangel an sozialen Hinweisreizen über andere Wahrnehmungskanäle wird in textbasierter computervermittelter Kommunikation durch Verwendung von speziellen Zeichenkürzeln und Symbolen kompensiert.

Abb. 1: Emoticons und Abkürzungen
Abb. 1: Emoticons und Abkürzungen

Kommunikation von und mit Vielen

Ein weiterer besonderer Aspekt von computervermittelter Kommunikation ist die hohe Zahl potenziell beteiligter Personen, die durch bestimmte Formen der computervermittelten Kommunikation erreicht werden können beziehungsweise sich daran beteiligen können. Ein Beispiel dafür sind Mailinglisten, Diskussionsforen oder Chats. Seit wenigen Jahren insbesondere auch soziale Netzwerke, allen voran Facebook, Twitter und Google+.

So ist zunächst davon auszugehen, dass mit der Zahl der Beteiligten in Netzwerken die Möglichkeiten der Interaktion und damit auch verbunden die Motivation zur Interaktion zum Quadrat steigt (siehe Gesetz von Metcalfe sowie das Gesetz von Reed; Schaffert & Wieden-Bischof, 2009, 36ff.). ### In der Praxis zeigt sich jedoch häufig, dass das Interaktionsverhalten nicht (über-)proportional zu der Zahl von Mitgliedern zunimmt. Auch dauert es oft länger, bis überhaupt wahrnehmbare Kommunikation beginnt. Dieses bekannte Phänomen, dass nur ein Teil der potentiell interessierten Personen aktiv an Online-Interaktionen teilnimmt, greift die Theorie der kritischen Masse auf (Morris & Ogan, 1996): Erst ab einer bestimmten Zahl von Personen, die sich zum Beispiel für eine Mailingliste oder eine Gruppe bei Facebook anmelden, beginnt die Interaktion. Diese Zahl ist von vielen Faktoren abhängig, sodass sie schwer zu erfassen ist.

Gleichzeitig können solche Kommunikationsformen keinen optimalen Kommunikationsfluss mehr gewährleisten, wenn die Zahl der Teilnehmer/innen zu sehr ansteigt. Zwei Theorien bieten dafür Erklärungen (Beck, 2006, 26ff.): Die Social-Loafing-Theorie führt aus, dass Menschen für gemeinsame, kollektive Aufgaben weniger Aufwand betreiben als für individuelle Aufgaben (Karau & Wiliams, 2001). Dass eine wachsende Zahl von (potentiellen) Beitragenden nicht immer hilfreich ist, lässt sich auch mit Informationsüberflutung (engl. „information overload“) erklären: Menschen können demnach nur eine endliche Zahl von Informationen adäquat verarbeiten. Asynchrone Medien wie Diskussionsforen sind dabei prinzipiell hilfreich, weil Informationseinheiten zeitlich gestaffelt wahrgenommen werden können. Allerdings stoßen Nutzer/innen an Grenzen, wenn die einzelnen Diskussionsstränge nicht mehr zu überblicken sind, also eine Informationsüberflutung stattfindet. Auch große Mailinglisten ziehen zwar kurzfristig viele Nutzer/innen an, verlieren aber auch viele wieder (Butler, 2001).

Dass bei großen Nutzer/innen-Zahlen auch viele einfach nur lesen und passiv sind, überrascht nicht. Das Phänomen wird als Lurking bezeichnet (auf Deutsch: „herumschleichen“, „verheimlichen“, „sich versteckt halten“). Lurking ist Gegenstand groß angelegter Untersuchungen (Nonnecke & Preece, 2001; Ebner & Holzinger, 2005). Als „Lurker“ bezeichnet man all jene, die in Foren zwar Beiträge lesen, aber sich selbst nicht aktiv beteiligen. Sie bleiben also im Hintergrund und werden üblicherweise von der Online-Gemeinschaft nicht als aktive Teilnehmer/innen wahrgenommen. Lurking-Verhalten ist oft notwendig, um nicht in Informationsüberflutung zu ersticken (Takahashi et al., 2003). Es wäre beispielsweise regelrecht unproduktiv und störend, wenn jede und jeder einfach in Foren Nachrichten hinterlässt, ohne bestehende Beiträge zu lesen und zu berücksichtigen (Preece et al., 2003). Für unterschiedliche Systeme und Anwendungsbeispiele gibt es Zahlen, wie groß der Anteil aktiv Beitragender ist, bei Wiki-Systemen liegt dieser Anteil oft im Prozent- bzw. Promillebereich.

!

Eine Lurking-Phase ist für das Erfassen von computervermittelter Kommunikation ein notwendiger Beginn, um später gegebenenfalls aktiv und zielgerichtet in den Kommunikationsprozess einzusteigen.

Samanthanet

Samanthanet wurde 2010 als Online-Lern-Community mit dem Ziel gegründet, besonders Frauen Weiterbildungsmöglichkeiten zu bieten, die aufgrund hoher zeitlicher Belastung oder wegen Familienzeiten nicht oder nur unter erschwerten Bedingungen in der Lage sind, an Präsenzveranstaltungen teilzunehmen. Diese ursprünglich sehr offen geplante Form der Weiterbildung wurde von der Zielgruppe nicht in dem erwarteten Umfang angenommen. Ein wichtiger Grund dafür liegt wahrscheinlich in der mangelnden Vertrautheit mit dieser innovativen Lehr- und Lernmöglichkeit. Sehr gut hingegen hat sich das Angebot von geschlossenen, zeitlich begrenzten und mit Präsenzanteilen versehenen Seminaren entwickelt. Die Integration der Lernplattform Moodle und die Erweiterung des Lernangebots durch Webinare mit Adobe Connect (1- bis 2-stündige synchrone Online-Vorträge und Workshops) haben entscheidende Impulse gesetzt. Es wurde mit verschiedenen Mischformen der einzelnen Lernmedien und -angebote experimentiert. Dabei haben sich folgende Trends herausgestellt:

  1. Gerne angenommen und gut bewertet werden reine Online-Seminare (4-6 Wochen) auf Moodle, die nach dem E-Moderations-Modell nach Gilly Salmon (Salmon, 2002) entwickelt werden. Entscheidend sind dabei die sehr strenge Einhaltung der Kommunikationsregeln und ein wertschätzender Umgang miteinander. Der Einbezug von synchronen Lernangeboten via Adobe Connect in solche Seminare stört allerdings den Gruppenprozess und hat daher seinen Platz erst am Ende des Kurses.
  2. Sehr gut bewährt haben sich Blended-Learning-Seminare mit einer den Präsenztagen vorgeschalteten, moderierten Lernphase in Diskussionsforen. Das sich Kennenlernen und miteinander vertraut werden und der individuelle Einstieg in das Lernthema über verschiedene Möglichkeiten (Dokumente, Videos, Links) werden als große Unterstützung geschätzt.
  3. Webinarreihen zu verschiedenen Themenangeboten werden gerne besucht. Hier spielt insbesondere gute Dramaturgie und Interaktivität (Chat, Umfragen, Arbeitsgruppen, Plenumsdiskussionen) eine wichtige Rolle.
  4. Hybride Mischformen eignen sich besonders gut für berufsbegleitende Lernangebote. Sehr gute Erfahrungen wurden mit folgendem Format gemacht: 10–14 Tage moderiertes asynchrones Lernen in Foren, zwei Tage Präsenz, anschließend vier synchrone Termine in Adobe Connect.

Samanthanet bildet auch Trainer/innen aus, die über den deutschsprachigen Raum hinaus Kurse zur Plattform anbieten werden. Durch Kooperationen mit anderen Bildungsinstitutionen wird das Angebot thematisch weiter und attraktiver.
Durch Inhouse-Schulungen für Unternehmen hat sich ein weiterer wichtiger Bereich für Samanthanet.de eröffnet.

Abb. 2: Startseite von Samanthanet.de
Abb. 2: Startseite von Samanthanet.de
Kommunikation und Moderation

Lerngemeinschaften im Web

Gruppenbasiertes Lernen wird im Unterricht seit vielen Jahren eingesetzt. Mit steigender Internetnutzung und voranschreitenden technischen Möglichkeiten gewinnt die Zusammenarbeit in Online-Lerngemeinschaften in den letzten Jahren an Bedeutung. Online-Lerngemeinschaften basieren auf der Idee vom gemeinschaftsorientierten Lernen in einem „virtuellen Raum“. Kommunikation ermöglicht dabei die Entstehung persönlicher Beziehungen und von Online-Lerngemeinschaften. Insbesondere in örtlich verteilten Lernsituationen ist die Bildung von Lerngemeinschaften oft ein ausgewiesenes Ziel der computergestützten Lehre.

!

Eine Online-Lerngemeinschaft ist eine Gruppe von Personen, die sich formal organisiert oder informell zu einem Themen- bzw. einem Lerngegenstand austauscht, sich dabei gegenseitig kennt und gemeinsame internetbasierte Kommunikationskanäle nutzt (Schaffert & Wieden-Bischof, 2009).

Wesentlich erscheint der Hinweis, dass durch intensive Kommunikation in diesen Lerngemeinschaften trotz räumlicher Distanz eine persönliche Beziehung zwischen Lehrenden und Lernenden ebenso entstehen kann wie zwischen Lernenden untereinander (Kerres & Jechle, 2000).
Online-Lerngemeinschaften unterscheiden sich von traditionellen gruppenbasierten Lernformen in folgender Weise:

Die soziale Einbindung und das gemeinsame Lernen sind entscheidend für Lernerfolge (Pfister & Wessner, 1999). Frühere Ansätze des Lernens mit dem Computer haben die Einbindung von anderen Lernenden aber zunächst nicht berücksichtigt. Computerbasierte Lerngemeinschaften sind trotzdem kein ganz neues Konzept (Schaffert & Wieden-Bischof, 2009). Im Fachgebiet „Computerunterstütztes kooperatives Lernen“ (Computer Supported Collaborative Learning; CSCL) wird so seit Anfang der 1990er Jahre zum gemeinsamen, kooperativen Lernen geforscht.

Beispielsweise wurde in einer Studie von Campione, Brown und Jay (1992) die Gruppe der Lernenden im Klassenzimmer mit Hilfe des Computers und des World Wide Web erweitert und damit andere Klassen aus anderen Ländern miteinbezogen: So korrespondierten Schüler/innen aus drei verschiedenen Städten via Quickmail, einem Mail-System, das noch vor der Einführung des World Wide Web entwickelt wurde, und konnten so erfolgreich gemeinsame Projektarbeiten erstellen. Die Forschung zur Entstehung von Online-Lerngemeinschaften zeigt, dass diese tatsächlich oft ohne Zutun von Bildungseinrichtungen oder Lehrenden entstehen. Ein Beispiel dafür sind „Communities of Practice“ (Lave & Wenger, 1991), die aus interessierten Personen, Expertinnen und Experten bestehen, die zu einem bestimmten Themenfeld Erfahrungen und Wissen austauschen.

Bezeichnend für Online-Lerngemeinschaften ist, dass sie in der Regel nur „auf Zeit“ gegründet werden. Gerade bei für Bildungszwecke initiierten Online-Lerngemeinschaften steht für die stattfindenden Lern- und Kommunikationsprozesse meist ein vorab klar definierter Zeitrahmen zu Verfügung. Als Erfolgsfaktoren für Lerngemeinschaften werden dabei der von allen Teilnehmenden erkannte Zweck, das Vorhandensein einer Netiquette und die Gestaltung der Partizipation genannt (Johnson et al., 2009, 1172).

Abb. 3: Kommunikationsarten in Lehr- und Lernumgebungen aus Perspektive Lehrender
Abb. 3: Kommunikationsarten in Lehr- und Lernumgebungen aus Perspektive Lehrender
Kommunikation und Moderation

Kommunikationsformen beim Online-Lernen und Moderation von Online-Lerngemeinschaften

Kommunikationsformen

Abbildung 3 zeigt eine reduzierte Darstellung der eingangs geschilderten Kommunikationsformen, die heute typischerweise innerhalb einer konkreten Lehr- und Lernumgebung zum Einsatz kommen.

Herangezogen werden dafür die drei Parameter Zeitdimension, Betreuung und Verhältnis der Beteiligten: Zunächst unterscheidet man zwischen synchroner (zeitgleicher) und asynchroner (zeitversetzter) Kommunikation. Aus Sicht der Lehrenden gibt es Situationen, in denen sie betreuend tätig sind oder die ein Angebot an Lernende darstellen, ohne dass dabei eine zusätzliche Betreuung erfolgt. Dann wird die Art der Kommunikation im Hinblick auf die Zahl der Beteiligten und wer mit wem kommuniziert dargestellt. So können Einzelgespräche (1:1) stattfinden, sich einzelne Lehrende mit mehreren Lernenden austauschen (1:n) oder auch eine Vielzahl von Beteiligten auf einer Plattform in Austausch treten (n:n). Beispielsweise findet in Newsgroups in der Regel keine Betreuung durch Lehrende statt, während Diskussionsforen, sofern sie in der Lehre eingesetzt werden, meist durch eine oder mehrere Lehrpersonen betreut werden. Je nach didaktischer Zielsetzung ist der Einsatz verschiedener Kommunikationsarten und Medien in einem entsprechenden Lernszenario sinnvoll.

!

Computervermittelte Kommunikation und Prozesse des Lernens können nach verschiedenen Parametern beschrieben werden. Die gebräuchlichsten sind: Zeitdimension, Empfängerzahl, Symbolsystem, Informationsfluss, Öffentlichkeitsgrad und Betreuung.

E-Moderation

Die ohnehin hohe Komplexität des gruppenbasierten Lernens wird durch die Besonderheiten der computervermittelten Kommunikation oft noch zusätzlich verstärkt. Zur Strukturierung des gemeinsamen Lernprozesses bietet sich daher der Einsatz von E-Moderatorinnen und E-Moderatoren an.

Diese erfüllen eine Reihe von Aufgaben, die sich den idealtypischen Betreuungsbereichen Inhalt, Organisation, Technik und Lernklima zuordnen lassen, je nach Lernszenario aber natürlich kontextspezifisch auszufüllen sind. Insbesondere das Lernklima, also die psychosoziale Betreuung und Motivation der Lernenden, ist für den Erfolg gruppenbasierter Lernszenarien wichtig.

?

Lesen Sie das Beispiel von Samantha.net (siehe Box „### In der Praxis“). Wie würden Sie ein Angebot konzipieren, das den Aufbau und die Pflege von Lerngemeinschaften in Ihrem Studium optimal unterstützt? Welche Merkmale und Kommunikationsmöglichkeiten sollte ein solches Angebot haben?

Gruppendynamisches Ablaufmodell

Viele Moderationsmodelle, so auch Vorschläge für E-Moderations-Abläufe, beziehen sich bewusst auf gruppendynamische Ablaufmodelle (vor allem auf Tuckmans Stufenmodell zur Gruppendynamik, 1965): In der Formierungsphase (engl. „forming“) lernen sich die Gruppenmitglieder kennen, die Konfliktphase (engl. „storming“) ist durch unterschwellige Konflikte aufgrund der Selbstdarstellung der (neuen) Teammitglieder und Cliquenbildungen geprägt. In der folgenden Phase werden Regeln und Normen geklärt (engl. „norming“), so dass schließlich produktives Agieren (engl. „performing“) möglich wird und die Zusammenarbeit und das zielgerichtete Handeln der Gemeinschaft im Vordergrund steht. Schließlich löst sich eine Gemeinschaft wieder auf (engl. „ad journing“). E-Moderation soll diese Gruppenprozesse nun bewusst unterstützen und optimieren.

!

E-Moderation ist die ziel- bzw. curriculumsorientierte Steuerung und Leitung der Kommunikation und des Austauschs von Lern- und Arbeitsgruppen.

Moderationsabläufe und -modelle

Levin und Cervantes (2002) beschreiben den Lebenszyklus von Online-Lerngemeinschaften folgendermaßen (S. 207f.):

Das wohl am weitesten verbreitete Modell für reine Online-Veranstaltungen ist das von Salmon (2002). Sie empfiehlt ein sehr strukturiertes Vorgehen beim Online-Lehren und -Lernen. Während jedes Abschnittes gibt es bestimmte Tätigkeiten seitens der E-Moderatorinnen und E-Moderatoren, wobei die Interaktivität zwischen den Lernenden mit jeder Phase stark zunimmt. Die fünf Stufen sind:

In der Praxis: Soziale Netzwerke

In den letzten Jahren hat sich die Kommunikation im Internet merklich von Diskussionsforen oder Chats hin zu sozialen Netzwerken verlagert. Insbesondere Facebook hat sich zu einem weltweiten Kommunikationszentrum entwickelt, aber auch Twitter oder Google+ sind sehr beliebt. Diese Plattformen zeichnen sich vor allem dadurch aus, dass man neben einem Identitäts- und Netzwerkmanagement, einem Informationsmanagement, auch die Interaktion und Kommunikation zwischen Benutzerinnen und Benutzern der Plattform stark unterstützt (Koch & Richter, 2008). Soziale Netzwerke, wie Facebook, erlauben es, mit anderen, sogenannten Freunden bzw. Freundinnen, direkt in Kommunikation zu treten, indem man mit ihnen Inhalte teilt oder andere deren Inhalte positiv bewerten („like“) beziehungsweise kommentieren. Durch die Möglichkeit, offene und geschlossene Gruppen zu bilden, ist auch die Bildung von Online-Communities zu spezifischen Themen- oder auch Lehr- und Lernbereichen einfach möglich (Ebner & Lorenz, 2012).

Microblogs, wie Twitter, sind vom Aufbau etwas anders. So kann ein Beitrag nicht direkt kommentiert, sondern beantwortet werden und erscheint dann im allgemeinen Informationsstream (siehe #blogging). Dieses Kommunikationsmittel wird durch seine öffentliche Zugänglichkeit und Einfachheit heute sehr gerne bei Online-Veranstaltungen als begleitendes Kommunikationsmittel eingesetzt. Als aktuelles Beispiel seien hier cMOOCs angeführt (siehe #systeme).
Kommunikation und Moderation

Fazit

Zwar können die Online-Kommunikation zum Lernen und das Lernen in Online-Gemeinschaften wie von selbst laufen, denn man möchte sich austauschen, engagiert zeigen und auch anerkannt werden. Jedoch können durch die soziale Interaktion und Exposition auch Ängste, Konkurrenzsituationen und Frustrationen auftreten, gerade wenn gemeinsame Arbeiten und Ergebnisse vorgelegt werden müssen. Diese Probleme müssen frühzeitig erkannt und angemessen behandelt werden, um ein „Einschlafen“ der Kommunikation und damit ein Scheitern des Lernprozesses zu verhindern. Im Unterschied zum Präsenz-Setting unterscheiden sich Online-Lerngemeinschaften auf der einen Seite in der wahrgenommenen Verbindlichkeit und auf der anderen in der besseren Transparenz der Beiträge und Aktivitäten der Beteiligten.

?

Entwerfen Sie einen Ablaufplan für eine gelungene E-Moderation einer Lerngruppe zu einer Lehrveranstaltung Ihrer Wahl. Bitte beziehen Sie sich zunächst auf ein Kommunikationsmedium, das Sie kennen. Welche Fragen stellen Sie, wie gewährleisten Sie, dass alle zur Sprache kommen, wie gehen Sie vor? Präsentieren Sie und vergleichen Sie Ihren Entwurf.

Seitenumbruch

Kommunikation und Moderation

Literatur

Forschungszugänge und -methoden

im interdisziplinären Feld des technologiegestützten Lernens

Dieser Beitrag bietet eine erste Orientierung, wie im Bereich des technologiegestützten Lernens (auch) geforscht werden kann, denn häufig sind nur die etablierten Forschungsmethoden und -vorgehensweisen der eigenen Disziplin bekannt. Dazu werden zunächst drei unterschiedliche Forschungszugänge im interdisziplinären Feld vorgestellt: hypothesen- und theorieprüfende, hypothesen- und theoriegenerierende sowie gestaltungsorientierte Verfahren. Im Anschluss werden einige Forschungsmethoden dem Forschungsprozess – Datenerhebung, Datenanalyse, Entwicklung – zugeordnet und skizziert und abschließend Hinweise zur Wahl einer Forschungsmethode gegeben sowie typische Herausforderungen im Feld genannt.

Forschungszugänge und -methoden

Einleitung

Technologiegestütztes Lehren und Lernen umfasst „alle Lern- und Lehrprozesse sowie -handlungen, bei denen technische, vor allem elektronische (zumeist auch digitale) Geräte und Anwendungen verwendet werden.“ (Ebner, Schön, Nagler, 2011, 2). Aus Sicht der empirischen Pädagogik kann man argumentieren, dass das technologiegestützte Lernen demnach nur eine Sonderform des Lernens ist, so dass ihre Forschungsmethoden anwendbar sind. Dem sind zwei Dinge zu entgegnen: Erstens haben sich durch Technologien Formen des Lernens entwickelt, die mit den tradierten Lern- und Lehrsituationen unter Umständen wenig gemein haben: Sie können zeitversetzt und räumlich verteilt sein oder auch die Realität anreichern (Stichwort „Augmented Reality“). Wichtiger ist, dass der Technologieeinsatz auch völlig neue, innovative Verfahren ermöglicht wie das gemeinsame, kollaborative und gleichzeitige Schreiben – ohne Technologieeinsatz faktisch nicht möglich. Zweitens können mit der gleichen Argumentation und gutem Recht auch Vorgehensweisen der Informatik als maßgeblich und ausreichend betrachtet werden, ist doch hier das Lernen und Lehren auch nur eine Variante von Anwendungsfeldern.

Das technologiegestützte Lernen und Lernen ist ein hochgradig interdisziplinäres Feld, bei dem unterschiedliche Forschungszugänge und -methoden, in Abhängigkeit vom disziplinären Hintergrund der Beteiligten, vorzufinden sind. Diese sind zum Teil damit zu begründen, dass sich die beteiligten Disziplinen mit unterschiedlichen Fragstellungen beschäftigen (siehe Kapitel #grundlagen). In diesem Beitrag werden ausgehend von unterschiedlichen Wissenschaftsverständnissen im Feld drei unterschiedliche Forschungszugänge vorgestellt. Im Anschluss wird ein Überblick über unterschiedliche Vorgehensweisen bei der Datensammlung, der Auswertung sowie der Entwicklung gegeben.

Es finden sich nur wenige Vorarbeiten, die sich um eine methodologische Verortungen der E-Learning- Forschung bemühen (vgl. Friesen 2009; Reinmann, 2005; Reeves, 2006). Dennoch gibt es keinen allgemeinen Konsens zu den im Folgenden dargestellten Zugängen oder eine bereits klar umrissene Methodik. Wir haben uns bemüht, hier gleichermaßen disziplinäre Zugänge und tradierte Vorgehensweisen zu berücksichtigen, eine konsolidierte Meinung wird sich aber voraussichtlich erst in den nächsten Jahren entwickeln (können).

?

Bevor Sie weiterlesen: Notieren Sie sich nun Forschungsmethoden, die aus Ihrer Perspektive im Themenfeld des Lernens und Lehrens mit Technologien eingesetzt werden.

Forschungszugänge und -methoden

Unterschiedliches Verständnis von Forschung und Forschungsmethoden

Die Pädagogische Psychologie mit ihrem naturwissenschaftlichen Zugang, die Medienpädagogik mit ihrem geisteswissenschaftlichen Entstehungshintergrund sowie die angewandte Informatik mit ihrem technischen Verständnis haben unterschiedliche Forschungszugänge. Wie beim Forschen vorgegangen werden soll, ist nicht allein eine Frage der konkreten verwendeten Methode, also der Methodik (darunter werden die in einem Forschungsgebiet genutzten Methoden verstanden), sondern eine Konsequenz aus dem eigenen Verständnis des wissenschaftlichen Arbeitens und dem Verständnis von „Forschung“ in der Ausgangsdisziplin. Hier zeigen sich große Unterschiede zwischen den Disziplinen.

!

Das Wissen über Methoden („wie funktionieren sie“) wird auch Methodik genannt. Die Lehre von den Methoden, also welche Methoden unter welchen Umständen geeignet und begründbar sind, wird als Methodologie bezeichnet. Diese Unterscheidung der Begriffe „Methode“ und „Methodologie“ wird in der Regel im Englischen und Französischen nicht vorgenommen, dort werden die beiden Begriffe meist synonym und im Sinne von „Methoden“ verwendet, z.B. methods, methodologies.

Wer heute Psychologie oder Pädagogik studiert, belegt in aller Regel mehrere (Pflicht-) Veranstaltungen zu Forschungsmethoden. Während die Psychologie und pädagogische Psychologie im Regelfall eher an Forschungsmethoden orientieren sind, die sich an naturwissenschaftlichen Standards mit dem Primat experimenteller Laborstudien orientieren, wird in der Pädagogik auch in hermeneutische Methoden eingeführt, die aus den Geisteswissenschaften stammen. Veröffentlichungen zu Forschungsmethoden im Bereich des technologiegestützten Lernens hinterfragen so das Primat des Experiments als Königsklasse der Forschungsmethode (vgl. Friesen, 2009). Hinzu kommen von Expertinnen und Experten im Feld des technologiegestützten Lernens Forderungen, neben anerkannten Forschungsmethoden vermehrt auch Entwicklungsmethoden als Verfahren der Forschung anzuerkennen (Reinmann, 2005; Reeves, 2006; Amiel & Reeves, 2008).

In der Informatik wird diskutiert, ob sie sich als Grundlagenwissenschaft basierend auf der grundlagenorientierten Informationswissenschaft oder doch eher als Ingenieurwissenschaft orientiert an der ingenieurwissenschaftlichen Informationswissenschaft betrachten soll (Broy & Schmidt, 1999). In den letzten Jahrzehnten haben sich immer mehr Disziplinen entwickelt, die auf die Informatik zurückgreifen, ähnlich wie viele Ingenieurwissenschaften auf die Mathematik zurückgreifen (Kornwachs, 1997). Diese sind Bestandteil der „Angewandten Informatik“ oder es bildet sich ein sogenanntes “„Bindestrich”-Fach heraus, wie z.B. die Medizinische Informatik oder die Wirtschaftsinformatik als deren prominenteste Vertreterinnen (Frank, 2001). Demnach und auch unserer Erfahrung nach, wird gerade von Informatikerinnen und Informatikern, die im Feld des technologiegestützten Lernens aktiv sind, betont „ingenieurwissenschaftlich“ vorgegangen, Entwicklungsmethoden werden eingesetzt und entsprechende Überprüfungen in Form von Tests durchgeführt.

Hinweise dazu, was denn die (wichtigen) Forschungsmethoden in unserem Forschungsfeld sind, liefern uns neben solchen Einblicken in die Ausbildung und Diskussion der Disziplinen auch die wissenschaftlichen Veröffentlichungen im Forschungsfeld: Welche Forschungszugänge und -methoden werden denn häufig in Beiträgen wissenschaftlicher Zeitschriften und Beiträgen auf Fachkonferenzen im Feld des technologiegestützten Lernens angeführt? Hier zeigen Auswertungen der verwendeten Methoden von Veröffentlichungen im Feld, dass nur ein Teil der Forschungsarbeiten mit empirischen Zugängen oder gar (quasi-)experimentellen Settings arbeiten: Nach Abrami et al. (2006) trifft dies nur auf etwa die Hälfte der Beiträge zum Thema E-Learning in Kanada zu. Für wissenschaftliche Beiträge zur Informatikausbildung ist dieser Anteil noch geringer: Nur in etwa einem Fünftel der Beiträge der 20 Jahre bis 2004 wird „experimentell“ vorgegangen, wobei darunter jegliches Vorgehen verstanden wird, bei dem eine Intervention mit etwas wissenschaftlicher Analyse bewertet wird (vgl. Valentine, 2004, 256). In den darauf folgenden Jahren hat sich der Anteil solcher „experimenteller“ Beiträge verdoppelt (vgl. Randolph et al. 2008, 146).

?

Die Beiträge zahlreicher Konferenzen im Gebiet des technologiegestützten Lernens und auch Beiträge in Fachzeitschriften finden sich frei verfügbar im Internet (siehe Kapitel #literatur). Wählen Sie drei beliebige Beiträge und versuchen Sie zu klären, ob und welche Forschungsmethode die Autorinnen und Autoren einsetzen.

Forschungszugänge und -methoden

Drei unterschiedliche Forschungszugänge

Bei der Forschung zu technologiegestütztem Lernen gibt es derzeit aus unserer Sicht drei zu unterscheidende Zugänge: Vorerst (a) hypothesen- und theorienprüfende Vorgehensweisen, die existierende Erklärungen zu den Vorgängen des Lernens und Lehrens in möglichst experimentellen Settings überprüfen sowie (b) hypothesen- und theoriengenerierende Verfahren (vgl. Bortz & Döring, 2006). Ergänzt haben wir diese traditionelle Darstellung um (c) anwendungsorientierte und gestaltende Verfahren, die neuartige Systeme und Konzepte entwickeln und überprüfen.

Abb. 1: Drei Forschungszugänge im Feld des Lernens und Lehrens mit Technologie
Abb. 1: Drei Forschungszugänge im Feld des Lernens und Lehrens mit Technologie

Theorie- und hypothesenprüfende Ansätze

Das tradierte hypothesenprüfende Verfahren versucht, bestehende Theorien zum technologiegestützten Lehren und Lernen zu bestätigen, zu überprüfen und gegebenenfalls in der Folge auch zu überarbeiten beziehungsweise anzupassen, zu adaptieren. Theorien sind allgemein Erklärungen der Dinge um uns herum, Vorstellungen davon, wie die Welt um uns herum „funktioniert“. Eine wissenschaftliche Theorie ist „jede wissenschaftliche Wissenseinheit, in welcher Tatsachen und Modellvorstellungen bzw. Hypothesen zu einem Ganzen verarbeitet sind“ (Schischkoff, 1991, 721f.). In der Pädagogik, ähnliche Formulierungen finden sich für die pädagogische Psychologie, wird darunter ein System von Aussagen verstanden, „das dem Zweck dient, Einzelerkenntnisse so zu ordnen und gedanklich zu vervollständigen, dass über ein bestimmtes Gebiet der Wirklichkeit (z. B. der Schule, das Spiel) möglichst widerspruchsfrei Darstellungen und Erklärungen der Zustände oder Entwicklungen in diesem Gebiet möglich werden“ (Schaub & Zenke, 2004, 352). Minimalanforderungen an eine Theorie sind, dass sie die Vorschriften von Logik und Grammatik berücksichtigt und dass sie widerspruchsfrei, überprüfbar und empirisch bestätigt ist. Schließlich soll sie einen praktischen Nutzen haben und nicht unnötig kompliziert sein.

Eine Forschungsarbeit mit diesem Zugang wird zunächst die Auswahl einer bestimmten Theorie begründen, daraus Hypothesen ableiten, ein Forschungsdesign vorstellen und umsetzen, um dann schließlich, unter anderem mit inferenzstatistischen Verfahren, Ergebnisse vorzustellen.

!

In der Informatik wird der Begriff der „Theorie“ anders verstanden. In der sogenannten
„theoretischen Informatik“ werden die Grundlagen für die anwendungsorientierte Informatik betrachtet, also grundlegende Modelle und Vorgehensweisen, zum Beispiel formale Sprachen, Theorie der Datenbanken oder auch Logik. In der theoretischen Informatik wird beispielsweise mit Hilfe der Mathematik bewiesen, ob ein Problem in einem endlichen Zeitrahmen gelöst werden kann (vgl. Erk & Priese, 2001).

Explorative Verfahren zur Generierung von Hypothesen, Theorien oder Handlungsempfehlungen

Der zweite Forschungszugang zielt nicht auf vergleichsweise konkrete Problemlösungen ab, sondern versucht, Hypothesen, Theorien und Handlungsempfehlungen zu entwickeln. So gibt es in der geisteswissenschaftlich, also auch philosophisch orientierten Pädagogik den Zugang, durch Verstehen, Diskurs und Analyse der Praxis Erklärungen und Modelle zu finden. Mit Hilfe von Daten von Lerneraktivitäten und -verhalten versuchen andere, auch mit Hilfe der Anwendung von Algorithmen und statistischen Verfahren, neue Ideen über die Verhältnisse und Phänomene zu entwickeln und darauf aufbauend Hypothesen zu formulieren. Diese werden erst in weiteren Untersuchungen näher untersucht. Viele Erhebungen zu Daten von Nutzerinnen und Nutzern oder Umfragen zur Mediennutzung sind so Beobachtungstudien, die mit der Absicht (regelmäßig) durchgeführt werden, zum Beispiel auf Änderungen reagieren zu können oder daraus Hypothesen abzuleiten.

Typischerweise kommen solche „explorativen“ oder „explorierenden“, also erkundende, Verfahren zum Einsatz, wenn es um eine Forschungsfrage geht, oder wenn es Quellenmaterialien gibt, zu denen es wenige existierende theoretische Annahmen gibt. Hier wird typischerweise eher „breit“ versucht Daten zu erheben, beispielsweise beim Fallstudienvergleich durch eine Sammlung möglichst vieler und unterschiedlicher Quellenmaterialien. Die Auswertung der Daten führt hier zu Annahmen (Hypothesen) und Heuristiken.

Anwendungsorientierte Gestaltung und Evaluation

Die Erziehungswissenschaft sowie die angewandte Informatik sind stark anwendungsorientierte Wissenschaften, die sich häufig mit konkreten praktischen Herausforderungen des technologiegestützten Lehren und Lernens beschäftigen. Im Bereich der angewandten Informatik überwiegt der ingenieurwissenschaftliche Zugang, also viele Verfahren, die systematisch die Entwicklung und Überprüfung von konkreten Systemen und Anwendungen unterstützen. Im Bereich der Erziehungswissenschaft gibt es immer wieder Vorschläge und Ermunterung, den Forschungszugang der anwendungsorientierten Gestaltung und Evaluation als gleichwertig neben dem bereits vorgestellten tradierten hypothesenprüfenden Verfahren anzuerkennen. Reinmann (2005) plädiert hier so für einen Forschungsansatz, der auf der Designentwicklung basiert, um so auch Innovationen mitzugestalten (engl. „design based research“, vgl. auch Kapitel #designforschung; Reeves, 2006).

Dabei wird zum einen auf didaktischen Annahmen aufgebaut und zum anderen werden Verfahren der Designentwicklung integriert. Aus Perspektive der angewandten Informatik ist eine ingenieurwissenschaftliche Vorgehensweise, die eine Lösung von neuartigen und nicht trivial zu lösenden Problemen untersucht, beschreibt, systemisch konzipiert und im Kontext umsetzt, in aller Regel als wissenschaftlich akzeptiert zu betrachten. Es gibt in der angewandten Informatik, aber auch in den Erziehungswissenschaften, zahlreiche Verfahren, die bei der Entwicklung von Lösungen für (neuartige) Herausforderungen im Bereich des technologiegestützten Lernens eingesetzt werden können, beispielsweise aus dem Bereich der nutzer-/nutzerinnen-zentrierten Softwareentwicklung oder in Verfahren des didaktischen Designs.

Ein typischer Beitrag mit diesem Zugang dokumentiert diese Entwicklungen ausgehend von der Beschreibung praktischer Herausforderungen. Neben der Recherche, Gegenüberstellung und Beschreibung möglicher und existierender Lösungen erfolgt eine begründete Auswahl für eine Entwicklungsmethode für eine neue/eigene Lösung. Das Ergebnis, also ein neues didaktisches oder technisches Konzept und gegebenenfalls die Anwendung, wird zudem formativ, also bereits während der Entwicklung, überprüft („formative Evaluation“) und/oder abschließend bewertet („summative Evaluation“, vgl. Kapitel #qualitaet). Alltägliches professionelles Handeln, das ähnliche Prozesse durchläuft, scheint sich hier von Forschungsaktivitäten insofern zu unterscheiden, als dass es sich um neuartige Herausforderungen handelt, die keiner Standardsituationen entsprechen und einer ausführlicheren Recherche und auch Dokumentation bedürfen. Das Kernaufgabengebiet dieses Forschungszugangs ist also die Anwendung bestehender Lösungen in neuen Kontexten bzw. neuen Situationen bzw. die Erstellung neuer Konzepte und Systemarchitekturen.

!

Dieser dritte Zugang ist je nach disziplinären Kontext „Standard“ oder eben ein „heißes Eisen“: Viele werden bestreiten, dass es sich hier um Methoden handelt, die auch zur Forschung eingesetzt werden können. Bei Forschungsarbeiten sind hier entsprechende Abklärungen im eigenen Interesse unabdingbar, solange es keine breite Akzeptanz und auch Qualitätskriterien für eine solche gestaltende Forschung gibt.

Abb. 2: Manche Forschungszugänge und -methoden im Feld sind umstritten.
Abb. 2: Manche Forschungszugänge und -methoden im Feld sind umstritten.
Forschungszugänge und -methoden

Qualitative, quantitative und Methodenmix-Verfahren

Nun wurden bereits unterschiedliche Forschungszugänge beschrieben und auch schon Forschungsmethoden genannt. Bevor wir exemplarisch Forschungsmethoden vorstellen, möchten wir auf eine vorherrschende Kategorisierung von Forschungsmethoden hinweisen, die auf der Unterscheidung von qualitativen und quantitativen Daten basiert.

Quantitative Verfahren sind zählende und messende Vorgehensweisen und darauf basierende Auswertungen, beispielsweise mit Hilfe statistischer Verfahren. Mit Hilfe von quantitativen Verfahren kann so etwa überprüft werden, ob die Note im Fach Englisch mit dem Besitz eines Smartphones bei Schüler/innen statistisch zusammenhängt.

Qualitative Verfahren beschäftigen sich demgegenüber mit der Qualität von Informationen: Hierzu werden beispielsweise Texte im Hinblick auf typische Argumentationsmuster analysiert oder es wird zum Beispiel versucht, mit Hilfe von Interviews mit Schüler/innen Informationen zu sammeln, die bei der Erklärung der Zusammenhänge der Englischnote mit dem Smartphone-Besitz weiterhelfen können. So könnte sich in einem offenen Gespräch ergeben, dass Kinder mit Smartphone häufiger mit ihren Eltern ins Ausland fahren und dort Englisch sprechen müssen. Forscher/innen, die einen qualitativen Zugang wählen, verstehen sich dabei bewusst nicht als ein auf „Unabhängigkeit bedachter Beobachter“, sondern als „faktischer oder virtueller Teilnehmer, Aufklärer, Advokat“ (Lamnek, 1995, 259). Es überrascht also nicht, dass sich die beiden Zugänge auch darin unterscheiden, dass bei qualitativen Verfahren häufig nur eine kleine Zahl von Untersuchungspersonen involviert ist.

!

Merksatz: Bei Quantitäten geht es um messbare Größen und um deren Messen, bei Qualität um „Content“ (engl. im Sinne von Inhalt und Gehalt).

Qualitative und quantitative Forschungsmethoden basieren auf unterschiedlichen methodologischen Überlegungen. Ein Methodenmix, also die ergänzende Verwendung von quantitativen und qualitativen Verfahren, um eine Fragestellung besser beantworten zu können, ist daher nicht unproblematisch (Lamnek, 1995, 251ff.). Für Verfahren, die sich einer solchen „Triangulation“ bedienen, sprechen jedoch einige Argumente, und ihre Verzahnung erscheint auch methodologisch durchaus möglich (Kelle, 2008). So gibt es Verfahren, bei denen beispielsweise gezählt wird, wie häufig eine bestimmte Argumentation oder Aussage in Texten getätigt wird (vgl. Mayring, 2000). Triangulation wird dabei als Ideal von Forschung betrachtet: „wie die Schenkel eines Triangels zusammengeschweißt sind, so sind qualitative und quantitative Analyseschritte miteinander zu verbinden, sie sind aufeinander angewiesen, um einen reinen Klang hervorbringen zu können“ (Mayring, 1999, 122).

Forschungszugänge und -methoden

Ausgewählte Forschungsmethoden im Forschungsprozess

Abweichend von der häufig gewählten oben genannten Unterscheidung von quantitativen und qualitativen Vorgehensweisen werden wir im Folgenden auf unterschiedliche Forschungsmethoden hinweisen, die wir im Hinblick auf ihre Verortung im Forschungsprozess darstellen.

Verfahren der Datenerhebung

Es gibt zahlreiche Verfahren, beim technologiegestützten Lehren und Lernen Daten zu erheben. Zunächst ist hier die Beobachtung zu nennen. Forscher/innen beobachten dabei unter kontrollierten Bedingungen das Verhalten von Lerner/innen, auch mit Unterstützung von Video und anderen technischen Hilfsmitteln, oder erfassen automatisiert Daten (z.B. durch Tracking). Eine weitere Datenerhebungsform sind Befragungen, die (fern-)mündlich oder schriftlich erfolgen können (z.B. mit einem Web-Fragebogen). Dabei können Einzelpersonen oder auch Gruppen adressiert werden (z.B. in Fokusgruppen-Interviews). Eine wichtige Unterscheidung ist dabei die Form der Beantwortung oder Beobachtung: Werden offene Fragen gestellt beziehungsweise Beobachtungskategorien oder Antwortoptionen („standardisiertes Verfahren“) vorgeben? Eine Sonderform einer Befragung kann ein Test sein (z.B. als Persönlichkeitstest). Tests werden jedoch auch in der angewandten Informatik durchgeführt, wenn bestimmte Technologien nach vorher definierten Kriterien geprüft werden sollen (z.B. Performancetest).

Häufig wird versucht, mit Forschung einen bestimmten Zustand zu beschreiben, wobei in aller Regel versucht wird, nicht in das System einzugreifen. Besonders spannend wird es immer dann, wenn versucht wird, Unterschiede oder Zusammenhänge festzustellen, beispielsweise ob unterschiedliche Gruppen oder Technologien unterschiedliche Ergebnisse liefern, ob Verhalten oder Leistungen durch unterschiedliche Interventionen beeinflusst werden oder wenn Zusammenhänge zwischen Merkmalen untersucht werden sollen. Hierzu müssen in aller Regel Daten zu mehreren Variablen erhoben werden, häufig auch zu mehreren Zeitpunkten oder in verschiedenen Gruppen und mit verschiedenen Bedingungen. Als „Königsweg“ eines naturwissenschaftlich orientierten Zugangs ist dabei das Experiment zu bezeichnen. Darunter wird ein Versuch verstanden, bei dem eine Größe, die „unabhängige Variable“, systematisch verändert und so überprüft wird, wie sie das Ergebnis, die sogenannte „abhängige Variable“, beeinflusst. Die Herausforderung dabei ist, alle anderen Variablen „unter Kontrolle zu haben“. Sollen Experimente zum Lernen und Lehren durchgeführt werden, sind häufig Abstriche bei den idealen Experimentbedingungen zu machen. Häufig können sie nicht unter Laborbedingungen, unter denen alle Variablen „unter Kontrolle sind“, durchgeführt werden, sondern nur im „Feld“, das heißt zum Beispiel in einem Klassenzimmer.

Auch ist es oft (aus ethischen Gründen) nicht möglich, Teilnehmer/innen an Experimenten „zufällig“ auszuwählen oder Gruppen zuzuteilen, es handelt sich dann um „Quasiexperimente“. Die Voraussetzungen eines experimentellen Designs sind beim Lernen und Lehren mit Technologien nur selten zu realisieren. In der Forschungspraxis ist es oft schwierig, Vergleichsgruppen zu bilden. So sind die Unterschiede in zwei Schulklassen (Lehrer/innen, Schüler/innen, Verteilungen) oft schon zu groß, um Wirkungen zweier unterschiedlicher Interventionen beurteilen zu können. Die Feldstudie ist zwar im Forschungsbereich eine unerlässliche Vorgehensweise, da die Ergebnisse oft vom Laborversuch deutlich abweichen, aber umgekehrt auch viel schwieriger zu systematisieren. Sofern es nur um reine Technologien geht, beispielsweise um Performancetests unter bestimmten Bedingungen, gibt es diese Schwierigkeiten nicht.

Verfahren der Auswertung

Bevor Daten ausgewertet werden, müssen die erhobenen Daten in aller Regel erst aufbereitet werden. Dann liegen sie in unterschiedlichen Formaten vor, beispielsweise als Texte, Tabellen oder auch als Foto- oder Videomaterial. Es gibt unterschiedliche Auswertungsmöglichkeiten, die jedoch auch von den spezifischen Materialien abhängen.

So gibt es für Daten, die in Form von Zahlen vorliegen, zunächst einmal die Möglichkeit der quantitativen Auswertungsmöglichkeiten. Deskriptive statistische Verfahren geben dabei einen Überblick über Verteilungen, beispielsweise Durchschnittswerte oder Rangreihen. Die Berechnung des Korrelationskoeffizienten ermöglicht so die Überprüfung, ob zwei Datensätze statistisch zusammenhängen. Die Clusteranalyse ist ein algorithmisches Verfahren, das auf „Häufelungen“ von Daten mit ähnlichen Merkmalsausprägungen hinweisen kann. Die Soziale-Netzwerk-Analyse wertet beispielsweise Vernetzungsstrukturen im Hinblick auf entscheidende Knoten im Netzwerk der Beziehungen oder Kommunikationsflüsse aus. Bei Vergleichen von Datensätzen, beispielsweise Gruppenvergleiche oder Prä- und Postdaten, kommen sogenannte inferenzstatistische Verfahren zum Einsatz. Diese erlauben Aussagen darüber, ob Unterschiede in den Gruppen durch den Zufall erklärt werden können oder statistisch bedeutsam sind. Bei sogenannten „Zusammenhangstudien“ wird versucht zu klären, inwieweit zwei Faktoren voneinander abhängen. Hier kann beispielweise das statistische Zusammenhangsmaß des Korrelationskoeffizienten berechnet werden. Solche Verfahren werden auch bei explorativen Auswertungen eingesetzt, um beispielsweise auf besondere Zusammenhänge aufmerksam zu werden (vgl. Kapitel #analytics).

Bei qualitativ orientierten Verfahren werden Daten im Hinblick auf inhaltliche Aspekte ausgewertet, beispielsweise werden Text- und Inhaltsanalysen im Hinblick auf bestimmte Motive, Argumentationsstrukturen, Muster (engl. Pattern) oder Aussagen hin angefertigt. Manchmal werden diese Kriterien auch erst während der Auswertung entwickelt. So beschreibt das Verfahren der „Grounded Theory“ (Glaser & Strauss, 1967) die Entwicklung und Entstehung von Theorien auf Grundlage der Auswertung von qualitativen Daten (in der Regel Texten). Gruppen können dabei verglichen werden, indem Besonderheiten identifiziert werden. Fallstudienanalysen versuchen beispielsweise häufig, Erfolg- und oder Misserfolgskriterien von Unternehmungen zu identifizieren.

Verfahren der Entwicklung

Schließlich werden auch in der systematischen Entwicklung von neuartigen Konzepten und Systemen zahlreiche unterschiedliche Methoden eingesetzt, die mehr oder weniger genau vorschreiben, wie diese Entwicklung stattfinden soll, um die angestrebten positiven Ergebnisse zu erhalten, um besonders ökonomisch voran zu kommen oder auch, um besonders innovative Verfahren zu erhalten.

In der angewandten Informatik sind hier Prinzipien wie die iterative Softwareentwicklung, Prototyping, Analysen von Einsatzpotentialen oder auch nutzer-/nutzerinnen-zentrierten- Anwendungsentwicklungen zu nennen, wobei Letztere beispielsweise mit Hilfe der Persona-Methode gut zu den unterschiedlichen Anforderungen und Nutzergruppen passen. Auch gibt es zahlreiche Vorschläge, wie man zu gelungenen Lernumgebungen und -materialien gelangt, zum Beispiel das ADDIE- oder das ARCS-Modell oder indem man Architekturen solcher Informationssysteme entwirft. Auch gibt es Innovationsentwicklungsverfahren wie Lead-User-Workshops, die hier Anleitungen geben können. Spezielle Methoden in der Usability-Forschung (zum Beispiel Thinking Aloud oder Heuristische Evaluation) helfen, speziell die Mensch-Maschine-Interaktion besser zu verstehen (siehe Kapitel #usability). Schließlich ermöglichen unterschiedliche Evaluationsmethoden, die Entwicklung zu optimieren oder abschließend auf Stärken und Schwächen hinzuweisen.

?

Nehmen Sie die von Ihnen eingangs angefertigte Sammlung von Forschungsmethoden zur Hand. Welchem der drei skizzierten Forschungszugänge lassen sie sich zuordnen? Welche der hier genannten Forschungszugänge und Forschungsmethoden haben Sie nicht berücksichtigt?

Forschungszugänge und -methoden

Zur Wahl geeigneter Forschungsmethode

Ausgehend von einer Fragestellung ergibt sich ein Forschungsgebiet. Nach einer Literaturrecherche und Auswertung des Forschungsstandes sollte deutlich sein, welche Fragen geklärt sind, wo es offene Fragen gibt, welche Theorien genutzt werden und welche Forschungsmethoden vorherrschend sind. Gerade im interdisziplinären Feld des technologiegestützten Lehrens und Lernens erleben wir immer wieder, dass ein Austausch mit Expertinnen und Experten an diesem Zeitpunkt sehr hilfreich und wichtig ist: Es gibt zahlreiche Theorien und Forschungstraditionen, an die angeknüpft werden kann, die aber bisher kaum oder nur eingeschränkt genutzt werden. Auch ist es hilfreich, hier gezielt nach verwandten Fachbegriffen oder Synonymen zu fragen: So gibt es neben dem Konzept des „flipped classroom“ auch eine Gruppe, die sich darüber mit dem Begriff „inverted classroom“ austauscht (siehe Kapitel #offeneslernen). Wenn die Forschungsfrage gestellt ist und es darum geht, ein geeignetes Forschungsdesign zu entwickeln und Forschungsmethoden auszuwählen, möchten wir eine Reihe von weiterführender Literatur empfehlen.

!

Unter dem Schlagwort #forschungsmethoden und #buchtipp finden sich bei Diigo.com eine Reihe von Links auf Buchempfehlungen rund um Forschungsmethoden, die im Themenfeld eingesetzt werden können; sie können auch gerne ergänzt werden!

Forschungszugänge und -methoden

Ausblick: Typische Herausforderungen

Unabhängig von der gewählten Forschungsmethode möchten wir abschließend auf einige Herausforderungen der Forschung zum technologiegestützten Lernen hinweisen. So scheint es einige typische „Bias“ (engl. „Voreingenommenheit“) zu geben, die bei der Auswertung oder Diskussion berücksichtigt werden sollten, die sich im Wesentlichen um jeweils „neue“ Technologien drehen. Amiel und Reeves (2008) stellen sich so die grundsätzliche Frage, ob wir uns gerade in einer Phase überzogener Erwartungen befinden (siehe auch Kapitel #zukunft). Mit neuen Technologien werden per se positive Veränderungen und Ergebnisse verknüpft, nach Schulmeister (2009) enthalten sie ein ‚Versprechen auf die Zukunft’. Das kann auch dazu führen, dass negative Ergebnisse seltener veröffentlicht werden (vgl. Aktenschubfach-Effekt nach Rosenthal, 1979).

Forschungszugänge und -methoden

Literatur

Planung und Organisation

Technologieeinsatz von der Bedarfsanalyse bis zur Evaluation

In diesem Kapitel wird beschrieben, wie die Planung und Organisation von Bildungsprozessen durch digitale Technologien unterstützt werden können. Dabei werden, ausgehend von didaktischen Fragestellungen, beispielhaft verschiedene Tools vorgestellt, die den Bildungsprozess unterstützen. Der Bildungsprozess wird dabei gemäß dem Bildungszyklus in (1) die Bildungsbedarfsanalyse, (2) die Planung der Interaktionsprozesse, (3) die Nachbereitung und (4) die Evaluation des Lernprozesses aufgeteilt. In der Phase der Planung des Lernprozesses können beispielsweise durch Technologieunterstützung die Erwartungen, Bedürfnisse und Vorkenntnisse der Lernenden erfasst werden. Heterogene Anforderungs- und Kompetenzprofile der Teilnehmenden lassen sich dadurch besser berücksichtigen und Lernprozesse gezielter, und damit effektiver, planen und evaluieren. Der Schwerpunkt dieses Kapitels liegt auf der Unterstützung der Planung und Organisation von Bildungsprozessen durch digitale Technologien. Dabei wird anhand von Anwendungsfällen dargestellt, wie Kompetenzmanagementsysteme, Social-Networking-Plattformen, Wikis, Weblogs, Videos und Diskussionsforen zur Unterstützung von Lernprozessen eingesetzt werden können. Wesentlich ist, dass Technologien nicht zum Selbstzweck eingesetzt werden, sondern in Abstimmung mit den gesetzten Lernzielen und den Lernvoraussetzungen der Teilnehmenden entwickelt und implementiert werden.

Planung und Organisation

Bildungszyklus als Ordnungsraster

Neben der Unterstützung der Interaktion von Lernenden und Dozierenden lassen sich digitale Technologien auch für eine effektive Planung und Organisation von Bildungsangeboten einsetzen.

Abb. 1: Bildungszyklus zur Strukturierung des didaktischen Designs von Lernprozessen
Abb. 1: Bildungszyklus zur Strukturierung des didaktischen Designs von Lernprozessen

Abbildung 1 zeigt mit dem so genannten „Bildungszyklus“ ein heuristisches Modell zur Organisation von Bildungsprozessen entlang von fünf Schritten (Euler et al., 2009). Dieses Modell wird im vorliegenden Beitrag als Ordnungsraster genutzt. Bei jedem Schritt werden Beispiele für einen möglichen Technologieeinsatz vorgestellt. Vorwiegend wird dabei auf den Unternehmenskontext Bezug genommen, wobei die Ausführungen prinzipiell auch auf andere Organisationen übertragen werden können.

Der Fokus dieses Kapitels liegt auf der Unterstützung der Planung und Organisation von Bildungsprozessen durch digitale Technologien. Da in anderen Kapiteln bereits auf die technologiebasierte Durchführung und Gestaltung von Bildungsveranstaltungen in unterschiedlichen Kontexten eingegangen wurde, wird dieser Teil des Bildungszyklus (Abb. 1, Schritt drei) hier nicht weiter behandelt (siehe Kapitel #sekundaruntericht #hochschule).

Planung und Organisation

Bildungsbedarf bestimmen

Der erste Schritt bei der Planung eines Bildungsprozesses besteht darin, zu bestimmen, in welchen Bereichen Bildungsbedarf vorhanden ist, das heißt welche Kompetenzen der Lernenden (weiter)entwickelt werden sollen. Dabei kann es sich um fachliche, soziale oder um Selbstkompetenzen (zum Beispiel Arbeits- und Zeitplanung) handeln (Euler & Hahn, 2007, 133-134). Hinsichtlich der unterschiedlichen Kompetenzen bestehen noch weitere Typologien. Beispielsweise unterscheiden Erpenbeck und Sauter (2007) zwischen personalen, aktivitätsbezogenen, fachlich-methodischen und sozial-kommunikativen Kompetenzen oder Kauffeld und Grote (2000) zwischen Fach-, Methoden-, Selbst- und Sozialkompetenz. Ausgehend von den festgestellten Kompetenzbedarfen lassen sich Lernziele ableiten, welche die Gestaltung der Lernprozesse leiten (siehe Abschnitt 3).

Der Soll-Zustand lässt sich mit Bezug auf unterschiedliche Anspruchsgruppen bestimmen: Dabei nehmen u.a. die persönlichen Bildungsinteressen der/des Lernenden, Anforderungen der unmittelbaren Arbeitsumgebung (zum Beispiel eines Teams) oder die strategischen Ziele eines Unternehmens Einfluss (Domsch, 1993). Mit dem Soll-Zustand wird festgelegt, welches Wissen und welche Fertigkeiten die Lernenden zukünftig aufweisen sollen. Im Kontext Schule und Hochschule können analog dazu verschiede Anspruchsgruppen ausgemacht werden, etwa Ansprüche der Fachwissenschaft sowie Erwartungen des Arbeitsmarktes an Schul- und Hochschulabsolvierende. Für die Durchführung einer Bildungsbedarfsanalyse stehen unterschiedliche Instrumente zur Verfügung (ebenda):

In der (betrieblichen) Praxis stellen sich bei der Anwendung dieser Instrumente verschiedene Herausforderungen, denen mithilfe digitaler Technologien begegnet werden kann. Speziell die flexible Erfassung individueller Bildungsbedürfnisse einzelner Mitarbeiter/innen oder Teams gestaltet sich oft schwierig, weil sowohl die bereits vorhandenen Kompetenzen als auch künftige Entwicklungsbedürfnisse erhoben werden müssen.

!

Der Bildungsbedarf ergibt sich aus einem Abgleich zwischen dem aktuell vorhandenen Kompetenzniveau einer oder eines Lernenden (Ist-Zustand) mit dem angestrebten Soll-Zustand (Kaufman, 2001, 85).

Kompetenzmanagementsysteme

Technisch lässt sich die Bestimmung des Bildungsbedarfs eines Unternehmens in so genannten Kompetenzmanagementsystemen abbilden. Dabei handelt es sich um Softwaresysteme, die Unternehmen dabei unterstützen, (1) Kompetenzmodelle zu erstellen, um den Soll-Zustand im Unternehmen zu definieren, (2) den Kompetenzstand von Mitarbeitenden in Unternehmensbereichen und im Gesamtunternehmen zu bestimmen und darauf aufbauend (3) Maßnahmen zur Rekrutierung und Weiterbildung zu planen. Kompetenzmanagement kümmert sich also unmittelbar um die Bilanzierung der in einem Unternehmen benötigten und vorhandenen Kompetenzen. Mittlerweile gibt es zahlreiche Kompetenzmanagement-Modelle (z. B. ASSESS, KODE), wobei diese Tools einige zentrale Elemente gemeinsam haben (Jumpertz, 2007):

Das nachfolgende Praxisbeispiel zeigt, wie sich ein Kompetenzmanagementsystem mit anderen Werkzeugen zur Erhebung und zum Management des Bildungsbedarfs ergänzen lässt.

In der Praxis: Bildungsbedarfserhebung bei IBM

Beim Unternehmen IBM wird die Erhebung des Bildungsbedarfs mit drei Instrumenten unterstützt (Seufert et al., 2007, 82-83): einem (1) Personal Development (PD)-Tool zur Einschätzung der eigenen Fähigkeiten und Kompetenzen, den (2) Personal Business Commitment (PBC)-Zielen, welche die auf den eigenen Bereich heruntergebrochenen Unternehmensziele beinhalten, sowie dem (3) Individual Development Plan (IDP), welcher die zur Zielerreichung notwendigen Kompetenzen dokumentiert sowie aufzeigt, wie diese entwickelt werden können. Für die einzelnen Mitarbeitenden bedeutet dies, dass sie jährlich in Zusammenarbeit mit ihren Führungskräften kurz- und langfristige Ziele für das kommende Jahr festlegen. Diese werden im Individual Development Plan (IDP) festgehalten. Gleichzeitig werden diese Ziele mit den geschäftlichen Verpflichtungen (Personal Business Commitment, PBC) verknüpft. Etwa zeitgleich erfolgt die Erfassung der eigenen Kompetenzen im Personal Development (PD)-Tool. Anhand dieser beiden Einschätzungen (PBC und PD) werden die Entwicklungsmaßnahmen jeder Mitarbeiterin und jedes Mitarbeiters identifiziert und somit der Beitrag der einzelnen Mitarbeitenden zur Erreichung der Unternehmensziele sowie der eigenen Karriereziele dokumentiert.

?

Welche (gegebenenfalls widersprüchlichen) Zielsetzungen stehen sich bei der Ermittlung des Bildungsbedarfs in einem Unternehmen gegenüber?

?

Mit welchen Herausforderungen sind Bildungsverantwortliche bei der Nutzung von digitalen Technologien zur Bedarfserhebung konfrontiert?

Planung und Organisation

Planung und Konzeption didaktischer Interaktionen

Im Anschluss an die Bildungsbedarfsanalyse folgen die Planung und Konzeption der eigentlichen didaktischen Interaktion. Neben organisatorischen Aspekten geht es darum, Ziele, Inhalte, Methoden und eingesetzte Medien festzulegen und vorzubereiten. Besonders wichtig ist es in dieser Phase, die Voraussetzungen der Lernenden sowie die organisatorischen Rahmenbedingungen zu erfassen, indem bereits im Vorfeld die Teilnehmenden kontaktiert werden, um deren Vorkenntnisse sowie Anliegen abzufragen. Diese Informationen dienen als Grundlage für die didaktische Gestaltung der Lernumgebung, die auf die angesprochenen Lernenden abgestimmt ist (Götz & Häfner, 1998, 73). „Lernvoraussetzungen bezeichnen diejenigen Handlungskompetenzen, die vor Beginn eines Lernprozesses beim Lernenden als lernbedeutsam vermutet werden“ (Euler et al., 2009, 16). Gerade in technologieunterstützten Lernumgebungen gehören zu den Lernvoraussetzungen nicht nur die Vorkenntnisse der Lernenden in Bezug auf die angestrebten Lernziele. Vielmehr ist auch zu eruieren, inwieweit die Lernenden über die notwendigen Lern- und Medienkompetenzen verfügen, um die eingesetzten technischen Werkzeuge sowie die geplanten Lernprozesse sinnvoll zu nutzen.

!

Bei der Erfassung von Lernvoraussetzungen spielen Technologien in zweifacher Hinsicht eine Rolle:

Die Lernvoraussetzungen der Teilnehmenden haben in mehrerlei Hinsicht Bedeutung für die Planung des didaktischen Designs. Zwei wichtige Planungsprozesse, bei denen auf die Lernvoraussetzungen zu achten ist, werden im Folgenden beschrieben.

Lernziele als Planungsgrundlage

Aufbauend auf den Bildungsbedarfen (Abschnitt 2) sind entsprechende Lernziele zu bestimmen. Diese Ziele dienen als Referenzrahmen für die Auswahl der einzusetzenden Medien und Methoden. ### In der Praxis bleibt die explizite Verknüpfung von Lernzielen und eingesetzten Medien und Methoden häufig auf der Strecke. Zum Teil werden Werkzeuge eher um ihrer selbst willen eingesetzt (nach dem Motto: ‚Hier würde doch ein Blog gut passen.‘), als zum Erreichen bestimmter Lernziele.

!

Der Einsatz von Technologien ist in Abstimmung mit den gesetzten Lernzielen zu planen. Bei der Festlegung der Lernziele sollten auch die Medienkompetenzen berücksichtigt werden, die im Umgang mit den eingesetzten Lerntechnologien notwendig sind.

Methoden- und Medienwahl

Hier stellt sich die Frage, welches Medium oder welche Methode sich für welchen Zweck eignet. Dies steht in direktem Zusammenhang mit der Entscheidung über die geeignete Kombination aus formellem und informellem Lernen. Unter formellem Lernen werden organisierte Lernprozesse verstanden, die in der Regel in institutionellen Settings stattfinden. Dagegen bezeichnet informelles Lernen das selbstorganisierte Aneignen von Kompetenzen, das häufig in den Arbeitsprozess integriert ist (Straka, 2004). Heute wird gerade in Unternehmen davon ausgegangen, dass Blended-Learning-Settings, also die Kombination von E-Learning- und Präsenzlernphasen, eine für viele Rahmenbedingungen geeignete Lernform darstellen. Wie genau diese Phasen kombiniert werden, hängt wiederum zu einem wesentlichen Teil von den Lernvoraussetzungen ab: Verfügen die Lernenden über ausgeprägte Erfahrungen, etwa mit technologiegestützter Kollaboration, können beispielsweise virtuelle Teamarbeiten mit einem hohen Selbstorganisationsanteil geplant werden. Handelt es sich um Lernende, die relativ geringe Erfahrung im Umgang mit solchen Lehr-/Lern-Settings haben, sind gegebenenfalls mehr Präsenzphasen oder stärkere Unterstützungsangebote vorzusehen. Prinzipiell bietet es sich an, bei Teamarbeiten Gruppen zu bilden, in denen Lernende mit unterschiedlichen Lernvoraussetzungen zusammentreffen. So können beispielsweise Defizite im Bereich der Medienkompetenz bis zu einem gewissen Grad mithilfe der Unterstützung von Mitlernenden ausgeglichen werden. Unabhängig davon, welche Technologien eingesetzt werden, sollten Einstiegshürden möglichst gering gehalten und der Nutzen des Technologieeinsatzes deutlich aufgezeigt werden, damit die Lernenden die unterstützende Funktion des Technologieeinsatzes erkennen und nicht durch technische Hürden demotiviert werden.

!

Die festgestellten Lernvoraussetzungen sind ein wichtiges Kriterium bei der Planung von Präsenz- und E-Learning-Phasen im Lernprozess sowie für die Auswahl der eingesetzten Medien. Bei der Organisation kollaborativer Lernprozesse sollte darauf geachtet werden, Lernende mit unterschiedlichen Lernvoraussetzungen zu kombinieren. Gegenseitige Peer-Unterstützung kann etwaige Kompetenzdefizite zu einem gewissen Grad auffangen.

In der Praxis: Erfassung und Gestaltung von Lernvoraussetzungen beim Swiss Centre

for Innovations in Learning (scil)

Bei allen Kursen im Rahmen des scil Aus- und Weiterbildungsanagebots werden unterschiedliche Instrumente eingesetzt, um vor Kursbeginn Lernvoraussetzungen und Erwartungen der Teilnehmenden zu erfassen. Mittels eines Online-Fragebogens im Learning Management System werden erfasst:

Das Kursforum wird zum Austausch folgender Informationen zwischen den Kursteilnehmenden genutzt:

Die Trainer/innen nutzen diese vorab erhobenen Informationen für die:

Planung und Organisation

Nachbereitung des Bildungsprozesses

Vernetzung der Lernenden

Bei unternehmensweit angebotenen Seminaren fehlt im Nachgang zu Präsenzveranstaltungen oft die Möglichkeit zum weiteren Austausch unter den Teilnehmenden sowie zum gemeinsamen Zugriff auf Dokumente, Erfahrungsberichte und Ähnliches. Insbesondere bei längerfristig angelegten Bildungsangeboten besteht hier einerseits ein Bedürfnis von Seiten der Teilnehmenden, andererseits bieten Transfernetzwerke eine Chance für die Organisatoren von Bildungsprozessen, den Wissensaustausch zu unterstützen (Brahm, 2009a).

Im Anschluss an eine Bildungsmaßnahme können Social Networking Tools (Beispiele für diese Tools finden sich in den Links zum Kapitel auf diigo.com) eingesetzt werden, um die Teilnehmenden im Arbeitsalltag zu vernetzen und den Austausch zu fördern. Lernende, die gemeinsam einen Lernprozess durchlaufen haben und sich auch nach Abschluss der formellen Lernphase austauschen, können sich in Gruppen organisieren, um ihre Erfahrungen in Bezug auf die praktische Anwendung des Gelernten zu sammeln und gegebenenfalls Strategien zur Überwindung von Transferhürden zu entwickeln.

Förderung von Reflexion

Eine weitere Möglichkeit der Transferförderung besteht in der gezielten Unterstützung von Reflexionsprozessen. Hierzu sollten Reflexionsfragen formuliert werden, die bewusst zum Nachdenken über die Anwendung des Gelernten anregen. Reflexionen können den Blick auf mögliche Anwendungsfehler oder Barrieren in der Arbeitspraxis schärfen. Dadurch unterstützen sie die Lernenden dabei, Anwendungsgelegenheiten für das Gelernte zu erkennen, diese gezielt zu planen, durchzuführen und anschließend zu bewerten. Die Anleitung für solche Reflexionsprozesse erfolgt idealerweise bereits in einer Präsenzphase. Damit verzahnen sie sich mit den Elementen der Transferförderung aus der Lernsituation (Burger, 2005).

Das lässt sich zum Beispiel fördern, indem ein Weiterbildungsseminar mit Weblogs im Sinne elektronischer Lernportfolios begleitet wird. Die Lernenden werden bereits im Präsenzteil aufgefordert, regelmäßig ihre Erfahrungen und Eindrücke zu dokumentieren und zu reflektieren. Diese Reflexionspraxis wird auch in der Transferphase am Arbeitsplatz weitergeführt.

Aufgabe der oder des Lehrenden ist es dabei, die Reflexion mithilfe geeigneter Fragen systematisch anzuleiten und Feedback zu geben. Die Kommentarfunktion ermöglicht Rückmeldungen, sowohl von anderen Lernenden als auch von der Lehrperson.

Der Nachbereitung von Bildungsveranstaltungen wird oft nur wenig Aufmerksamkeit geschenkt. Gerade in Arbeitskontexten ist diese Phase jedoch äußerst wichtig, um die Nachhaltigkeit von Lernprozessen sicherzustellen. Dabei geht es im Wesentlichen um die Unterstützung des Transfers vom Lernkontext in den Anwendungskontext. Dies ist vor allem bei klassischen Bildungsangeboten, zum Beispiel Seminaren, notwendig.

In der Forschung zum Lerntransfer in Unternehmen wurden in verschiedenen Untersuchungen Hürden identifiziert, die den Transfer von Wissen und Fertigkeiten beeinträchtigen oder verhindern (Holton III et al., 2003).

!

Transferhindernisse können auf unterschiedlichen Ebenen liegen: (a) bei der bzw. bei dem Lernenden selbst, (b) bei der Lernmaßnahme und (c) im Arbeitskontext der/des Lernenden (weiterführende Hinweise zu den Transferhürden in Brahm, 2009a)

Besonders die flexibel einsetzbaren und einfach anzuwendenden Web-2.0-Technologien eignen sich gut, um im Nachgang einer Bildungsmaßnahme den Transfer in die (Arbeits-)Praxis zu begleiten. Im Folgenden wird ein Beispiel der Transferbegleitung erläutert.

In der Praxis: Transferförderung bei Hewlett-Packard

Mit dem Hauptziel der Vernetzung unter den Mitarbeiterinnen und Mitarbeitern wurde bei der Hewlett-Packard GmbH eine Social Networking-Plattform eingeführt (Brahm, 2009b, 42-43). Auf der Plattform verfügt jede/r Mitarbeitende über ein voreingerichtetes Profil, das die wesentlichen Informationen zur Person enthält, zum Beispiel Name, organisatorische Zugehörigkeit und Kontaktdaten. Zusätzlich werden Beiträge aus anderen Kollaborationsplattformen wie Blogs, einer internen wiki-basierten Enzyklopädie oder Foren in das Profil integriert. Damit erhält man schnell umfangreiche Informationen über − zum Teil bislang unbekannte – Kolleginnen und Kollegen. Zur Profilpflege werden innerhalb bestimmter Kategorien so genannte Tags angelegt, das heißt Schlagwörter, welche die eigenen Kompetenzen, Interessen etc. beschreiben.

?

Welche weiteren Maßnahmen könnten im Arbeitskontext der/des Lernenden die Transfersicherung unterstützen?

Integration von Lern- und Anwendungsfeld

Generell gilt, dass digitale Tools zur Transferunterstützung so in das didaktische Setting integriert werden sollten, dass eine Verbindung zwischen Lern- und Arbeitsfeld hergestellt wird. Technologien, die in der Transferphase eingesetzt werden, sollten daher bereits während einer Lernphase, zum Beispiel in der Präsenzveranstaltung, als Lernmedien eingesetzt und/oder in der Vor- und Nachbereitung zur Unterstützung der Teilnehmenden Verwendung finden (Brahm, 2009a).

Beispiel: In einem Unternehmen werden kurze Videos zur Illustration der Lerninhalte zur Verfügung gestellt. Diese Videos sind bereits in der Vorbereitungsphase online abrufbar. In der Präsenzphase werden sie in Kleingruppen diskutiert. In der Transferphase zur Veranstaltung werden die Videos mit weiteren inhaltlich verwandten Angeboten verbunden, zum Beispiel mit Seminaren. Ein bestimmtes Medium, beispielsweise ein Podcast, kann auch eine Anregung sein, das personalisierte Lernportal, das heute in vielen Unternehmen zur Verfügung steht (siehe Kapitel #educast), aufzusuchen. Dort werden dann zum jeweiligen Lernbedarf der jeweiligen Mitarbeiter/innen passende Angebote vorgestellt.

!

Tools zur Transferunterstützung sollten eine Brücke zwischen Lern- und Anwendungsfeld schlagen. Um dies zu erreichen, ist eine sorgfältige Planung zur Einführung der entsprechenden Werkzeuge notwendig. Tools, mit denen die Lernenden in der Transferphase arbeiten, sind daher bereits während der Bildungsmaßnahme vorzustellen und anzuwenden. Weiterhin ist es zur Transferförderung möglich, die Reflexion und Vernetzung der Lernenden zu unterstützen.

Planung und Organisation

Evaluation des Bildungsprozesses

Die Evaluation von Bildungsprozessen ist vom Assessment im Sinne der Leistungskontrolle abzugrenzen (siehe Kapitel #assessment). Im vorliegenden Abschnitt steht die Beurteilung des Bildungsprozesses aus Sicht der Teilnehmenden sowie mit Bezug zu didaktischen Gütekriterien im Vordergrund. Dabei kann nach dem Zeitpunkt der Evaluation zwischen formativer und summativer Evaluation unterschieden werden (Kromrey, 2000, 118).

Formative Evaluation

!

Handelt es sich um eine formative Evaluation, so wird diese begleitend zum Bildungsangebot vorgenommen und hat in der Regel auch Auswirkungen auf den weiteren Verlauf.

Der große Vorteil formativer Evaluationen liegt darin, dass erkannte Schwächen noch während der Durchführung einer Bildungsmaßnahme aufgenommen und möglicherweise korrigiert werden können (Morrison et al., 2004). Allerdings stellt diese maßnahmenbegleitende Art der Evaluation auch eine Herausforderung dar, weil die eingesetzten Evaluationsinstrumente flexibel anpassbar und schnell auszuwerten sein müssen. Entsprechend dieser Herausforderungen bietet sich der Einsatz von einfach zu nutzenden Evaluationstools an.

Zur formativen Evaluation kann bei einer Präsenzveranstaltung beispielsweise Microblogging wie Twitter eingesetzt werden. Die Teilnehmenden können, entweder direkt während des Seminars oder in den Pausen, über Twitter ihre aktuellen Eindrücke mitteilen. Die Trainer/innen haben die Möglichkeit, auf diese Rückmeldungen bereits während der Veranstaltung zu reagieren. Eine solche Art der formativen Evaluation stellt natürlich erhöhte Anforderungen an die Lehrpersonen, da diese nicht nur den eigentlichen Lernprozess, sondern auch die Evaluation im Blick haben müssen. Werden für eine Veranstaltung mehrere Trainer/innen eingesetzt, ist ein solches Szenario durchaus denkbar und kann zu einem Mehrwert für die Teilnehmenden führen.

Bereits während des Designs von Lernprozessen ist die Bedienbarkeit und Nützlichkeit der eingesetzten Werkzeuge zu erheben, um gegebenenfalls frühzeitige Anpassungen vornehmen zu können. Hierfür bieten sich einerseits Usability-Analysen an, andererseits aber auch Pilottests mit einer geringen Anzahl an Nutzerinnen und Nutzern.

Summative Evaluation

!

Eine summative Evaluation wird am Ende einer Maßnahme durchgeführt. Damit verfolgt sie den Zweck, die Qualität eines abgeschlossenen Bildungsangebots zu beurteilen.

Die Wirkungen und der Nutzen eines Programms werden durch die Teilnehmer/innen evaluiert (Tergan, 2000, 25). Summative Evaluation ermöglicht es, dass die verantwortlichen eines Programms Antworten auf Fragen nach der Effektivität und der Effizienz der Bildungsmaßnahme sowie nach den Reaktionen bezüglich des Programms von Seiten der Lernenden, der Lehrenden und anderen beteiligten Personen erhalten (Morrison et al., 2004).

Zur summativen Evaluation einer Präsenzveranstaltung lässt sich in einem Unternehmen beispielsweise ein Forum in Kombination mit einem standardisierten Online-Fragebogen einsetzen. Hier kann, gegebenenfalls in anonymer Form, mitgeteilt werden, wie ein Bildungsangebot empfunden wurde. Um unterschiedliche Aspekte abzudecken, können im Evaluationsforum unterschiedliche Thementhreads vordefiniert werden. Es ist auch möglich, die Ergebnisse der Evaluation wiederum im Forum an die Teilnehmenden zurück zu spiegeln.

!

Da Lerntechnologien ebenfalls Bestandteil der Lernumgebung sind, sind diese gleichermaßen einem Evaluationsprozess zu unterziehen. Beispielsweise können Statistiken, die automatisch durch das jeweilige System generiert werden, Aufschluss über die Häufigkeit und die Art der Nutzung der Technologie geben. Weiterhin können Fragen zur Nutzerfreundlichkeit der Technologie in einen allgemeinen Evaluations-Fragebogen integriert werden.

Planung und Organisation

Zentrale Erkenntnisse

Im vorliegenden Kapitel wurden entlang des Bildungszyklus‘ verschiedene Möglichkeiten aufgezeigt, wie Planung und Organisation von Bildungsmaßnahmen durch digitale Technologien unterstützt werden können. Dabei wurden die Bildungsbedarfsanalyse, die Planung der eigentlichen pädagogischen Interaktionen, die Unterstützung des Lerntransfers sowie die Evaluation fokussiert.

In allen Schritten des Bildungszyklus‘ können digitale Technologien zum Einsatz kommen. Wesentlich ist, dass diese ausgehend von den (Lern-)Zielen der Bildungsmaßnahme eingeplant werden und nicht zum Selbstzweck werden.

!

Als weitere Lektüre empfehlen wir: Brahm, T. & Seufert, S. (2009). Kompetenzentwicklung mit Web 2.0. Good Practices aus Unternehmen. In: scil Arbeitsbericht. St. Gallen: Universität St. Gallen, 5-5. URL: http://www.scil.unisg.ch/de/scil+Vortraege+Publikationen/Bestellformular [2013-08-12].

Planung und Organisation

Literatur

Literatur und Information

Datenbanken, Fachliteratur, Literaturrecherche und -verwaltung

Die Recherche nach Fachliteratur, deren Analyse, Verwaltung und Zitierung ist unverzichtbare Grundlage wissenschaftlicher Arbeit – die zahlreichen, mitunter ‚populären‘ Plagiatsfälle der letzten Monate und Jahre unterstreichen das. Der Beitrag gibt einen Überblick über Fachliteratur und Informationsquellen sowie Hinweise zur Literaturrecherche und -verwaltung im Feld „Lehren und Lernen mit Technologien“. Zunächst wird mit dem Recherchefahrplan ein methodisches Vorgehen erläutert, das den Rechercheprozess in vier Schritten (Vorbereitung, Online-Recherche, Evaluation der Ergebnisse, Weiterverarbeitung) strukturiert und systematisiert. Integriert wird hier bereits ein Überblick über relevante Fachzeitschriften, Lehrbücher, Blogs und RSS-Feeds sowie Datenbanken, Suchdienste und Fachportale für den Bereich der Medienpädagogik und -didaktik. Anschließend werden mit Social Bookmarking-Diensten und Literaturverwaltungssystemen digitale Werkzeuge zum Speichern und Wiederfinden gefundener Informationen vorgestellt sowie ihr Nutzen und Potenzial für die wissenschaftliche Arbeit näher skizziert. Abschließend werden Suchmaschinen wie Google oder Yahoo/Bing – auf Grund ihrer herausragenden Stellung bei der Suche nach (Fach-) Informationen – einem kritischen Blick unterzogen und wissenschaftlichen Suchdiensten als Alternative gegenüber gestellt. Ziel des Kapitels ist es, Forschenden, Studierenden oder am Thema Interessierten, im Gegenstandsbereich eine Orientierung und das Rüstzeug für eine erfolg- und ertragreiche Recherche als Ausgangspunkt guter wissenschaftlicher Arbeit zu geben.

Literatur und Information

Einleitung

Durch die viel zitierte Flut an Informationen gewinnt Informationskompetenz mehr und mehr an Bedeutung. Diese Schlüsselqualifikation der Wissensgesellschaft soll unter anderem dazu befähigen, geeignete Informationsquellen im Internet zu verifizieren und so zu nutzen, dass ein a priori erkannter Informationsbedarf bei Anwendung effektiver Suchstrategien erfolgreich befriedigt wird. War es in früheren Jahrzehnten ausreichend, im institutseigenen Bibliothekskatalog zu recherchieren und vielleicht noch die eine oder andere Literaturdatenbank eines Hosts (Datenbankanbietenden) in Anspruch zu nehmen, so sind die Anforderungen an Studierende und Forschende in puncto Informationskompetenz aus vielerlei Gründen erheblich angestiegen (Lux & Sühl-Strohmenger, 2004). Ein Grund ist der rasante Anstieg an digitalen Informationen. Bereits 2008 (Gantz, 2008) prognostizierte die International Data Corporation das Wachstum im ‚Digitalen Universum‘ im Zeitraum von 2006–2011 um den Faktor 10, von 2009–2016 sogar um den Faktor 44. Die im Bibliothekswesen bekannte quantitative Verdopplung (wissenschaftlicher) Publikationen etwa alle 10 bis 15 Jahre wird im World Wide Web ad absurdum geführt. Die Nadel im Heuhaufen zu finden, die Spreu vom Weizen zu trennen und relevante Fachinformationen von Redundanz zu trennen, ist im Zeitalter des ‚information overflow’ für Suchende nicht unbedingt einfacher geworden. Wesentliche Grundlage für eine Erfolg versprechende Recherche im Web ist die Kenntnis relevanter Literaturdatenbanken, Fachportale, Informationssysteme und Zeitschriften – besonders von Zeitschriften, die den Open-Access-Gedanken realisiert haben und referierte Beiträge der Scientific Community zur Verfügung stellen (Linten, 2009; siehe Kapitel #openaccess). Ebenso wichtig ist ein methodisches Instrumentarium zur Recherche wissenschaftlicher Fachinformationen (Virkus, 2003), die heute in Zeiten von Web 2.0 und 3.0 fast ausschließlich im weltweiten Netz stattfindet.

!

Als „Graue Literatur“ bezeichnet man in der Bibliothekswissenschaft Bücher und andere Publikationen, die aus unterschiedlichen Gründen nicht über den Buchhandel vertrieben werden. Darunter fallen zum Beispiel Forschungsberichte, Studien/Gutachten, Tagungsberichte oder Hochschulschriften (Diplomarbeiten, Dissertationen). Zunehmend finden sich hierunter Online-Publikationen, deren Volltexte kostenlos als Download im Internet zur Verfügung stehen und aufgrund des verkürzten Veröffentlichungsprozesses oftmals ein hohes Maß an thematischer Aktualität aufweisen.

An der Universität Konstanz wurde diesbezüglich im Rahmen des Projektes „Informationskompetenz“ eine solche Recherchestrategie, ein sogenannter Recherchefahrplan (Bibliothek der Universität Konstanz, 2005) entwickelt. Demnach bezeichnet Informationskompetenz die Fähigkeiten, einen Informationsbedarf zu erkennen und zu benennen, eine Suchstrategie zu entwickeln, die geeigneten Informationsquellen zu identifizieren und zu nutzen, die Informationen schließlich zu beschaffen, zu evaluieren und sie so weiterzuverarbeiten, dass die ursprüngliche Fragestellung effektiv und effizient gelöst wird.

Zum Begriff der Informationskompetenz gibt es eine Reihe an Definitionen und Begriffserläuterungen, die jedoch in diesem Kapitel nicht näher betrachtet werden sollen. Verwiesen wird in diesem Zusammenhang auf die Standards der Informationskompetenz für Studierende, herausgegeben vom Netzwerk Informationskompetenz Baden-Württemberg (2006). Die Orientierung an dem Recherchefahrplan der Universität Konstanz soll den Studierenden in vier Schritten zu einem umfassenden sowie präzisen Suchergebnis verhelfen. Die einzelnen Schritte sind: Vorbereitung, Recherche, Evaluation der Ergebnisse und Weiterverarbeitung der Ergebnisse. An dieser Vorgehensweise soll sich die Struktur des ersten Teils dieses Kapitels orientieren. Im Anschluss daran geben wir Hinweise, welche Werkzeuge beim Speichern und (Wieder-) Finden der Literatur unterstützen können.

Literatur und Information

Vorbereitung

Zunächst muss der oder die Suchende das Thema formulieren, Teilaspekte benennen und eine Wortliste erstellen. Wichtig dabei ist die Auflistung etwaiger Synonyme, Quasi-Synonyme, Abkürzungen und verwandter Begriffe. Wird englischsprachige Literatur benötigt, so ist eine Übersetzung der Suchwörter notwendig. An diesem Punkt der Vorbereitung sollten Ergebnisumfang und Publikationsart, wie Monografien, Zeitschriftenaufsätze, graue Literatur, geklärt werden. Anschließend erfolgt die Auswahl der Informationsquellen wie Portale, Datenbanken oder Bibliothekskataloge. Oftmals unterschätzt wird die Internet-Präsenz einschlägiger Forschungseinrichtungen, Institutionen, staatlicher Stellen, Gewerkschaften oder Wirtschaftsverbände, die sich mit dem gesuchten Thema unter Umständen beschäftigen.

Allgemeine Informationen beispielsweise zum ‚Demografischen Wandel’ lassen sich sicherlich effektiv beim zuständigen Bundesministerium (BMFSFJ) recherchieren, das wiederum auf einschlägige Portale wie auf das Deutsche Zentrum für Altersfragen (DZA) mit den Online-Diensten ‚Gerolit’ und ‚Gerostat’, die Bertelsmann Stiftung oder das ‚Demographie-Netzwerk’ verweist.

Schlagwort (englisch) (ERIC) Schlagwort (deutsch) (FIS)
Distance Education Fernunterricht
Educational Technology/Educational Media Bildungstechnologie
Blended Learning Blended Learning
Electronic Learning/eLearning/E-Learning Electronic Learning/eLearning/E-Learning
Technology Uses in Education Computerunterstützter Unterricht
(New/Digital) Media/Technology (Neue/Digitale) Medien
Media Literacy Medienkompetenz

Tab. 1: Ausgewählte Schlagworte im Feld Medienpädagogik/-didaktik

Autor/in Jahr Titel
Arnold et al. 2004 E-Learning Handbuch für Hochschulen und Bildungszentren
Baumgartner et al. 2002 E-Learning Praxishandbuch – Auswahl von Lernplattformen
Issing & Klimsa 2002 Information und Lernen mit Multimedia und Internet
Ebner & Schön 2011 Lehrbuch für Lernen und Lehren mit Technologien
Kerres 2001 Multimediale und telemediale Lernumgebungen. Konzeption und Entwicklung
Kron & Sofos 2003 Mediendidaktik. Neue Medien in Lehr- und Lernprozessen
Lehmann & Bloh 2002 Online-Pädagogik
Niegemann et al. 2004 Kompendium E-Learning
Reinmann 2006 Blended Learning in der Lehrerbildung
Schulmeister 2007 Grundlagen hypermedialer Lernsysteme. Theorie – Didaktik – Design
Schulmeister 2002 Lernplattformen für das virtuelle Lernen. Evaluation und Didaktik

Tab. 2: Deutschsprachige Lehrbücher

Autor/in Jahr Titel
Anderson 2008 Theory and Practice of Online Learning
Barron et al. 2006 Technologies for Education
Bonk et al. 2005 The Handbook of Blended Learning: Global Perspectives, Local Designs
Cennamo et al. 2013 Technology Integration for Meaningful Classroom Use. A Standards-Based Approach
Moore & Anderson 2012 Handbook of Distance Education
Oblinger 2006 Learning Spaces
Reiser & Dempsey 2011 Trends and Issues in Instructional Design and Technology
Roblyer & Doering 2012 Integrating Educational Technology into Teaching
Smaldino & Lowther 2011 Instructional Technology and Media for Learning
Solomon et al. 2008 Handbook of distance learning for real-time and asynchronous information technology education

Tab. 3: Englischsprachige Lehrbücher

Der erste Zugang zu einer (noch) unbekannten Thematik über Wissensportale wie Wikipedia oder Zeitschriftenarchive der ZEIT oder des SPIEGELS sind auf dieser Stufe ebenso legitim wie eine erste Annäherung mit (Meta-) Suchmaschinen wie Google, Yahoo, Ixquick oder MetaGer. Auf diese Weise kann der oder die Suchende einen ersten thematischen Überblick gewinnen. Gegebenenfalls lassen sich auch so Links, Literatur und Dokumente aufspüren, die als Ausgangspunkt für die weiteren Schritte dienen können. Die englischsprachige Wikipedia bietet unter Umständen andere Informationen als die deutschsprachige. Zudem empfiehlt es sich, die Suchoptionen von beispielsweise Google auf die englischsprachige Suche umzustellen, um eben auch mehr englischsprachige Treffer zu erhalten.

Zeitschrift URL (Uniform Source Locator) Impact
Australasian Journal of Educational Technology http://www.ascilite.org.au/ajet/submission/index.php/AJET/index 1,363
British Journal of Educational Technology http://onlinelibrary.wiley.com/journal/10.1111/%28ISSN%291467-8535 1,313
Computers & Education http://www.journals.elsevier.com/computers-and-education/ 2,775
Distance Education http://www.tandfonline.com/toc/cdie20/current 0,558
Educational Technology & Society http://www.ifets.info/ 1,171
Educational Technology Research and Development http://www.springer.com/education+%26+language/learning+%26+instruction/journal/11423 1,155
Interactive Learning Environments http://www.tandfonline.com/toc/nile20/current#.Uhv0A7xOm7k 1,302
International Journal of Human-Computer Studies http://www.journals.elsevier.com/international-journal-of-human-computer-studies/ 1,415
Journal of Computer Assisted Learning http://onlinelibrary.wiley.com/journal/10.1111/%28ISSN%291365-2729 1,632
The Turkish Journal of Educational Technology http://www.tojet.net/ 1,016

Tab. 4: Genuin medienpädagogische/-didaktische Zeitschriften mit Impact-Faktor nach Thomson & Reuters Journal Citation Report for 2009

Zeitschrift URL
AACE Journal http://www.aace.org/pubs/aacej/
CITE Journal – Contemporary Issues in Technology and Teacher Education http://www.citejournal.org
E-Learning and Digital Media http://www.wwwords.co.uk/elea/
Educause Quarterly http://www.educause.edu/eq
Educause Review http://www.educause.edu/er
eLearning Papers http://www.elearningpapers.eu/index.php?page=home
Electronic Journal of e-Learning http://www.ejel.org/
eleed – e-learning and education http://eleed.campussource.de/
European Journal of Open, Distance and E-Learning http://www.eurodl.org/
International Journal of Emerging Technologies in Learning http://www.online-journals.org/i-jet
International Journal of Instructional Technology and Distance Learning http://www.itdl.org/index.htm
International Journal of Interactive Mobile Technologies http://www.online-journals.org/index.php/ijim
International Review of Research in Open and Distance Learning http://www.irrodl.org/index.php/irrodl/index
Journal of e-Learning and Knowledge Society http://je-lks.maieutiche.economia.unitn.it/index.php/Je-LKS_EN/index
Journal of Information Technology Education http://jite.org/
Journal of Instructional Science and Technology http://www.ascilite.org.au/ajet/e-jist/index.html
Journal of Interactive Media in Education http://www-jime.open.ac.uk/
Journal of Online Learning http://jolt.merlot.org/
Journal of Research on Technology in Education https://www.iste.org/learn/publications/journals/jrte
MedienPädagogik. Zeitschrift für Theorie und Praxis der Medienbildung http://www.medienpaed.com/zs/

Tab. 5: Genuin medienpädagogische/-didaktische Zeitschriften mit Open Access

Viele Portale bieten sogenannte RSS-Feeds (Really Simple Syndication) an, welche über einen Browser abonniert werden können und ähnlich wie ein Newsletter Informationen des jeweiligen Anbietenden distribuieren. Auf diese Weise kann man „sich auf dem Laufenden halten“ und mitbekommen, welche Themen derzeit in der Fachdiskussion stehen (E-Teaching.org, 2011). Ebenso wie RSS-Feeds bieten Weblogs eine gute Möglichkeit, Informationen beispielsweise von E-Learning-Expertinnen und -Experten zu erhalten. Das Abonnieren als RSS-Feed ist zumeist möglich (siehe Kapitel #blogging).

Zeitschrift URL
Computer + Unterricht via http://www.friedrich-verlag.de/
Educational Media International http://www.tandf.co.uk/journals/routledge/09523987.html
International Journal on E-Learning http://www.aace.org/pubs/ijel/
Journal of Asynchronous Learning Networks http://www.sloan-c.org/publications/jaln_main
Journal of Educational Multimedia and Hypermedia http://www.aace.org/pubs/jemh/default.htm
Journal of Interactive Learning Research http://aace.org/pubs/jilr/
Learning, Media & Technology http://www.tandf.co.uk/journals/routledge/1463631X.html
Learning, Media & Technology http://www.tandf.co.uk/journals/titles/17439884.asp
Open Learning: The Journal of Open and Distance Learning http://www.tandf.co.uk/journals/carfax/02680513.html
Research in Learning Technology http://www.tandf.co.uk/journals/titles/09687769.asp
Technology, Pedagogy and Education http://www.tandf.co.uk/journals/titles/1475939X.asp
Zeitschrift für E-Learning, Lernkultur und Bildungstechnologien http://www.e-learning-zeitschrift.org

Tab. 6: Kostenpflichtige genuin medienpädagogische/-didaktische Zeitschriften

?

Stöbern Sie in einem Open-Access-Journal Ihrer Wahl:

!

Der Impact Factor einer Zeitschrift soll messen, wie oft andere Zeitschriften einen Artikel aus ihr in Relation zur Gesamtzahl der dort veröffentlichten Artikel zitieren. Je höher der Impact Factor, desto höher die Reputation der Fachzeitschrift.

In der ‚Zeitschriftenlandschaft’ lassen sich durchaus nicht wenige Zeitschriften auffinden, die einen genuin medienpädagogischen/-didaktischen Zugang bieten. Zum einen gibt es kostenpflichtige Zeitschriften, von denen einige sogar einen Impact-Faktor aufweisen, zum anderen gibt es auch E-Journals, die ihre Artikel frei nach Open Access-Policy kostenlos im Netz zur Verfügung stellen.

Der wesentlich genuin inter- beziehungsweise transdisziplinär ausgerichtete Gegenstand der Medienpädagogik/-didaktik hat schließlich zur Folge, dass natürlich auch in allgemeinpädagogischen Zeitschriften (zum Beispiel Zeitschrift für Pädagogik) und fächerspezifischen Zeitschriften medienpädagogische/-didaktische Beiträge zu finden sind. Je nach Thematik ist eine fachaffine Suche in fachspezifischen Zeitschriften demnach unumgänglich.Um diese auch als Fachfremde/r auffinden zu können, empfiehlt sich die Kontaktaufnahme mit den jeweiligen Fachreferentinnen und -referenten der Bibliothek oder die Internetpräsenz der jeweiligen Bibliothek, die gegebenenfalls fachspezifische Links zu Datenbanken und Informationsquellen bereitstellt.

Literatur und Information

(Online-) Recherche

Bei Auswahl in Frage kommender Informationsquellen lohnt sich der Blick auf die Suchmodi. Wird zusätzlich zur Einfeldsuche eine erweiterte Suche angeboten? Gibt es zum Beispiel in einer Datenbank ein Suchfeld mit inhaltlicher Erschließung (Schlagwort, Deskriptor, subject heading) oder einen Schlagwortindex? Viele Literaturdatenbanken verfügen über eine kontrollierte Schlagwortliste (Thesaurus, Register), welche semantische Beziehungen unter Schlagwörtern aufzeigt. Durch die intellektuelle, inhaltliche Erschließung werden Dokumente genauer beschrieben und können somit in der Suche besser aufgefunden werden. Prinzipiell zeichnet sich ein adäquates Suchergebnis durch hohe Präzision und Vollständigkeit aus. Diese in den Informationswissenschaften wichtigen Messgrößen geben Auskunft darüber, wie hoch der Anteil relevanter Treffer an der Gesamtmenge ist und wie hoch der Anteil der gefundenen relevanten Dokumente in Relation zu allen in der Datenbank vorhandenen relevanten Dokumenten ist. Ferner muss bei jeder Suche in Datenbanken und Katalogen sowie mit Suchmaschinen der Einsatz von Retrievaltechniken wie Wortstammsuche (Trunkierung), Phrasensuche oder der Einsatz Bool‘scher Logik mit Und- beziehungsweise Oder-Verknüpfungen, falls dies in den Kollektionen möglich ist, geprüft werden (Lewandowski, 2005).

Literatur und Information

Evaluation der Ergebnisse

Suchdienste und Informationsquellen URL
Bielefeld Academic Search Engine (BASE) http://base.ub.uni-bielefeld.de/de/index.php
Education Resources Information Center (ERIC) http://www.eric.ed.gov
Literaturdatenbank Berufliche Bildung (LDBB) http://ldbb.bibb.de
Deutscher Bildungsserver (beim DIPF) http://www.bildungsserver.de
Fachinformationssystem Bildung (FIS) http://www.fis-bildung.de
Google Scholar http://scholar.google.de
Directory of Open Access Journals (DOAJ) http://www.doaj.org
OAIster Database http://www.oclc.org/oaister/
Scientific Commons http://www.scientificcommons.org/
Scirus (Elsevier) http://www.scirus.com

Tab. 7: Wissenschaftliche Suchdienste und Informationsquellen

?

Recherchieren Sie zum Einsatz von Wikis im Primarunterricht (auf deutsch und englisch).

Nach Sichtung des Rechercheergebnisses werden relevante von weniger relevanten Nachweisen getrennt und je nach Umfang und Relevanz der Treffer das Thema gegebenenfalls eingegrenzt oder erweitert. Die Sichtung der indexierten Schlagwörter in den Datensätzen kann die Suchstrategie optimieren (ähnlich der Google-Option „more like this“). Auch ein Blick ad hoc in das Literaturverzeichnis von (Online-) Monografien oder Zeitschriften kann den einen oder anderen relevanten Nachweis zu Tage fördern. Qualitative Kriterien wie das Renommee der Verfasser/innen, eine Institutionszugehörigkeit oder eine Publikation, die ein besonderes Begutachtungsverfahren durchlaufen hat (so genannter referierter Beitrag) erleichtern die Bewertung des Rechercheergebnisses. Das Ausfindigmachen von „Zitationszirkeln“ erleichtert die Identifikation einschlägiger Artikel. Beiträge in Impact-Faktor-Zeitschriften sind meist einschlägiger als Beiträge in Zeitschriften ohne Impact-Faktor.

Literatur und Information

Weiterverarbeitung

Abschließend werden Literaturlisten gespeichert und in Literaturverwaltungsprogramme wie beispielsweise „Endnote“ oder „Bibliographix“ importiert. Wenn möglich, sollte der Verlauf von Suchanfragen (Search History) gespeichert werden. Einige Datenbanken bieten zudem so genannte Alerting- oder Profildienste an, bei denen über ein hinterlegtes Suchprofil regelmäßig über Neuzugänge informiert wird.

Literatur und Information

Digitale Werkzeuge zum Speichern und Wiederfinden gefundener Informationen

Wer sich mit einem Thema intensiver beschäftigt und dazu in verschiedenen Quellen – vielleicht mehrmals über einen längeren Zeitraum verteilt – recherchiert, steht vor einem Problem: Wie behalte ich den Überblick über alles, was ich bisher gefunden habe? In kürzester Zeit haben sich ein Stapel Ausdrucke und vielleicht Fotokopien, einige Bookmarks in meinem Browser, einige handschriftliche Notizen, sowie noch ein paar Quellen und Zitate, die ich in eine Textdatei kopiert habe, angesammelt. Aber was davon war wichtig, was ist für welchen Abschnitt der Arbeit, an der ich sitze, relevant? Und wie zeige oder gebe ich jemandem, mit dem ich zum Beispiel die Arbeit zusammen schreiben will, was ich bisher gefunden habe? Probleme dieser Art sind jedem vertraut, der schon einmal eine wissenschaftliche Hausarbeit oder einen Zeitschriftenaufsatz geschrieben hat.

Einige digitale Werkzeuge können, richtig ausgewählt und eingesetzt, beim Speichern und Wiederfinden der bereits gefundenen Informationen hilfreich sein. Das Material, mit dem wir heute meist arbeiten, sind Dateien und URL aus dem Web; erfahrungsgemäß finden wir immer mehr von dem, was wir suchen, als Volltext oder als Multimedia-Objekt im Netz. Und wenn nicht, dann finden wir zumindest eine URL, in der das jeweilige Objekt (zum Beispiel das gedruckte Buch oder der Aufsatz aus einer gedruckten Zeitschrift) beschrieben wird, sodass wir anhand dieser URL das eigentliche Objekt später finden, wieder zuordnen oder zitieren können (Heller, 2007; Hull et al., 2008).

!

Ein interessantes Beispiel für eine Verabredung dieser Art im großen Maßstab ist Peter Subers „Open Access Tagging Project“ - http://oad.simmons.edu/oadwiki/ OA_tracking_project

!

Weiterführende Beiträge und Links zu den Kapiteln dieses Lehrbuchs werden bei Mister Wong gesammelt. Recherchieren Sie dort beispielsweise einmal zu den Schlagworten #literatur und #l3t – oder zu einem anderen Kapitel des Lehrbuchs.

Social Bookmarking

Mit Social-Bookmarking-Diensten wie Delicious ist es möglich, URLs (also Adressen von Websites) unter einem persönlichen Konto online zu verwalten.

Die Bookmarks landen also nicht auf der eigenen Festplatte, sondern auf dem Server der anbietenden Dienste. Kennzeichnende Eigenschaften von Delicious und inzwischen zahlreichen weiteren Social-Bookmarking-Diensten sind:

!

Ausgewählte Social-Bookmarking-Dienste:

In der Praxis: Literaturverwaltung mit Zotero

Zotero (http://www.zotero.org) startete als kostenlose Erweiterung des Browsers Mozilla. Mittlerweile ist Zotero aber auch für die Browser Chrome und Safari als auch als eigenständiges Softwarepaket für Mac verfügbar. Wenn Zotero installiert und eine Seite im Browser geladen ist, auf der bibliographische Angaben erkannt worden sind, signalisiert Zotero das automatisch durch ein Symbol, das in der Adresszeile des Browsers erscheint; um die Angaben in die eigene Literaturliste zu übernehmen, reicht das Anklicken des jeweiligen Symbols.

Diese sehr einfache, in den Browser integrierte Übernahme von Quellenangaben funktioniert für: Aufsätze in zahlreichen Zeitungen und Journals, Videos (zum Beispiel von YouTube), Wikipedia-Artikel und deren Literaturverzeichnisse, viele Weblogbeiträge, Artikel in Digitalisate-Archiven wie JSTOR, Ergebnislisten aus Fachdatenbanken und Katalogen (zum Beispiel für den Worldcat und die Verbundkataloge zahlreicher deutscher Bibliotheksverbünde).

Zotero eignet sich ebenfalls dazu, PDF und andere Dateien auf der eigenen Festplatte zu verwalten, im Volltext durchsuchbar zu machen und sogar Bibliographie innerhalb von PDF-Dateien gut zu erkennen sowie wiederum in die eigene Literaturliste zu übernehmen.

Ein weiteres besonderes Merkmal von Zotero ist die Synchronisation von eigenen Listen mit einer Online-Komponente. Nach kostenloser Registrierung bei zotero.org (die zur Benutzung der Browsererweiterung als Literaturverwaltungs-Programm nicht erforderlich ist) ist es damit möglich, die eigenen Funde online sichtbar zu machen.

In der Praxis: Literaturverwaltung mit Citavi

Citavi (http://www.citavi.com) ist ein Literaturverwaltungsprogramm für Windows mit folgenden Besonderheiten: Die Benutzeroberfläche, auf der sich die eigene Literaturliste betrachten, bearbeiten und ergänzen lässt, ist besonders aufgeräumt und nahezu selbsterklärend. Vorbildlich ist die Wissensorganisation: Die Benutzer/innen werden dazu angeregt, Literaturlisten zu separaten „Projekten“ anzulegen (die Übernahme von Daten aus einem eigenen bereits vorhandenen Projekt ist natürlich ganz einfach), und können dann sehr leicht eine Art Mind Map anlegen, in der das Thema strukturiert wird. Die Verästelungen der Mind Map können jederzeit verändert und verschoben werden, jedes Zitat, jedes Exzerpt, jede Quelle, ja sogar jede eigene Idee kann in die Mind Map eingeordnet werden.

Obwohl Citavi noch ein junges Produkt ist, hat es sich im deutschsprachigen Raum als Literaturverwaltungsprogramm im Hochschulsektor etabliert. Citavi geht im Detail auf viele Sonderanforderungen von Wissenschaftsautorinnen und -autoren in bestimmten Fächern ein: Deutsche Juristinnen und Juristen finden gut umgesetzte juristische Quellentypen und Zitierweisen vor, Mathematiker/innen und Physiker/innen können sich über gelungene Optionen zur Unterstützung von BibTeX freuen. Schließlich ist festzustellen, dass Citavi zwar kostenpflichtig ist, aber eine kostenlose Version mit großem Funktionsumfang bietet, und damit die Hochpreispolitik traditioneller Literaturverwaltungs-Softwareanbieter/innen mit freundlicheren Konditionen kontert. Auf dieser Grundlage hat sich Citavi innerhalb weniger Jahre an zahlreichen Hochschulen im deutschsprachigen Raum verbreitet und steht dort unter einer Campus-Lizenz allen Hochschulangehörigen frei zur Verfügung.

!

Ausgewählte Social-Bookmarking-Dienste für Literatur:

Ein Szenario zu der im letzten Punkt angesprochenen ‚sozialen’ Seite von ‚Bookmarking-Diensten’: Es kann auf einen Blick erkannt werden, ob eine ganz spezielle Quelle, die gefunden wurde, auch schon in der Bookmarkliste anderer Nutzer/innen vorkommt. Wenn das so ist, stöbert man vielleicht kurz in deren Bookmarks, denn vielleicht haben diese noch mehr gefunden, was auch für die derzeitige Recherche von Belang sein könnte. Man kann hier von einem „sozialen Entdecken“ sprechen.

Ein weiteres Szenario: Ein Thema interessiert Nutzer/innen und eine begrenzte Gruppe weiterer Personen. Sie verabreden sich, alle Fundstücke zu diesem Thema mit einem bestimmten ‚Tag’ zu versehen. So können sie einfach und schnell darüber auf dem Laufenden bleiben, welche neuen Informationen gefunden worden sind.

Eine Grenze von den eben vorgestellten ‚Bookmarking-Diensten’ besteht darin, dass nur URL (gegebenenfalls in Kombination mit Seitentitel, Textstellen, Exzerpten und Tags) gespeichert werden können. Zum wissenschaftlichen Zitieren benötigt man darüber hinaus fast immer einen Autor/innen-Namen, ein Veröffentlichungsjahr und häufig auch noch weitere Angaben (bei einem Aufsatz zum Beispiel Name und Ausgabe des Journals, in dem der Aufsatz veröffentlicht wurde). Eine Reihe von ‚Social-Bookmarking-Diensten’ wurde dazu ins Leben gerufen.

CiteULike bietet beispielsweise über die oben genannten Funktionen von ‚Bookmarking-Diensten’ hinaus Folgendes an:

Zum letztgenannten Punkt ist jedoch einschränkend hinzuzufügen, dass CiteULike nicht so populär ist wie Delicious – zum anregenden „sozialen Navigieren“ dürfte sich der Klassiker der Social-Bookmarking-Dienste daher immer noch besser eignen. Man kann übrigens beide Dienste gut parallel verwenden, da auch eine Synchronisierung der „einfachen Bookmarks“, zum Beispiel von Delicious nach CiteULike, möglich ist.

!

Ausgewählte Literaturverwaltungssoftware:

Literaturverwaltung: Werkzeuge zur Quellen- und Dokumentenverwaltung

Bereits seit den 1980er-Jahren gibt es Literaturverwaltungsprogramme für PC. Die Grundfunktionen von Literaturverwaltung waren und sind (Fenner, 2010):

Kennzeichnendes Merkmal einer modernen Literaturverwaltungssoftware ist, dass es nicht mehr erforderlich ist, bewusst einen bestimmten Zitierstil anzuwenden – die richtige Anordnung der bibliographischen Angaben übernimmt die Literaturverwaltungs-Software vielmehr automatisch im Hintergrund. Per Knopfdruck können einfach verschiedene Zitierstile nacheinander durchprobiert werden; fortgeschrittene Benutzer/innen können die vorhandenen Zitier- und Literaturverzeichnis-Stile sogar manuell anpassen.

Aus dem großen Markt der Literaturverwaltungssoftware werden zwei Programme vorgestellt (siehe Box „### In der Praxis“ auf der vorherigen Seite).

Persönliches Informationsmanagement: Eine kleine Auswahl weiterer digitaler Werkzeuge

Die oben angesprochene Volltextsuche in eigenen Textdateien, abgespeicherten PDF-Dokumenten etc. möchte man kaum mehr missen, wenn man sich erst einmal an sie gewöhnt hat. Mittlerweile verfügen die verbreiteten Endanwender/innen-Betriebssysteme über eine sehr brauchbare integrierte Volltextsuche (Apple Mac OS X sowie iOS 4: Spotlight; Windows Vista sowie Windows 7: Windows Search). Daneben gibt es weitere kostenlos nachrüstbare Volltextsuchen, wie beispielsweise:

Mittlerweile existieren zahlreiche Programme wie Dropbox oder Skydrive (www.dropbox.com; www.skydrive.com), mit denen sich Verzeichnisse auf der eigenen Festplatte im Hintergrund mit einem persönlichen Konto bei den jeweiligen Dienstanbieter/innen synchronisieren lassen. Wer auf mehreren Rechnern (oder mobilen Endgeräten) arbeitet, hat so die Gewissheit, stets alle gespeicherten PDF oder eigene Textdateien in ihrer aktuellen Version zur Verfügung zu haben. Neben der Synchronisation lösen Werkzeuge dieser Art auch weitgehend das Problem des „Mitnehmens“ (Wie leicht verliert man einen USB-Stick?) und des Backups relevanter persönlicher Daten. Dort, wo die entsprechende Software nicht installiert ist, kann man auf die Daten über einen Browser zugreifen. Auch ein Teilen von Daten mit anderen Benutzerinnen und Benutzern des jeweiligen Dienstes ist möglich. Meistens werden 2 GB kostenlos zur Verfügung gestellt; größere Pakete kann man gegen eine monatliche Gebühr hinzubuchen.

Literatur und Information

Nutzen und Grenzen von Suchmaschinen

Für den immensen Erfolg von Suchmaschinen im digitalen Zeitalter gibt es mehrere Gründe. Zum Einen ist dies auf die denkbar einfache Bedienung zurückzuführen. Auf der Startseite mit der Einfach-Suche steht ein Suchfeld zur Verfügung, über das nach Eingabe eines Suchbegriffs der gesamte Index durchsucht werden kann. Zum Anderen sorgen minimale Antwortzeiten und eine umfassende Trefferauflistung für einen (subjektiven) Rechercheerfolg. Es ist wichtig zu wissen, dass der Suchmaschinen-Tycoon Google über Jahre hinweg einen Anteil von über 90 Prozent auf dem deutschen Suchmaschinenmarkt hat – in Frankreich oder Spanien ist er noch höher – und damit faktisch vorgibt, was wir im Netz überhaupt finden können. Suchergebnisse des Konkurrenten Yahoo werden im Übrigen seit August 2011 von Microsoft (Bing) zur Verfügung gestellt. Bei wissenschaftlichen Informationsrecherchen mit Hilfe von Suchmaschinen ist jedoch Vorsicht geboten:

Nicht unerwähnt bleiben sollte ein in den Informationswissenschaften bekanntes Phänomen (‚Serendipity’, Hull et al., 2008), das Suchenden bei Google oder Yahoo sicherlich schon widerfahren ist: Im Zuge einer Recherche stößt man unbeabsichtigt auf ein Informationsjuwel, einem äußerst interessanten Treffer, der sich als glücklicher Zufall und überraschende Entdeckung zugleich von etwas ursprünglich nicht Gesuchtem erweist.

In der Praxis

Im Sommer 2013 standen die Enthüllungen des IT-Experten Edward Snowden wochenlang im Fokus der politischen Berichterstattung. Der ehemalige Mitarbeiter des US-Geheimdienstes NSA hatte die Internetüberwachung der NSA öffentlich gemacht. Das Programm mit dem Codenamen PRISM diente demnach dem massenhaften Sammeln und Speichern von Telefon- und Email-Verdindungsdaten mit dem Ziel der Auswertung. Betroffen sind hier Google, Facebook & Co., die offensichtlich mit dem Geheimdienst kooperierten. Manche halten die Empörung hierüber für überzogen, der Suchmaschinenverein (SUMA) hingegen spricht von ‚Überwachungsmaschinerie‘ und ‚Internet-GAU‘. Die EU arbeitet an einem neuen europäischen Datenschutzabkommen, wonach US-Konzerne wie Google, Microsoft, Apple oder Facebook Strafen bis zu zwei Prozent des weltweiten Jahresumsatzes drohen, sollten sie künftig Daten von EU-Nutzerinnen und -Nutzern an die US-Behörden weiterreichen (Kölnische Rundschau, 2013). Suchende im Netz haben schon jetzt Alternativen: Statt Google empfiehlt sich die Suche mit Startpage (startpage.com) – eine anonyme Google-Suche über Proxy-Server. Den Betreibern zufolge werden keine IP-Adressen, Suchanfragen oder Tracking-Cookies gespeichert. Gleiches gilt für die Metasuchmaschine Ixquick (vom selben Betreiber) sowie das deutsche Flaggschiff unter den Metasuchmaschinen Metager. Metager arbeitet zurzeit an einer objektiven Verbesserung seines Treffer-Rankings – ein Grund mehr, dieser Metasuchmaschine den klassischen Anbietern wie Google und Yahoo/ Bing mit ihren nicht gerade einfach nachvollziehbaren Ranking-Algorithmen den Vorzug zu geben.

Nutzen und Grenzen von wissenschaftlichen Suchdiensten

Ende 2004 brachte Google seinen wissenschaftlichen Suchdienst Google Scholar in der deutschen Version auf den Markt. Erklärtes Ziel ist die Unterstützung der Scientific Community beim Auffinden wissenschaftlicher Arbeiten. Die oben beschriebenen Mängel sollen unter anderem dadurch kompensiert werden, indem a priori nur wissenschaftlich relevante Inhalte indiziert werden. Google Scholar versucht, die in einem Fachbeitrag zitierte Fachliteratur zu erkennen und als solche suchbar zu machen. Die Ergebnisse werden gemäß dem Page-Ranking von Google und der Zitationshäufigkeit aufgelistet. Google Scholar durchsucht zahlreiche wissenschaftliche Server, wobei auch Volltexte kostenpflichtiger Dokumente kommerzieller Anbieter durchsucht werden. Wie hoch der Anteil der durch Google Scholar erfasste Teil wissenschaftlicher Publikationen im Netz ist, aus welchen Fachgebieten sie stammen und welcher Aktualisierungszyklus zugrunde liegt, kann nicht genau verifiziert werden. In einer Untersuchung an der Uni Karlsruhe (Mönnich & Handreck, 2008) wurden die Ergebnisse von Literaturrecherchen in Fachdatenbanken zu vier Themengebieten aus dem Fächerangebot einer deutschen Universität mit den Ergebnissen von Google Scholar verglichen und unter dem Aspekt der Relevanz bewertet. Die Wissenschaftler/innen ziehen das Fazit, „dass trotz der erheblichen inhaltlichen Defizite anzunehmen ist, dass der Nutzerkreis von Google Scholar weiter zunehmen wird“. Für den Einstieg in eine Thematik oder eine ergänzende Nachrecherche ist Google Scholar in jedem Fall nützlich, auch wenn die bei Fachdatenbanken selbstverständliche Transparenz bei der Quellenauswertung und deren Qualität der bibliographischen Daten weitgehend fehlt. In früheren Untersuchungen (Mayr & Walter 2007; 2008) bemängeln die Verfasser/innen, dass Open-Access-Journals der Untersuchung zufolge bei Google Scholar unterrepräsentiert, manche Ergebnisse nicht sehr aktuell seien und nach wie vor das ‚alte Manko unklarer Quellen‘ bestehe.

Literatur und Information

Fazit

Die Nutzung konventioneller Datenbanken, Informationssysteme und Portale sowie der Errungenschaften der Web-2.0-Ära wie Blogs und Wikis ist ein wichtiger und unverzichtbarer Bestandteil wissenschaftlicher Arbeit im 21. Jahrhundert geworden. Dabei ist der Aufwand, der betrieben werden muss, um aktuelle Literatur, Trends und Entwicklungen einer Disziplin aufzuspüren und zu verfolgen, relativ gering. Dies gilt auch für die professionelle Verwaltung und das Management recherchierter Fachliteratur. Die oben vorgestellten digitalen Werkzeuge erleichtern auf lange Sicht die Arbeit ungemein. Gerade die interdisziplinär angelegte Medienpädagogik und -didaktik, deren Gegenstand ja gerade diese Technologien sind, sollte sich dieser Werkzeuge und Techniken selbstverständlich bedienen.

Literatur und Information

Literatur

Die „Netzgeneration“

Empirische Untersuchungen zur Mediennutzung bei Jugendlichen

In diesem Kapitel wird das Konzept der „Netzgeneration“ vorgestellt und kritisch beleuchtet. Im ersten Abschnitt werden die zentralen Aussagen der Verfechterinnen und Verfechter einer „Netzgeneration“ dargelegt. Im zweiten Abschnitt wird die Kritik an diesem Konzept aufgeführt, mit dem zentralen Ergebnis, dass die Behauptung der Existenz einer „Netzgeneration“ einer wissenschaftlichen Überprüfung nicht standhält. Das Bild der „Netzgeneration“ oder sogenannter „Digitaler Eingeborener“ als Bezeichnung für die heutigen Kinder und Jugendlichen wurde zwar breit rezipiert und hat den Diskurs um neue Lern- und Lehrformen stark beeinflusst, muss in seiner verallgemeinert-pauschalen Form aber als Mythos bezeichnet werden. Ein Überblick über zentrale Ergebnisse empirischer Studien zum Medien(nutzungs)verhalten von Kindern und Jugendlichen im dritten Abschnitt liefert entsprechend ein sehr viel differenzierteres Bild. Im vierten Abschnitt wird aufgezeigt, welche Konsequenzen diese Ergebnisse für das Bildungssystem allgemein und für das Lehren und Lernen mit Technologien im Besonderen haben, jenseits der Pauschalforderungen der Propagandisten und Propagandistinnen einer „Netzgeneration“. Eine Aufzählung zentraler Erkenntnisse im fünften Abschnitt rundet das Kapitel ab.

Die „Netzgeneration“

Das Konzept einer „Netzgeneration“ – zentrale Aussagen

Seit mehr als zehn Jahren wird von verschiedenen Autorinnen und Autoren das Konzept einer „Netzgeneration“ geprägt (zum Beispiel Tapscott, 1997; Prensky, 2001; Paloff & Pratt, 2003; Oblinger & Oblinger, 2005). Weitere greifen das Konzept im Zusammenhang mit eigenen Ausführungen zustimmend auf (für eine ausführlichere Übersicht Schulmeister, 2009, 36-37). Die Begrifflichkeiten und die Verwendung des Konzepts sind im Detail unterschiedlich, allen gemeinsam sind jedoch die folgenden Thesen:

Am stärksten rezipiert wurde Marc Prensky (2001), der die Thesen der „Netzgeneration“ zusätzlich mit dem plakativen Bild der ‚digitalen Eingeborenen‘ (engl. ‚digital natives‘) für die heutigen Kinder und Jugendlichen beziehungsweise den ‚digitalen Einwanderern und Einwanderinnen‘ (engl. ‚digital immigrants‘) für die – älteren – Erwachsenen belegt: Die „digitalen Eingeborenen“ bewegten sich mühelos und kompetent wie ‚Muttersprachler/innen‘ in einer digitalen Welt der Computer, Videospiele und Internettechnologien. Die ‚digitalen Einwanderer und Einwanderinnen‘ hingegen, ohne Computer und Internet aufgewachsen, würden zeitlebens „mit Akzent“ sprechen, das heißt, im Umgang mit den digitalen Technologien immer Anpassungsschwierigkeiten haben und weniger kompetent agieren. Zur Unterfütterung seines Bildes beruft Prensky sich zusätzlich auf neurobiologische Erkenntnisse, die vermeintlich ergeben hätten, dass Kinder und Jugendliche heute Informationen komplett anders verarbeiten und ihr Gehirn sich daher bereits auch physisch verändert habe.

Dieses zugegebenermaßen wirkmächtige Bild ist besonders häufig in der mediendidaktischen Diskussion als Argument genutzt worden, digitale Technologien, vor allem neue Webtechnologien, in Lehr- und Lernsettings einzuführen.

Neben den zuvor skizzierten wird das Bild der „Netzgeneration“ zudem noch mit meist positiven Zuschreibungen an die Kinder und Jugendlichen auf der psychischen und sozialen Ebene dieser Generation verbunden. Tapscott (1997) beispielsweise beschreibt die Kinder der „Netzgeneration“ als besonders neugierig und aufnahmefähig, offen gegenüber ethnischen Minoritäten und selbstbewusster als frühere Generationen. Oblinger und Oblinger (2005) heben hervor, dass diese Kinder und Jugendlichen schnelle Reaktionszeiten hätten und diese auch von anderen erwarten, stärker visuell orientiert seien, Multitasking beherrschen würden, Interaktivität und Entdeckungen beim Lernen suchen. Wiederum andere interpretieren die Konsequenzen des mediengeprägten Alltags weniger positiv und vermuten Aufmerksamkeitsstörungen und andere negative Auswirkungen (zum Beispiel Opaschowski, 1999).

Manfred Dworschak schreibt im Spiegel 31/2010: "Schulmeister, ein Experte für digitale Medien im Unterricht, muss es wissen: Er hat sich gerade durch mehr als 70 einschlägige Studien aus aller Welt geackert. Auch er kommt zu dem Schluss, dass das Internet keineswegs die Herrschaft über die Lebenswelt übernommen habe. ‚Nach wie vor machen die Medien nur einen Teil der Freizeitaktivitäten aus‘, sagt er, ‚und das Internet ist nur ein Medium unter anderen. Für Jugendliche ist es immer noch wichtiger, Freunde zu treffen oder Sport zu treiben.‘

Was ist nun dran am Bild der „Netzgeneration“? Auf welcher empirischen Basis beruht das Konzept? Deckt es sich mit den Ergebnissen aktueller Studien zum Mediennutzungsverhalten von Kindern und Jugendlichen? Die wissenschaftliche Debatte um den Wahrheitsgehalt des Konzepts der „Netzgeneration“ ist Gegenstand des folgenden Abschnitts.

Die „Netzgeneration“

Mythos „Netzgeneration“ – zentrale Kritikpunkte am Konzept

Um das zentrale Ergebnis vorweg zu nehmen: Die ‚Netzgeneration‘ kann einer wissenschaftlichen Überprüfung nicht standhalten. Sie erweist sich bei genauerer Betrachtung als unzulässige, stark überzeichnete Generalisierung der Eigenschaften einzelner Subgruppen heutiger Kinder und Jugendlicher (Bennett et al., 2007). Die Kritik am Konzept der „Netzgeneration“ liegt dabei auf verschiedenen Ebenen. Im deutschsprachigen Raum hat sich Rolf Schulmeister (2009) mit einer mehrfach aktualisierten Internet-Publikation detailliert der Kritik gewidmet. Im Wesentlichen werden folgende Punkte kritisiert (für eine detailliertere Darstellung der Kritikpunkte Schulmeister, 2009):

Empirische Datengrundlage fehlt: Betrachtet man die empirische Basis der Kernaussagen des Konzepts der „Netzgeneration“, wird schnell deutlich, dass die Aussagen nicht gemäß wissenschaftlicher Standards empirisch abgesichert sind. Die Beschreibungen basieren auf Einzelbeobachtungen und anekdotischer Evidenz, nutzen also grundsätzlich nur sehr kleine Fallzahlen und beziehen sich überwiegend auf die US-amerikanische weiße Mittelschicht. Die Ergebnisse können daher in keiner Weise als repräsentativ für eine ganze Alterskohorte gesehen werden. Die Kernaussagen zur „Netzgeneration“ sind daher vielmehr unzulässige Verallgemeinerungen.

Jugendliches Mediennutzungsverhalten ist differenzierter: Betrachtet man den Mediengebrauch und die Medienkompetenz differenzierter, ergibt sich ein anderes Bild: Die vermeintlich einheitliche „Netzgeneration“ zerfällt in vielfältige Subgruppen, die ganz unterschiedliche Nutzungsgewohnheiten, Kenntnisse und Kompetenzen haben. Außerdem hebt die weite allgemeine Verfügbarkeit digitaler Technologien nicht zwangsläufig soziale Unterschiede auf (siehe zum Beispiel BMBF, 2010; Livingstone & Haddon, 2009; Palfrey & Gasser, 2008). Aktuelle empirische Studien zum Medien(nutzungs)verhalten zeigen komplexere Aufteilungen und belegen Unterschiede in Zugang und Nutzungsart in Abhängigkeit von soziokulturellen Parametern (vergleiche zum Beispiel EU Kids Online, 2009; JIM-Studie, 2009; ARD/ZDF-Onlinestudie, 2009; Treumann et al., 2007). Die in repräsentativen empirischen Studien belegte Diversität des Medienhandelns, der vorhandenen Kompetenzniveaus und der Nutzungsarten wird in Abschnitt 3 skizziert.

Argumentation ist von technologischem Determinismus durchzogen: Die Verfechterinnen und Verfechter der „Netzgeneration“, insbesondere Prensky (2001), argumentieren, dass die behaupteten Formen des Medienhandelns und der Eigenschaften der Kinder und Jugendlichen der „Netzgeneration“ unmittelbar aus dem Vorhandensein der digitalen Technologien und dem selbstverständlichen Umgang damit resultieren. Hier scheint eine Argumentationsfigur des technologischen Determinismus auf: Die Technologien scheinen quasi unabhängig von den handelnden Subjekten eine Kraft und eigenmächtige Wirkung auf die Mitglieder der sogenannten „Netzgeneration“ zu entfalten. Dass Mediennutzung immer soziales Handeln ist, das von verschiedenen soziokulturellen Faktoren beeinflusst wird und in einem komplexen Zusammenspiel von Subjekt und Technologien entsteht, wird ignoriert. Damit werden alle Erkenntnisse zu Sozialisationsprozessen einerseits und zur sozialen Konstruiertheit von Technologien andererseits nicht berücksichtigt. Technologien scheinen menschliches Handeln eindimensional zu bestimmen. Dieser Determinismus steht im krassen Widerspruch zur Komplexität menschlichen Handelns allgemein und der Medienaneignung im Speziellen (auch Buckingham, 2006).

!

Das Konzept der „Netzgeneration“ hat keine empirische Basis, die einer wissenschaftlichen Überprüfung standhält. Das Mediennutzungsverhalten der jüngeren Generation ist wesentlich diverser, als es das Konzept der „Netzgeneration“ nahe legt. In der Argumentation zur Begründung der „Netzgeneration“ wird die Komplexität menschlichen Handelns unzulässig reduziert: Es scheint, dass Technologien das Handeln der Menschen einseitig bestimmen könnten. Im Gegensatz dazu weiß man aber aus der Sozialisationsforschung, dass zahlreiche soziokulturelle Faktoren das Mediennutzungsverhalten beeinflussen und dass Medienhandeln immer komplexes soziales Handeln mit Technologien ist, die ihrerseits sozial konstruiert sind.

Die „Netzgeneration“

Ergebnisse empirischer Studien – ein weitaus differenzierteres Bild

Hier sollen vier neuere, repräsentative Studien herangezogen werden, um die Diversität innerhalb der Mediennutzung unter den Jüngeren zu belegen: EU Kids Online (2009), JIM-Studie (2012), ARD/ZDF-Onlinestudie (2009) und die Studie zum Medienhandeln Jugendlicher von Treumann et al. (2007). Diese Studien beleuchten unterschiedliche Aspekte zum Medienhandeln und Mediennutzungsverhalten, unterscheiden sich in Anlage und Detailzielen und entsprechend auch in den Ergebnissen. Sie belegen aber dennoch deutlich, dass das Bild der „Netzgeneration“ mit der pauschalen Vermutung eines einheitlichen und kompetenten Medienhandelns und einer ebensolchen Mediennutzung nicht aufrecht zu erhalten ist.

ARD/ZDF-Onlinestudie 2009

Die ARD/ZDF-Onlinestudie 2009 zeigt zwar, dass sich das Mediennutzungsverhalten der unter 30-Jährigen stark von dem der darüber liegenden Altersgruppen unterscheidet, aber dass die Gruppe der unter-30-Jährigen dennoch mindestens in zwei verschiedene Subgruppen zerfällt: Unter Rückgriff auf die Typologie der Mediennutzer/innen der MNT-Justierungsstudie 2006 werden die Subgruppen „Junge Wilde“ und „Zielstrebige Trendsetter“ unterschieden, deren Medienhandeln in zahlreichen Bereichen Differenzen aufweist. Diese können durch verschiedene Bedürfnis- und Interessenlagen, Bildungsniveaus und lebensweltliche Rahmenbedingungen erklärt werden (Oehmichen & Schröter 2009).

Es zeigen sich deutliche inhaltliche Unterschiede bei der Nutzung von Online-Informationsangeboten (zum Beispiel Nachrichtendienste: „Zielstrebige Trendsetter“ 51 % gegenüber „Junge Wilden“ 37%), aber auch Differenzen bei der aktiven Nutzung bestimmter Online-Anwendungen wie zum Beispiel beruflicher Netzwerke (Abb. 3).

Abb. 1: Anteil der Internetnutzenden unter den 6- bis 17-Jährigen in der EU
Abb. 1: Anteil der Internetnutzenden unter den 6- bis 17-Jährigen in der EU
Abb. 2: Inhaltliche Verteilung der Internetnutzung von 12- bis 19-Jährigen in Deutschland in Prozent (N=1.173)
Abb. 2: Inhaltliche Verteilung der Internetnutzung von 12- bis 19-Jährigen in Deutschland in Prozent (N=1.173)
Abb. 3: Aktive Nutzung von Onlineanwendungen von Internetnutzenden ab 14 Jahre in Deutschland
Abb. 3: Aktive Nutzung von Onlineanwendungen von Internetnutzenden ab 14 Jahre in Deutschland

Oehmichen und Schröter (2009, 449) fassen die Unterschiede zwischen den Gruppierungen auf der Basis der ARD/ZDF-Onlinestudie wie folgt zusammen: „Dem eher bildmedien-, spaß- und unterhaltungsorientierten Typus des Jungen Wilden steht der rationaler gestimmte, erheblich breiter interessierte MedienNutzerTyp des Zielstrebigen Trendsetters gegenüber. Zugespitzt könnte man dem eher passiv-konsumistischen Mediennutzungsstil der Jungen Wilden einen aktiveren, Mitgestaltung einschließenden Stil der Zielstrebigen Trendsetter gegenüber stellen“.

Abb. 4: JIM-Studie 2012 - Soziodemografie
Abb. 4: JIM-Studie 2012 - Soziodemografie

Auch die JIM-Studie zeigt im Bereich von Computer- und Internetnutzung ein differenziertes Gesamtbild: Alter, Geschlecht und Bildungsgrad führen zu Unterschieden im Nutzungsverhalten. Zum einen variiert die Ausstattung beziehungsweise der Zugang der Jugendlichen leicht je nach Bildungsniveau und Geschlecht. Unterscheidet man zum Beispiel den Hauptzweck der jugendlichen Internetnutzung, zeigen sich klare Differenzen zwischen Mädchen und Jungen: „Jungen und junge Männer verwenden jede vierte Minute im Internet auf Spiele, bei den Mädchen und jungen Frauen ist es nur jede zwölfte. Dafür fällt bei den weiblichen Internetnutzern der kommunikative Anteil der Onlinenutzung um zehn Prozentpunkte höher aus“ (Medienpädagogischer Forschungsverbund Südwest, 2009, 33).

EU Kids Online 2009

In der Studie EU Kids Online 2009 (Livingstone & Haddon, 2009) werden die Internetnutzung sowie die dadurch entstehenden Risiken für Kinder und Jugendliche europaweit verglichen. Hier zeigen sich erhebliche Unterschiede zwischen den einzelnen Ländern, zum Beispiel in der Anzahl der Internetnutzenden unter den 6- bis 17-Jährigen (siehe Abb. 1). Zusätzlich wurden zahlreiche Ungleichheiten in Abhängigkeit von Alter, Geschlecht und sozioökonomischem Status festgestellt (Zimic, 2009).

Studie zum Medienhandeln Jugendlicher von Treumann et al. (2007)

Auch diese Studie zum Medienhandeln kommt zu einem ausdifferenzierten Gesamtbild: Generalisierungen auf eine ganze Alterskohorte sind nach dieser Studie ebenfalls nicht angebracht, Kompetenzen und Qualifikationen im Medienhandeln variieren erheblich. Die Studie legt das Medienkompetenzmodell von Dieter Baacke (1999) mit den Komponenten Medienkunde, Mediennutzung, Medienkritik und Mediengestaltung zugrunde, wobei die Studie sich nicht auf Computer- oder Internettechnologien beschränkt, sondern klassische wie digitale Medien einbezieht. Die Unterschiede kommen unter anderem in einer Typologie zum Ausdruck, die sieben verschiedene Typen beinhaltet. Diese unterschieden sich hinsichtlich ihrer Medienpräferenzen, ihrer Medienkompetenz in den verschiedenen Bereichen des Medienkompetenzmodells sowie ihren Nutzungsmotiven. Die Studie wählt folgende Kurzcharakterisierungen und gibt ihre prozentuale Verteilung unter den befragten Jugendlichen an: Bildungsorientierte (20,4%), Positionslose (20,3%), Konsum- (17,4%) bzw. Kommunikationsorientierte (19,1%). Allrounder/innen (12%), Deprivierte (7,8%) sowie Gestalter/innen (3,1%).

Internetnutzung von Vorschulkindern (Saferinternet.at, 2013)

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

In Österreich nutzen 41% der Kinder zwischen 3 und 6 Jahren regelmäßig das Internet (Fotos und Videos ansehen). 52% dieser Altersgruppe waren zumindest schon einmal im Netz. Die durchschnittliche Zeit beträgt eine Stunde pro Woche (Saferinternet.at, 2013): „Die Zeit, welche die Mädchen und Buben im World Wide Web verbringen, steigt mit der Internetaffinität der Eltern. ... Die am häufigsten genutzten Geräte sind Computer bzw. Laptop (34 Prozent), Spielkonsolen (14 Prozent), Smartphones der Eltern (elf Prozent) und Tablet-Computer (sechs Prozent).

Die beliebteste Online-Aktivität ist Spielen – 34 Prozent der Drei- bis Sechsjährigen tun es zumindest ab und zu, gefolgt von Fotos Ansehen (33 Prozent), Videos Ansehen (27 Prozent), Musik Hören (24 Prozent), Zeichnen (20 Prozent) und Surfen (zwölf Prozent).”

Die „Netzgeneration“

Konsequenzen für das Lehren und Lernen mit Technologien – Diversität unterstützen

Das Bild der „Netzgeneration“ wurde zahlreich als Begründung für neue Lehr- und Lernsettings mit Technologien genutzt. Was bedeutet die Erkenntnis, dass die generalisierende Annahme einer einheitlich kompetenten jüngeren Generation von Mediennutzerinnen und Mediennuntern nicht der Realität entspricht, nun für das Lernen und Lehren mit Technologien? Entfällt die Herausforderung für das Bildungssystem? Die Antwort ist eindeutig: Nein, die Herausforderung ist nur anders gelagert. Sie besteht nicht wie Prensky und andere argumentieren in der Notwendigkeit, digitale Medien in Lern- und Lehrarrangements zu integrieren, um den medienkompetenten Jugendlichen passende Lehrangebote zu machen. Sie besteht vielmehr darin, die Diversität der Kinder und Jugendlichen auch in puncto Mediennutzung anzuerkennen und die unterschiedlichen Einflussfaktoren wie Alter, Geschlecht, sozio-ökonomischer Status sowie Medienpräferenzen und vorhandene Medienkompetenzen in ihren unterschiedlichen Ausprägungen bei der Einführung von Technologien in Unterricht und Lehre hinreichend zu berücksichtigen und so passgenaue Angebote zu entwickeln. Für Jugendliche, die von Exklusion in der Mediengesellschaft bedroht sind, gilt es zusätzlich, geeignete Fördersysteme zu entwickeln (BMBF, 2010).

!

Diverse empirische Studien zum Mediennutzungsverhalten von Kindern und Jugendlichen belegen eine hohe Mediennutzung und ebenso einen weit verbreiteten Umgang mit verschiedenen Internetdiensten unter Kindern und Jugendlichen. Sie zeigen aber auch erhebliche Unterschiede in Nutzung und Gebrauch auf: Soziodemographische Daten wie Geschlecht, Bildungsabschluss, Einkommen beeinflussen Art und Zweck der Nutzung von Medien und speziell des Internets. Eine einheitliche „Netzgeneration“ belegen sie eindeutig nicht.

Die „Netzgeneration“

Zusammenfassung der zentralen Erkenntnisse

Abschließend noch einmal eine Zusammenfassung zentraler Erkenntnisse dieses Kapitels:

!

Weiterführende Literatur und andere Lernressourcen:

?

Recherchieren Sie im Detail die Ergebnisse einer aktuellen empirischen Studie zum Medienhandeln von Kindern und Jugendlichen. Halten Sie stichwortartig fest,

Tragen Sie Ihre Ergebnisse in einer Arbeitsgruppe zusammen und diskutieren Sie gemeinsam, welche Konsequenzen die Ergebnisse für die Gestaltung von Lern- und Lehrarrangements haben könnten. Wählen Sie dabei einen konkreten Praxiskontext aus einem Bildungsbereich, der Sie besonders interessiert

?

Recherchieren Sie bei einer Publikation, die das Vorhandensein einer „Netzgeneration” propagiert, die angegebene empirische Basis sowie die Methode der Erkenntnisgewinnung. Wird ein Forschungsdesign erkennbar? Welche Fallzahlen werden genannt? Wird ein einheitliches und systematisches Vorgehen transparent ausgewiesen?

Die „Netzgeneration“

Literatur

Multimedia und Gedächtnis

Kognitionspsychologische Sicht auf das Lernen mit Technologien

Multimediale Lerninhalte können motivierend, abwechslungsreich und anschaulich gestaltet werden. Damit diese auch lernförderlich sind und die Informationsverarbeitung unterstützen, sollte man berücksichtigen, wie unser Gedächtnis aufgebaut ist und funktioniert. In diesem Beitrag werden die wichtigsten kognitionspsychologischen Grundlagen des multimedialen Lernens dargestellt. Zunächst wird das Drei-Speicher-Modell des Gedächtnisses und die begrenzte Kapazität des Arbeitsgedächtnisses vorgestellt. Anschließend wird auf die Theorie der kognitiven Belastung näher eingegangen, welche sich in intrinsische, extrinsische und lernförderliche Belastung unterteilen lässt. Weitere beachtenswerte Bereiche unseres Arbeitsgedächtnisses sind die modalitäts- und kodalitätsspezifische Verarbeitung. Das bedeutet, dass unsere Informationsverarbeitung unterstützt werden kann, indem wir einerseits Informationen visuell und auditiv (Modalität) darstellen und andererseits neben Text auch Bilder einsetzen (Kodalität). Eine wichtige Rolle spielt dabei die Aufmerksamkeit. Hierbei sollte die Aufmerksamkeitssteuerung durch die Lernmaterialien so erfolgen, dass die Aufmerksamkeit nicht geteilt werden muss. Um dem Effekt der geteilten Aufmerksamkeit entgegenzuwirken, sollen Lernmaterialien zusammengehörig dargestellt werden. Basierend auf diesen Forschungsergebnissen ergeben sich verschiedene instruktionale Maßnahmen zur Gestaltung und Darstellung von Lernmaterialien. Dabei werden die Prinzipien zum multimedialen Lernen von Mayer (2009) vorgestellt.

Multimedia und Gedächtnis

Einleitung

Lerninhalte können multimedial aufbereitet und unterschiedlich repräsentiert werden: als Text, Bild, Animation oder Video, in Form von dynamischen Präsentationen, Audio oder in Tabellen, Diagrammen, Abbildungen und Simulationen. Dabei spielt die Darstellung und Gestaltung der Lernmaterialien für eine adäquate Informationsverarbeitung eine bedeutsame Rolle. Die kognitive Psychologie beschäftigt sich unter anderem mit der Informationsaufnahme, -speicherung und dem Informationsabruf. Diese Prozesse sind insbesondere für das Lernen relevant, da das Ziel beim Erwerb von Kenntnissen und Fähigkeiten die langfristige Speicherung und auch der Abruf dieser Informationen ist. Wie gut dabei die entsprechenden neuen Fähigkeiten abgespeichert werden, unterliegt bestimmten Bedingungen und Einschränkungen. Sie werden in diesem Kapitel die wichtigsten Grundlagen zum menschlichen Gedächtnis vermittelt bekommen. Außerdem lernen Sie die begrenzten kognitiven Kapazitäten des Arbeitsgedächtnisses und die Bedeutsamkeit von Kenntnissen menschlicher Informationsverarbeitung für die Gestaltung von Lernmaterialien kennen.

!

Das Gedächtnis ist für die Aufnahme, Verarbeitung sowie für das Speichern und Abrufen von Informationen zuständig.

Multimedia und Gedächtnis

Gedächtnisprozesse

Unser Gedächtnis unterteilt sich in verschiedene Bereiche. Prinzipiell ist es verantwortlich für die Aufnahme, die Enkodierung und Weiterverarbeitung von Informationen sowie für die Speicherung und langfristig auch für den Abruf relevanter Informationen.

Wir haben ein sensorisches Gedächtnis, ein Arbeitsgedächtnis und ein Langzeitgedächtnis. Dabei spricht man auch vom Drei-Speicher-Modell (Zimbardo & Gerrig, 2004, siehe Abbildung 1).

Abb. 1: Das Drei-Speicher-Modell des menschlichen Gedächtnisses
Abb. 1: Das Drei-Speicher-Modell des menschlichen Gedächtnisses

Informationen aus der Umwelt nehmen wir durch unsere Sinnesorgane auf. Hierbei spielen die Wahrnehmung dieser Informationen und Aufmerksamkeitsprozesse eine wichtige Rolle. Diese Informationen gelangen in einen kurzfristigen sensorischen Speicher, ins sogenannte sensorische Gedächtnis, welches die physikalischen Reize von außen kurzfristig behält. Wird diesen Informationen keine Aufmerksamkeit geschenkt, so gehen sie verloren. Da man davon ausgeht, dass wir sinnesmodalitätsspezifische Gedächtnissysteme haben (Baddeley, 2003), unterscheidet man zwischen ikonischem (visuellem) und echoischem (auditivem) Gedächtnis.

Nach dem sensorischen Gedächtnis gelangen die Informationen ins Arbeitsgedächtnis, unsere zentrale Verarbeitungsinstanz. Als Arbeitsgedächtnis wird jene Gedächtnisressource bezeichnet, welche für Aufgaben wie Schlussfolgern und Sprachverstehen zuständig ist. Baddeley (2003) unterscheidet diesen Gedächtnisbereich in drei weitere Bereiche, nämlich in ‚phonologische Schleife‘ (engl. ‚phonological loop‘), ‚visuell-räumlichen Notizblock‘ (engl. ‚visuo-spatial sketch-pad‘) und ‚zentrale Exekutive‘ (engl. ‚central executive‘). Der ‚visuell-räumliche Notizblock‘ ist für die Verarbeitung visuell-räumlicher Informationen zuständig, die ‚zentrale Exekutive‘ für das Denken, Schlussfolgern, Erinnern, Steuern, und die sogenannte ‚phonologische Schleife‘ ist verantwortlich für die Verarbeitung verbal-textlicher Informationen. Das Arbeitsgedächtnis besitzt nur begrenzte Kapazität und hat einen sehr kurzfristigen Behaltensspeicher. Um die Informationen adäquat weiterzuverarbeiten, bedarf es Maßnahmen, damit diese vollständig und richtig gespeichert werden können. Solche Maßnahmen können beispielsweise ‚Chunking‘ (Informationseinheiten gruppieren) und ‚Rehearsal‘ (Wiederholung) sein.

Das Langzeitgedächtnis ist für die dauerhafte Speicherung und für den Abruf von Informationen zuständig. Dieser Bereich ist gekennzeichnet durch eine maximale Kapazität und unbegrenzte Speicherdauer. Hier werden alle Erfahrungen, Informationen, Emotionen und Fertigkeiten gespeichert, die über das sensorische Gedächtnis und Kurzzeitgedächtnis angeeignet wurden. Bei der Informationsverarbeitung spielen unsere bisherigen Erfahrungen und Vorkenntnisse eine wesentliche Rolle und werden dazu verwendet, um neues, zu verarbeitendes Wissen im Arbeitsgedächtnis zu verknüpfen.

In der Praxis: 'Chunking'

Folgende Situation kommt sehr oft vor. Bei einem Telefongespräch teilt Ihnen Ihr/e Gesprächspartner/in eine Telefonnummer mit. Wie merken Sie sich diese Telefonnummer? Ihr/e Gesprächspartner/in am anderen Ende liest Ihnen folgende Ziffern vor: 06507939567845. Wie gehen Sie vor, damit Sie sich diese Nummer merken können? Jede Zahl einzeln oder jeweils zwei oder drei Zahlen zusammen? Probieren Sie Folgendes: Gruppieren Sie die Ziffern sinnvoll in Informationseinheiten. Also zum Beispiel: Die Vorwahl lautet 0650. Da erinnern Sie sich vielleicht an den Telefonanbieter und können diese Information schon einmal sehr gut mit Ihrem Vorwissen verknüpfen. Weitere Strategien können unterschiedlich sein, ob Sie sich die Ziffern wie folgt 793 956 784 oder als 79 39 56 784 merken. Auf alle Fälle gruppieren Sie die Ziffern und reduzieren dadurch die Informationen in sogenannte ‚Chunks‘, in Informationseinheiten. So können Sie sich die Nummer besser merken: Sie haben die Informationseinheiten von 14 auf 4 oder 5 Einheiten reduziert.

Multimedia und Gedächtnis

Begrenzte kognitive Ressourcen

Wenn es zu einer Überschreitung der kognitiven Ressourcen im Arbeitsgedächtnis kommt, dann kann es zu Verstehens- und Speicherungsproblemen kommen. Damit die Informationen adäquat verarbeitet und behalten werden können, spielen eine Vielzahl an Faktoren eine Rolle. Hier gilt es, die Komplexität des zu vermittelnden Inhalts, die mediale Darstellung und Umgebung, die Art und Anzahl an unterschiedlichen Zeichensystemen, die verwendet werden, zu berücksichtigen. Aber auch relevante Eigenschaften der Lernenden, nämlich die verfügbaren kognitiven Ressourcen und auch die zur Verfügung stehende Zeit zur Verarbeitung der Lerninhalte, sind bedeutsam (Schwan & Hesse, 2004).

Wenn wir mit Informationen überfrachtet werden, diese nur schwer oder nicht mehr aufnehmen und verarbeiten können, unterliegen wir der sogenannten kognitiven Belastung. Die Theorie der kognitiven Belastung (engl. ‚cognitive load theory‘) bezieht sich auf die beschränkten Ressourcen unseres Arbeitsgedächtnisses (Chandler & Sweller, 1991). Bei einer Überschreitung der zur Verfügung stehenden Ressourcen kommt es zu Verstehens- und Speicherungsproblemen. Diese Belastung ist abhängig von der individuellen Informationsverarbeitungskapazität und der Gestaltung der Lernmaterialien. Die kognitive Belastung wird in drei Unterbereiche gegliedert, in eine intrinsische, eine extrinsische und in eine lernförderliche kognitive Belastung.

In Abbildung 2 auf dieser Seite sind das Arbeitsgedächtnis und zwei Varianten der kognitiven Belastung dargestellt. Einmal führt die ungünstige mediale Präsentation zu einer kognitiven Belastung und lenkt somit vom eigentlichen Lerninhalt ab. Im zweiten Fall führen die schwer zu erlernenden Inhalte zu einer Überlastung des Arbeitsgedächtnisses. Die Theorie der kognitiven Belastung spielt daher eine wichtige Rolle bei der Gestaltung von Lernmaterialien, und zwar nicht nur bezüglich des Lerninhalts, sondern auch bei der Präsentation in multimedialen Lernumgebungen

Abb. 2: Kognitive Belastung des Arbeitsgedächtnisses: inhaltsbedingt und medienbedingt
Abb. 2: Kognitive Belastung des Arbeitsgedächtnisses: inhaltsbedingt und medienbedingt

Eine kognitive Belastung findet auch beim Effekt der geteilten Aufmerksamkeit (engl. ‚split attention‘) statt (Chandler & Sweller, 1992). Und zwar dann, wenn zusammenhängende Abbildungen und Text räumlich und zeitlich voneinander getrennt dargestellt werden, so dass ein Teil der Information während des Suchprozesses im Arbeitsgedächtnis bleiben muss, bis die relevante Information gefunden und verknüpft werden kann. Durch diese geteilte Aufmerksamkeit entsteht eine unnötige kognitive Belastung. Stellen Sie sich zum Beispiel vor, wenn in der Abbildung 2 nicht die Begriffe ‚Inhaltsbedingte Belastung‘ und ‚Medienbedingte Belastung‘ stehen würden, sondern nur ‚Variante A‘ und ‚Variante B‘, und Sie müssen sich dann erst im Text heraussuchen, was denn nun die Variante A oder B bedeutet. Optimal wäre hier, wenn es eine visuelle Darstellung mit einer auditiven Erklärung dazu gibt und Sie optional den erklärenden Text einblenden können.

Weitere zentrale Kernpunkte bei der Informationsverarbeitung stellen die Doppelcodierungstheorie sowie die Annahme der modalitätsspezifischen Verarbeitung in unserem Arbeitsgedächtnis dar.

Die Doppelcodierungstheorie von Paivio (1986) besagt, dass verbale (sei es als Text oder gesprochene Sprache) und bildliche Informationsmaterialien unterschiedlich, aber parallel verlaufend verarbeitet, interpretiert und mental repräsentiert werden. Außerdem wird von einer modalitätsspezifischen Verarbeitung des Arbeitsgedächtnisses ausgegangen (Baddeley, 2003). Sowohl das sensorische als auch das Arbeitsgedächtnis weisen eine modalitätsspezifische Verarbeitung neuer Informationen auf. Würde man beispielsweise einen Lerninhalt als Text und Bild darstellen, würde man zwar gemäß der Doppelcodierungstheorie beide Kodierungsformen berücksichtigen, aber nur den visuellen Kanal ausschöpfen, jedoch nicht den ‚Audio-Kanal‘. Unter Umständen kann es hier wiederum zu einer Ressourcenüberschreitung und somit zu einer kognitiven Belastung kommen. Gibt man jedoch statt des begleitenden Textes eine auditive Erklärung zu dem Bild, gelingt die Informationsverarbeitung effektiver. Dieser Effekt ist in der Literatur auch als ‚Modalitätseffekt‘ (engl. ‚modality effect‘ bekannt; Mayer, 2009; siehe Tabelle 1).

Lernende müssen aufgrund diverser Repräsentationen eine kohärente mentale Wissensstruktur bilden. Die zu lernenden Informationen, die dabei zum Beispiel in Text und Bild dargestellt werden, müssen als Gesamtsachverhalt richtig interpretiert und miteinander verknüpft werden, so dass der Lerninhalt kohärent repräsentiert ist (Brünken et al., 2005). Dabei sollen die Informationen zusammenhängen, sich aufeinander beziehen und sich logisch ergänzen. Es gibt jedoch keine explizite Kohärenzbildungstheorie. Die bisherigen Arbeiten greifen auf die Strukturabbildungstheorie von Gentner (1983) zurück. Die unterschiedlichen Repräsentationen wie etwa Text und Bild müssen zunächst getrennt voneinander analysiert und verarbeitet werden. So werden etwa im Bild relevante Elemente identifiziert, miteinander verknüpft und in Beziehung gesetzt. Auf dieser Ebene findet eine lokale Kohärenzbildung statt. In einem nächsten Schritt müssen Text und Bild kombiniert werden, der Zusammenhang zwischen beiden muss hergestellt werden. Dieser Prozess wird bei Gentner (1983) Strukturabbildung (engl. ‚structure mapping‘) genannt oder auch als globale Kohärenzbildung bezeichnet (Brünken et al., 2005).

Dieser Strukturabbildungsprozess gelingt nicht immer. Zum einen kann es durch die Überschreitung der Ressourcen des Arbeitsgedächtnisses und zum anderen aufgrund des geringen Vorwissens zu Problemen bei der Strukturabbildung kommen. Maßnahmen zur Förderung der Strukturabbildung stellen jene dar, die zu einer Reduzierung der extrinsischen Belastung und zur Erhöhung der lernförderlichen kognitiven Belastung führen. Nachfolgend sollen einige wichtige instruktionale Maßnahmen vorgestellt werden. Die Prinzipien von Mayer (2009) gehen auf seine kognitive Theorie des multimedialen Lernens zurück, die auf der Annahme basiert, dass es einen verbalen und einen auditiven Verarbeitungskanal im Arbeitsgedächtnis mit beschränkten Ressourcen gibt. Lernen bedeutet dabei aktives Selektieren, Organisieren und Integrieren von Informationen.

?

Welche Arten von kognitiver Belastung können bei der Bearbeitung von multimedialen Lernmaterialien auftreten?
Fassen Sie die wichtigsten Annahmen bezüglich der begrenzten Informationsverarbeitungskapazität unseres Gedächtnisses zusammen und gestalten Sie ein entsprechendes Plakat, das diese Effekte visualisiert!

?

Überlegen Sie sich, wie Sie in multimedialen Lernumgebungen die Kohärenzbildung unterstützen können, und schreiben Sie konkrete Maßnahmen auf.

?

Meist haben Lernende ein unterschiedliches Vorwissen. Wie können die Lernmaterialen dargestellt werden, damit Personen mit unterschiedlichem Vorwissen unterstützt werden?

Prinzipien zur Entlastung der extrinsischen Belastung Konsequenz für die Gestaltung und Darstellung von Lernmaterialien
Kohärenzprinzip Irrelevante Wörter, Bilder und Töne sollen vermieden werden.
Signalprinzip Hinweise, die die Organisation wesentlicher Lernelemente hervorheben, sind hilfreich (zum Beispiel durch Pfeile).
Redundanzprinzip Wenn Grafiken, Abbildungen mit einer verbalen Schilderung präsentiert werden, wird kein simultaner Text dazu benötigt.
Räumliches Kontiguitätsprinzip Zusammengehöriger Text und Bild sollen räumlich zusammen und nicht weit auseinander präsentiert werden.
Zeitliches Kontiguitätsprinzip Zusammengehöriger Text und Bild sollen simultan und nicht sukzessive dargestellt werden.
Prinzipien zur Unterstützung wesentlicher mentaler Prozesse Konsequenz für die Gestaltung und Darstellung von Lernmaterialien
Segmentierungsprinzip Lerneinheiten sollen in Teileinheiten aufgeteilt und nicht als eine Gesamteinheit angeboten werden. Lernende sollen in ihrer eigenen Geschwindigkeit die Einheiten bearbeiten können.
Prinzip des Vorwissens Bessere Lerneffekte werden erzielt, wenn vor der Bearbeitung des multimedialen Lernmaterials wesentliche Konzepte, Begriffe und Bezeichnungen der Lerninhalte bekannt sind.
Modalitätsprinzip Statt einem erklärenden Text zu einer Abbildung oder Grafik soll ein gesprochener Text angeboten werden.
Prinzipien zur Förderung generativer Prozesse Konsequenz für die Gestaltung und Darstellung von Lernmaterialien
Multimediaprinzip Statt nur Lerntexte anzubieten, sollen Texte und dazugehörige Bilder verwendet werden.
Personalisierungsprinzip Bessere Lernergebnisse werden erzielt, wenn der Text nicht in einer formalen Sprache, sondern in einen dialogorientierten Stil formuliert ist (direkte Anrede, zum Beispiel "Achten Sie auf").
Stimmprinzip Menschliche Stimmen sind computergenerierten Stimmen vorzuziehen.
Bildprinzip Es wird nicht besser gelernt, wenn der/die Sprecher/in einer multimedialen Präsentation auch zu sehen ist.

Tabelle 1: Die zwölf Multimedia-Prinzipien von Mayer (2009)

Seitenumbruch

Multimedia und Gedächtnis

Instruktionale Prinzipien zum multimedialen Lernen

Aus den verschiedenen kognitionspsychologischen Grundlagen zum Wissenserwerb ergeben sich direkte Implikationen für die Darstellung und Gestaltung von Lernmaterialien.

Die zwölf Prinzipien zum multimedialen Lernen nach Mayer (2009) mit den jeweiligen zentralen Aussagen werden in Tabelle 1 dargestellt. Diese Prinzipien wurden in diversen Untersuchungen von Mayer und Kollegen/innen, aber auch zum Teil von anderen Forscherinnen und Forschern bestätigt. In der linken Spalte sind die Prinzipien aufgelistet und rechts die jeweilige abzuleitende instruktionale Maßnahme für multimediale Lernumgebungen.

Weitere Gestaltungsmaßnahmen bezeichnet Mayer (2009) als Randbedingungen, da es bezüglich des Einsatzes der instruktionalen Prinzipien Einschränkungen gibt. So gilt es, das Vorwissen der Lernenden zu berücksichtigen, da je nach Kenntnisstand diverse Prinzipien unterstützend, aber auch lernhinderlich sein können. Nach einer Studie von Kalyuga et al. (2000) profitierten erfahrene Lernende von einer reduzierten Darstellung der Materialien, während für die unerfahrenen eine komplexere Präsentation von Vorteil war. Für die Erfahrenen waren einige der präsentierten Informationen redundant. Mayer (2009) fasst zusammen, dass der Multimedia- und Kontiguitätseffekt für Lernende mit geringem Vorwissen hilfreich ist, jedoch nicht für Lernende mit hohem Vorwissen. Er bezeichnet dies als „individual differences principle“ (Mayer, 2009, 271). Kalyuga et al. (2003) benennen das Phänomen als ‚Expertise-Umkehr-Effekt‘ (engl. ‚expertise reversal effect‘).

Weitere Randbedingungen stellen die Komplexität des Inhalts und die Geschwindigkeit, mit der eine multimediale Präsentation abläuft, dar. So wirken die Prinzipien vor allem dann, wenn die Komplexität der Lerninhalte hoch und die Geschwindigkeit, in der die Inhalte bearbeitet werden, für die Lernenden als schnell wahrgenommen wird (Mayer, 2001).

Eine weitere Maßnahme stellen intertextuelle Hyperlinks (Brünken et al., 2005) dar und die aktive Zuordnung durch die Lernenden von separat dargestellten Informationen in dynamischen und interaktiven Lernumgebungen (Bodemer et al., 2004). Gezielte Kohärenzbildungshilfen wie etwa textbezogene (durch Überprüfungsfragen, die sich auf den Text beziehen), bildbezogene (Zuweisungsaufgaben relevanter Bildelemente) oder globale Kohärenzhilfen (durch integrierte Hyperlinks) können die Informationsverarbeitung unterstützen und verbessern somit den Wissenserwerb (Brünken et al., 2005). Hier gilt anzumerken, dass textbezogene und bildbezogene Hilfen auch nur die entsprechenden Text- bzw. Bildleistungen unterstützen. Lediglich eine gezielte integrationsanleitende Kohärenzbildungsmaßnahme kann sowohl die Text- als auch die Bildverarbeitung unterstützen.

Die bisherigen Befunde beziehen sich auf multimediale Lernmaterialien, in denen Lernende nur begrenzt eingreifen können. In einer Studie von Gerjets et al. (2009) wurde untersucht, inwieweit die gefundenen Prinzipien auf andere Bereiche, wie etwa Hypermedia, die durch eine höhere Lernendenkontrolle gekennzeichnet ist, anwendbar sind. Die Ergebnisse zeigen, dass die Prinzipien nicht ohne Weiteres auf andere Lernbereiche übertragbar sind. In einer Untersuchung von Jadin et al. (2009), in der zwei unterschiedlich aufbereitete E-Lectures eingesetzt wurden, zeigte sich, dass Lernstrategien einen wesentlichen Einfluss auf das Lernergebnis haben und nicht nur allein die Darstellung der Lernmaterialien. Dieses Ergebnis kann als Beleg für die lernförderlichen Aktivitäten seitens der Lernenden gesehen werden, welche zur Reduzierung der kognitiven Belastung führen. Einige der Effekte, wie der Modalitätseffekt, sind häufig repliziert worden. Die dargestellten instruktionalen Prinzipien sollten daher in der Gestaltung und Darstellung von Lernmaterialien berücksichtigt werden.

!

Empfehlungen zur weiteren Lektüre:

Multimedia und Gedächtnis

Literatur

Mobiles und ubiquitäres Lernen

Technologien und didaktische Aspekte

In diesem Kapitel wird ein Überblick zu den Grundlagen und aktuellen Entwicklungen mobiler und ubiquitärer Lernunterstützung gegeben. Es werden verschiedene Definitionen mobilen Lernens vorgestellt und eine Einführung in die zugrundeliegenden Probleme und Lösungsansätze gegeben. Die sich rasant entwickelnde Technologie wird hierbei in verschiedene Komponenten von Sensoren und Displays unterschieden und es werden zentrale theoretische Paradigmen beschrieben. Im letzten Abschnitt werden unterschiedliche Funktionen mobiler und ubiquitärer Lernunterstützung dargestellt und es wird auf entsprechende Klassifikationssysteme in der Literatur verwiesen.

Mobiles und ubiquitäres Lernen

Definitionen

Mobiles und ubiquitäres Lernen bezeichnet die Nutzung mobiler und allgegenwärtiger Computertechnologie als Lernunterstützung. Traxler (2009, 2) beschreibt verschiedene Ansätze zur Definition des ‚mobilen Lernens‘:

Ubiquitäre Lernunterstützung hat sich in den letzten Jahren aus der Verbindung mobilen Lernens und der Nutzung von allgegenwärtigen Technologien in der durchgängigen Lernunterstützung entwickelt. Den Schritt von mobiler zu ubiquitärer oder durchgängiger Lernunterstützung betonen Looi et al. (2010) in ihrer Analyse von des ‚Mobile Assisted Seamless Learning‘. Hierbei beschreiben sie verschiedene Nutzungsbrüche, welche überbrückt werden müssen: zwischen formalen und informellen Lernsettings, zwischen personalisierter und sozial eingebetteter Lernunterstützung, zwischen verschiedenen Lernzeiten und Lernorten, zwischen physikalischer Umgebung und digitalen Informationen, zwischen verschiedenen Geräten sowie zwischen verschiedenen Lernaufgaben und -aktivitäten. Die Überbrückung dieser Brüche der Lernunterstützung kann hierbei durch mobile Endgeräte sowie durch in die Umgebung eingebettete Technologie erreicht werden.

Mobiles und ubiquitäres Lernen

Mobile Lerntechnologie

Seit Anfang der 1990er Jahre haben sich insbesondere mobile Technologien sowie Sensor- und Display-Technologien rasant entwickelt. Diese bilden den Grundstein mobiler und ubiquitärer Lernunterstützung. Grundsätzlich lässt sich ein Trend zur mobilen Unterstützung von Informationsverarbeitung und zur Einbettung von Computertechnologien in die physikalische Umwelt erkennen (Specht, 2009). In den Horizon-Reports der letzten sechs Jahre finden sich vielfältige Perspektiven, die Mobilität und ubiquitäre Technologien als sehr relevante Entwicklungen für die Unterstützung von Lernen, Lehren, Forschung sowie Kreativität einstufen (Johnson et al., 2010).

Während es vor zehn Jahren eine zentrale technische Frage war, wie Inhalte auf mobilen Geräten zugänglich gemacht werden können, geht es heute mehr um die Integration und Orchestrierung von mobilen Technologien in durchgängigen Lernunterstützungsmodellen. Bei der Verbindung von digitalen Informationen und Services mit der physikalischen Umwelt spielen mobile Endgeräte eine zentrale Rolle (Specht, 2009). Die Verbindung findet hierbei über verschiedene Merkmale der aktuellen Situation oder auch sogenannte Kontextdimensionen (Zimmermann et al., 2007) statt. Diese Merkmale der aktuellen Situation werden durch spezielle Sensortechnologien in mobilen Endgeräten erkannt. Zur Markierung physikalischer Objekte werden besondere Kennmarken basierend auf RFID, Barcodes, Infrarot oder Bluetooth genutzt. Aktuelle Generationen von Smartphones enthalten bereits eine Reihe von Sensorkomponenten wie Kamera, Mikrofon, GPS, Kompass oder Kreiselgeräte zur Erfassung der genauen Position im Raum. Einen aktuellen Überblick über Entwicklungen zu ortsbezogenem und kontextuellem Lernen gibt Brown (2010).

!

Der Barcode oder sogenannte Strichcode ist eine optoelektronisch lesbare Schrift, die im eindimensionalen Fall aus unterschiedlich dicken Strichen und Lücken besteht (zum Beispiel Etiketten im Einkaufsladen) und mit Lesegeräten erfasst wird. Eine Erweiterung sind zweidimensionale Codes, wie zum Beispiel QR-Codes.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

!

RFID (Radio-Frequency IDentification) ist eine sogenannte Nahfeldkommunikation, bei der mittels eines Transponders (befindet sich am Gegenstand) Daten auf ein Lesegerät übertragen werden. Haupteinsatzgebiet ist heute der Logistikbereich, aber auch Bibliotheken verwenden diese Technik.

In verschiedenen Studien wurden die Kernfunktionalitäten von mobilen Endgeräten und deren Potenzial für Lehren und Lernen identifiziert. Beispielsweise wurden in verschiedenen Horizon-Reports die Möglichkeiten von Text- und Instant Messaging, Voice und Audio, Foto und Videofunktionalitäten zur Lernunterstützung in Beispielen aufgezeigt (Johnson et al., 2009):

!

Mobile Technologie bildet einen persönlichen Zugang zur Lernunterstützung. Die Sensorik in Endgeräten ermöglicht hierbei die Verbindung von Lernzielen und Aktivitäten mit dem Nutzungskontext.

?

Erstellen Sie eine Liste von physikalischen Objekten sowie Orten und sammeln Sie damit verbundene Lerninhalte. Suchen Sie nach Möglichkeiten, um diese Informationen auf einem mobilen Endgerät Lernenden zugänglich zu machen oder die Neugier der Lernenden durch Hinweise auf dem mobilen Endgerät zu wecken.

Mobiles und ubiquitäres Lernen

Mit mobiler Technologie lernen

Das Konzept des ‚Seamless Learning‘

Der Begriff des ‚Seamless Learning‘, sinngemäß des ‚durchgängigen Lernens‘, stammt ursprünglich von der American College Personnel Association. Er beschreibt die Wichtigkeit der Zusammenarbeit zwischen Schülerinnen und Schülern innerhalb und außerhalb des Klassenraums (Wong & Looi, 2011).

Chan et al. (2006) stellen in ihrem Artikel eine neue Verbindung zwischen dem Begriff des ‚Seamless Learning‘ und dem Begriff des ‚Technology Enhanced Learning‘ (TEL) her. Für Chan et al. (ebenda) steckt die zentrale Chance im Einsatz von verschiedenen Endgeräten im Konzept des ‚One-to-One-Technology Enhanced Learning‘. In diesem Konzept verfügen alle Lernenden über ein geeignetes Endgerät, das den individuellen Lernprozess begleitet und unterstützt. Dies scheint in naher Zukunft durchaus realistisch zu sein. Laut einer Basisstudie zu ‚Jugend. Information und (Multi)Media‘, kurz JIM, verfügen in Deutschland bereits über 96 Prozent der befragten 12- bis 19-Jährigen über ein Mobiltelefon, 83 Prozent über eines, das internetfähig ist (Behrens & Rathgeb, 2012).

Formales und informelles Lernen mit mobiler Technologie

Sowohl formales als auch informelles Lernen spielt im Kontext des durchgängigen mobilen Lernens und ganz besonders in der Konzeption von durchgängigen Lernumgebungen eine zentrale Rolle. Das formale Lernen findet dabei in geplanten und zeitlich festgelegten Lernphasen statt. Die Initiatorin bzw. der Initiator des Lernprozesses ist die Lehrperson. Das informelle Lernen wird durch die lernende Person selbst ausgelöst. Motivator ist in diesem Fall das Eigeninteresse (SO et al 2008). Nach So et al (2008) werden vier Typen des formalen und informellen Lernens unterschieden. Folgend werden diese 4 Typen unter dem Aspekt der Anwendung mobiler Lerntechnologie definiert:

Insbesondere der Ansatz des ‚Seamless Mobile Learning‘ in Singapur baut auf den Typen des informellen und des formalen Lernens auf. Folgend wird der Fokus auf die unterschiedlichen Dimensionen dieses Ansatzes, vor allem aus der Sicht der Lernenden, gerichtet. Neuere Projekte der Europäischen Kommission wie ‚weSPOT‘ ( weSPOT wird durch die Europäische Kommission unter der Referenz ‚weSPOT Project‘ - IST (FP7/2007-2013) grant agreement N° 318499 gefördert) zielen auf die Verbindung von curricularen Inhalten und informellen Lernsituationen außerhalb des Klassenzimmers. Hierbei werden insbesondere das entdeckende und explorierende Lernen und das ‚inquiry-based learning‘ relevant, um die Datensammlung im täglichen Lebensumfeld mit Lerninhalten zu verbinden.

Seamless Mobile Learning (SML) aus der Sicht der Lernenden

In der Literaturanalyse im Rahmen ihrer Forschung haben Wong und Looi Publikationen von 2006 bis 2011 zur Thematik ‚Seamless Mobile Learning‘ untersucht. Um diese Literatur zu finden, haben sie die Dienste Google Scholar, ERIC, Web of Knowledge und den British Education Index systematisch durchsucht (Wong & Looi, 2011).

Als zentrales Ergebnis dieser Untersuchung definiert Wong (2012) 10 Dimensionen, die das durchgängige mobile Lernen (SML)“ aus der Sicht des Lernenden charakterisieren:

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

In der Praxis: Das Arbeitsblatt 2.0 – QR-Technologie als Schnittstelle in durchgängigen Lernszenarien

Die Quick Response Technologie (QR) erlaubt es, Unterlagen und Objekte mit Zusatzinformationen zu versehen. Mit relativ wenig Aufwand kann zum Beispiel mit Hilfe von Open-Source-Programmen praktisch an jedem PC, auch ohne Internetzugang, ein QR-Code generiert werden. Außerdem steht im Internet eine Vielzahl von Webanwendungen zur Verfügung, mit denen QR-Codes entwickelt werden können. In diesem Code können sowohl reine Textinformationen als auch Befehle, aber auch beliebige Webverknüpfungen gespeichert werden. Mit Hilfe von mobilen Endgeräten, die über eine geeignete Entschlüsselungssoftware –sogenannte, QR-Scanner – verfügen, können diese Informationen dann wiederum entschlüsselt beziehungsweise ausgeführt werden.

Ein zentrales schulisches Anwendungsfeld des QR-Codes stellt das Konzept des interaktiven Arbeitsblattes dar. Das grundsätzliche Prinzip dabei ist, Arbeitsunterlagen durch die Ergänzung von QR-Codes interaktiv werden zu lassen und damit eine durchgängige Lernunterstützung (vgl. dazu SML) zu ermöglichen. Die QR-Technologie bietet dabei, teils in Kombination mit weiterer Web-Technologie, folgende Möglichkeiten an (Law& So, 2010):

Im Rahmen der Vorbereitung auf die Lehrabschlussprüfung 2012 in einer Abschlussklasse an der Tiroler Fachberufsschule für Handel und Büro in Innsbruck wurden die Möglichkeiten, die QR-Codes bieten, auf drei Ebenen umgesetzt. In der betreffenden Klasse waren alle Schüler/innen im Besitz eines zeitgemäßen Smartphones.

Mit Hilfe eines kollaborativen Texteditors wurde im Klassenplenum ein Fragenkatalog für die mündliche Lehrabschlussprüfung erstellt. Im Rahmen dieser Zusammenarbeit wurden Musterlösungen und weiterführendes Datenmaterial (beispielsweise Clips aus verschiedenen Online-Mediatheken) gesammelt und in einem gemeinsamen Verzeichnis innerhalb einer kostenlosen Online-Cloud-Lösung abgelegt. Zusätzlich wurden zu jeder Aufgabe/Frage spezifische Hilfstexte formuliert, die, ohne eine genaue Lösung vorzugeben, auf einen möglichen Lösungsweg hinweisen, um die Frage selbst beantworten zu können.

Das gesammelte und geprüfte Datenmaterial wurde von den Schülerinnen und Schülern auf manuellen Lernkarteikarten zusammengefasst. Die Vorderseite wurde mit der Aufgaben- bzw. Fragestellung versehen, auf der Rückseite wurden zwei QR-Codes platziert. Der erste Code wurde so konzipiert, dass er den schon beschriebenen Hilfstext wiedergibt. Der zweite Code diente zur Generierung der Musterlösung. Beide Codes sind ohne Internetanbindung encodierbar. Bei einigen Karten, beispielsweise im Themenbereich Marketing, wurden zusätzlich Codes mit YouTube-Verknüpfungen beziehungsweise zu weiterführendem Material in Form von herunterladbaren Dateien platziert. In einem Fall wurde ein kurzer, von einem Schüler hergestellter Podcast (Audiodatei) zu den Kapitalgesellschaften ergänzt. Die Dateien wurden über den verwendeten Cloud-Dienst mittels eines codiertem Deeplinks bereitgestellt.

Zusätzlich zu den eigentlichen Lernkarteikarten wurden auch Team-Karten kreiert. Diese Teamkarten wurden mit der Verknüpfung zu einem, von der Lehrperson moderierten, Backchannel versehen. In diesem Backchannel wurde zeit- und ortsunabhängig über Fragen und mögliche Lösungen diskutiert. Zusätzlich wurden dabei auch weitere Lerntipps gegeben. Für diesen Zweck wurde die Webapplikation ‚todaysmeet‘ (http://todaysmeet.com/) eingesetzt. Diese Applikation wurde gewählt, da keine Registrierung dafür notwendig ist und die Darstellung am Smartphone recht übersichtlich erfolgt. Ebenso ist ein maximales Maß an Anonymität bei der Anwendung gegeben. Ein Faktor, der insbesondere nach Schmiedl et al. (2010) als lernbegünstigend betrachtet werden kann.

?

Erstellen Sie selbst eine Lernkarteikarte zur Thematik Quick Response Code. Formulieren Sie eine Aufgabenstellung/Frage, eine Musterlösung und ebenso einen Hilfstext (wie im Beispiel angegeben). Platzieren Sie Ihre Musterlösung und Ihren Hilfstext auf der Rückseite mittels eines QR-Codes. Ergänzen Sie Ihre Lernkarteikarte durch eine passende QR-codierte Internetverknüpfung.

Mobiles und ubiquitäres Lernen

Allgegenwärtige Lernunterstützung

In seinem Buch ‚Everyware‘ beschreibt Greenfield (2006) die Auswirkungen des ‚Ubiquitous Computing‘ auf verschiedene Ebenen unserer alltäglichen Lebensumwelt.

Auf der Ebene des Individuums ermöglichen Sensoren in Kleidung oder Gebrauchsgegenständen die Überwachung von Körperfunktionen und motorischen Aktivitäten, wodurch eine Nutzung in Lerntagebüchern oder für Selbstkontrollen ermöglicht wird. Umso mehr Informationen in eine Überprüfung eingehen können, desto valider wird diese. Mittels Sensorik können neue Messverfahren eine Analyse der Nutzerperformanz durch Messungen des Nutzendenverhaltens in der realen Welt ermöglichen. Intelligente Kleidung wird beispielsweise heute genutzt, um eine Trainingsunterstützung durch direktes Feedback zu geben oder um Bewegungsabläufe im Leistungssport zu optimieren.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Die Integration von Computern in Alltagsgegenstände wie Möbel, Wände, Türen, Tassen oder Küchenausstattung ist ein Grundgedanke des ‚Ubiquitous Computing‘. Zentral zum Verständnis ubiquitärer Lernszenarien ist die Bedeutung von Sensoren und Indikatoren. Sensoren können jede Art von Information abgreifen; von der Raumtemperatur bis hin zu Testergebnissen von Lernenden.

Indikatoren ermöglichen die Anzeige von Informationen im Umfeld von Lernenden. Bei einem Indikator oder einem Display kann es sich um ein persönliches mobiles Gerät handeln, aber auch um eine Lautsprecheranlage, über die eine allgemeine Durchsage gegeben werden kann.

Durch die Integration von Sensorik in die reale Umwelt kann eine langfristige Beurteilung von Performanzsituationen semi-automatisch realisiert werden. Die Lernenden können über ihre Aktivitäten reflektieren oder ihre Lernergebnisse in Portfolios sammeln. Aufnahmen von Video-, Audio- oder Sensordaten oder sogar biometrische Messungen können mit diesen Daten kombiniert werden und damit völlig neue Interpretations- und Reflexionsmöglichkeiten eröffnen.

Eine zweite zentrale Komponente von ubiquitärer Lernunterstützung sind Displays oder Indikatoren. Beispiele für ein Display sind der Computerbildschirm oder eine große, öffentliche Leinwand in einem Bahnhof. Ein Display kann ebenso der Lautsprecher eines Mobiltelefons oder ein Sound-System in einem Kino sein. Auch die haptische Ausgabe bei einer Spielkonsole (engl. ‚force feedback‘) ist ein Display, das verwendet werden kann, um über ein Ereignis zu informieren oder relevante Informationen zu übermitteln (siehe Kapitel #usability ). In der aktuellen Forschung im Bereich multimodaler Benutzerschnittstellen ist hierbei mehr und mehr auch eine Integration mit mobilen und persönlichen Geräten zu beobachten.

Von zentraler Bedeutung für eine durchgängige Lernunterstützung ist die Fähigkeit von Displays, die „reflection in and about action” (Schön, 1983, 1987), also die Reflexion über den eigenen Lernprozess in einem Kontext zu ermöglichen. Mit Hilfe von multimodalen Displays können Informationen jederzeit und überall an die Benutzer/innen übermittelt werden. Die multimodalen Displays können sowohl in der personalisierten Lernunterstützung als auch in kooperativen Lern- und Arbeitsszenarien eingesetzt werden. Persönliche und öffentliche Displays können für verschiedene Aufgaben im Instruktionsdesign verwendet werden. Öffentliche Displays ermöglichen die Zusammenarbeit in Lernaktivitäten sowie die Nutzung von sozialen Netzwerken, während personalisierte Displays meist der individuellen Lernunterstützung dienen.

!

Sensoren und Displays sind die zentralen Komponenten allgegenwärtiger Lernunterstützung. Sensoren bieten die Möglichkeit einer validierten Analyse der Lernsituation und Anpassungen der Lernunterstützung. Displays erweitern die Möglichkeiten zur Intervention und Unterstützung des Lernprozesses.

Mobiles und ubiquitäres Lernen

Didaktische Aspekte: Lernen im Kontext

Thomson und Tulving (1970) zeigten in ihren Untersuchungen zur Kodierung von Informationen die zentrale Relevanz des Kodierungskontextes auf die Erinnerungsleistung. Die Theorie der Kodierungsspezifität besagt, dass die wirksamsten Abrufhilfen für Informationen diejenigen sind, welche zusammen mit der Erinnerung an die Erfahrung selbst gespeichert wurden.

Wie Medien durch Koppelung an Erfahrungen in der realen Welt wirken, wurde auch im SenseCam-Projekt von Microsoft Research untersucht. SenseCam ist eine tragbare digitale Kamera mit einer Fischaugenlinse und eingebauter Sensorik für Temperatur, Bewegung und Lichtverhältnisse im Umfeld der Trägerin beziehungsweise des Trägers. Sobald die Kamera eine Veränderung in der Temperatur, der Lichtverhältnisse oder eine Bewegung entdeckt, wird ein Bild aufgenommen. Alle Bilder können anschließend in einer Art ‚Film des Tages‘ angesehen werden. Die regelmäßige Betrachtung dessen durch Amnesiepatientinnen und -patienten führte zu einem signifikanten Anstieg der Erinnerungsleistung an Ereignisse des Tages (Hodges et al., 2006).

Das Synchronisieren der Lernunterstützung mit der physischen Umwelt und dem Kontext kann in diesem Sinne als ein vielversprechender Ansatz auf der Basis verschiedener Lerntheorien gesehen werden. Im Sinne der ‚Information Processing Theory‘ (Miller, 1956) und der ‚Cognitive Load Theory‘ (Sweller, 1988) hat das menschliche Kurzzeitgedächtnis eine begrenzte Kapazität. Daher sollen Lerninhalte so strukturiert sein, dass die Informationsmenge die Lernenden nicht überfordert. Darüber hinaus besagt die ‚Multimedia Learning Theory‘ (Moreno, 2001; Moreno & Mayer, 2000), dass jeder sensorische Kanal (visuell und auditiv) eine begrenzte Verarbeitungskapazität hat und die Informationsverarbeitung optimal unterstützt wird, wenn unterschiedliche, sich ergänzende Kanäle genutzt werden (siehe Kapitel #gedaechtnis).

Lave und Wenger (1991) heben hervor, dass Information in einem authentischen Kontext dargeboten werden soll. Dieser sollte im besten Fall die Anwendung der Information erfordern.

!

Verschiedene Lerntheorien betonen die Notwendigkeit der Effizienz der Informationsvermittlung. Hierbei spielen sowohl die En- und Dekodierung von Informationen im Kontext, die Beschränkungen des Kurzzeitgedächtnisses sowie Prozesse der multimedialen Informationsverarbeitung eine Rolle.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Die Aktivierung der Lernenden, über ihren eigenen Lernprozess zu reflektieren, wird im Ansatz von Donald Schön zu ‚Reflection in Action‘ und ‘Reflection about Action‘ (Schön, 1987) an zentraler Stelle beschrieben. Durch die Reflexion über den eigenen Lernprozess entwickeln Lernende metakognitive Kompetenzen zur Steuerung, die hierbei auch an Komponenten des Nutzungskontextes gebunden sind.

Laut Glahn (2009) sind die Aggregation von Sensordaten und der Kontext der Visualisierung zwei wesentliche Parameter für die Gestaltung von Indikatoren und Möglichkeiten zur Förderung der Reflexion.

Schön et al. (2011) fassen die didaktischen Aspekte so zusammen, dass vor allem situatives Lernen, sozial-konstruktivistische Lernansätze, game-based Learning und kollaboratives Lernen durch mobile Endgeräte optimal unterstützt werden. In Bachmair et al. (2011) finden sich konkrete Anwendungsszenarien für den Unterricht wieder.

?

Analysieren Sie aktuelle Lehrsituationen, in denen physikalische Objekte zur Stimulation von Reflexion genutzt werden. Überlegen Sie dann, wie Sie diese Situationen durch Feedback von Sensorinformationen noch verbessern könnten.

Mobiles und ubiquitäres Lernen

Klassifikation und Anwendungsbeispiele

Roschelle (2003) unterscheidet mobile Lernsysteme in verschiedene Kategorien: interaktive Klassenraumsysteme, interaktive und verteilte Simulationen sowie Anwendungen zum kollaborativen Datensammeln.

Mobiles Lernen wird sowohl in formalen Lernkontexten, wie beispielsweise im Klassenzimmer, jedoch auch in informellen Lernkontexten unterstützt. Ally (2009) gibt hierzu einen aktuellen Überblick mit verschiedenen Anwendungsszenarien in unterschiedlichen Lernsettings. Frohberg et al. (2009) analysierten mehr als 1.400 Publikationen und beschrieben sechs Dimensionen, mit denen sie eine Klassifikation und Analyse von 102 mobilen Lernsystemen vorgenommen haben: Kontext (wo und wann?), Werkzeuge (womit?), Kontrolle (wie?), Kommunikation (mit wem?), Subjekt (wer?) und Lernziel (was?). Diese Dimensionen basieren auf dem Ansatz von Sharples et al. (2007) zu einer Theorie mobilen Lernens. Aus der Analyse ergeben sich ein Fokus heutiger mobiler Lernunterstützung auf Einzelnutzer/innen in unabhängigen Lernkontexten sowie ein Schwerpunkt auf Lernende mit wenig oder gar keinen Vorkenntnissen. In den meisten Systemen zum kollaborativen mobilen Lernen wird eine zentrale Kontrollfunktion bei den Lehrenden gesehen.

De Jong et al. (2008) klassifizierten mobile Lernunterstützung nach den Dimensionen Informationsart, Kontextnutzung, Hauptzweck, Informationsfluss sowie lerntheoretisches Paradigma. Die Autorinnen und Autoren analysierten mehr als 80 verschiedene Systeme bezüglich benutzter Kontextfaktoren basierend auf einem Referenzmodell, das fünf verschiedene Kontextdimensionen berücksichtigt (Zimmermann et al., 2007): Identität, Umgebung, Beziehungen, Zeit und Aktivität. Als Hauptziele mobiler Lernunterstützung werden hierbei beispielsweise der Austausch von Informationen, die Erleichterung von Diskussionen und Brainstorming, soziales Bewusstsein, Kommunikationsführung sowie Engagement und Versenkung identifiziert. Vergleichbare Klassifikationen finden sich auch bei Naismith et al. (2004), der hauptsächlich das pädagogische Paradigma zur Klassifikation herangezogen hat.

Ein allgemeines Modellierungmodell für mobile und ubiquitäre Lernanwendungen beschreibt Specht (2009, 36) mit den ‚Ambient Information Channels‘. In diesem Modell werden Informationen auf vier Ebenen verarbeitet: Sensorik, Aggregation, Steuerung und Display-Ebene.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

In der Praxis: Konkrete Anwendungsfälle

Ebner (2012) kategorisiert den praktischen Einsatz für mobiles Lernen in sechs Untergruppen:

  1. Mobile Information: Viele Anwendungen dienen dazu, dass Lernende in Echtzeit mit Informationen versorgt werden. Diese müssen natürlich für die entsprechenden Endgeräte zur Verfügung gestellt werden. Es geht also primär nicht um Interaktion, sondern um das Abrufen von Informationen, wie zum Beispiel über eine Lehrveranstaltung innerhalb eines Lernmanagementsystems.
  2. Podcasting: Insbesondere durch mobile Technologien geriet auch das Thema Podcasting immer mehr in den Mittelpunkt. So können Lehrveranstaltungsaufzeichnungen und Vorträge auch unterwegs angehört/angesehen werden (siehe auch #educast ).
  3. Geolokalisierung: Durch die Möglichkeit, globale Koordinaten zusätzlich zu medialen Files (vorrangig Bilder) speichern zu können, ergeben sich für situationsbezogene Kontexte spannende neue Anwendungen (Safran et al., 2011).
  4. Soziale Netzwerke: Die sozialen Netzwerke wie Facebook, Twitter und Google+ werden sehr stark mobil genutzt, um sich mit seinen Freundinnen und Freunden auszutauschen und/oder Inhalte zu teilen.
  5. E-Books: Mobile Endgeräte eignen sich in der Regel auch sehr gut, um Bücher oder ähnliche Texte zu lesen. Dabei ist die Bandbreite von reinen bis zu mit interaktiven Objekten angereicherten Texten sehr groß (siehe #ebook ).
  6. Mobile Applikationen: Die letzte Kategorie sind mobile Applikationen an sich. Hier werden kleine Anwendungen für ein spezielles Lernproblem umgesetzt, die gezielt im jeweiligen Lehr- und Lernkontext zum Einsatz kommen (Huber & Ebner, 2013).

In der Literatur der letzten 15 Jahre ist insbesondere die Unterstützung von Exkursionen und die Verbindung von Klassenzimmer und realen Anwendungskontexten ein immer wiederkehrendes Beispiel für mobile Lernanwendungen (Herrington et al., 2009). Hierbei finden sich zum einen klassische didaktische Modelle wie ¸Wissens-Rallyes‘, bei denen die Beantwortung von Fragen neue Lernfragen freischaltet wie auch mehr explorative Modelle, in denen die physikalische Umwelt aufgabenbasiert entdeckt wird.

Die Einbettung von intelligenten Objekten in konkrete Lernsituationen (Do-Lenh et al., 2010; Alavi et al., 2009) im Klassenraum ist ein aktuelles Beispiel für die Nutzung allgegenwärtiger Technologien und neuer Benutzerschnittstellen für die Verbesserung von Effizienz und Kommunikation in kollaborativen Lernsituationen.

Mobiles und ubiquitäres Lernen

Zentrale Erkenntnisse

Mobiles Lernen ist wohl eines der sich derzeit am schnellsten weiterentwickelnden Forschungsgebiete. Mit dem Aufkommen der Multi-Touch-Technologie (siehe Kapitel #ipad) sowie den jeweiligen Endgeräten (zum Beispiel Smartphones mit Android-Betriebssystem oder iPhone, iPad) und die damit verbundenen Möglichkeit, sogenannte Apps (Applications) zu entwickeln, ergeben sich viele weitere Potenziale (Ebner et al., 2010). So kann für spezifische Lernprobleme in einem speziellen Lernkontext ein kleines Lernprogramm zur Seite stehen. Neben den neuen Möglichkeiten mobiler Technologie wird insbesondere die Verbindung verschiedener Endgeräte (mobile, interaktive Whiteboards; PC; Tablet-PC) in cloud-basierten Lösungen und durchgängigen Lernlösungen (‚Seamless Mobile Learning‘) immer relevanter. Diese bieten vor allem die Möglichkeit zur Verbindung verschiedener Lernsituationen und somit eine Erhöhung der Relevanz der curricularen Lerninhalte im Alltag, wie auch Möglichkeiten zur Unterstützung fall-basierten und projekt-basierten Lernens.

?

Nennen Sie verschiedene Arten von mobilen Lernanwendungen und vergleichen Sie deren Zielsetzung.

Mobiles und ubiquitäres Lernen

Literatur

Prüfen mit Computer und Internet

Didaktik, Methodik und Organisation von E- Assessment

Während im Zuge der zunehmenden Verbreitung digitaler Lernmedien in der Vergangenheit vorwiegend Fragen der computerunterstützten Vermittlung von Wissen diskutiert wurden, stehen zunehmend auch Möglichkeiten einer Computerunterstützung in Wissens- und Kompetenzüberprüfung im Fokus. So genannte E-Assessment-Systeme stellen auf vielfältige Weise Funktionalität für die elektronische Vorbereitung, Durchführung und Nachbereitung von Lernfortschrittskontrollen bereit. Sie entlasten dadurch nicht nur Lehrende und Lernende, sondern machen einige Prüfungsformen überhaupt erst realisierbar. Sie können auch den Ablauf beschleunigen und damit Ergebnisse und Rückmeldungen an die Studierenden und Lehrenden ohne große Zeitverzögerungen ermöglichen. So können Lern- und Lehrmethoden rasch angepasst werden. Im vorliegenden Beitrag wird der Einsatz von E-Assessment-Systemen zur Wissens- und Kompetenzüberprüfung in Bezug auf didaktische, methodische, organisatorische und technische Aspekte thematisiert. Den Leserinnen und Lesern wird so ein Einstieg in die Thematik elektronisch unterstützter Prüfungen geboten, der zur eigenen Auseinandersetzung mit den Potenzialen und Fallstricken anregen soll.

Prüfen mit Computer und Internet

Hintergrund

!

E-Assessment bezeichnet eine Lernfortschrittskontrolle, die mit Hilfe elektronischer Medien vorbereitet, durchgeführt und nachbereitet wird. Eine besondere Rolle spielt dabei die (teil-)automatische Durchführung von Korrekturen im Rahmen des technisch Möglichen (Eilers et al., 2008, 231-232).

Eine Überprüfung im Sinne einer Lernfortschrittskontrolle ist die Abfrage, Messung und Bewertung des internalisierten Wissens und Fähigkeiten sowie der Methodenbeherrschung und damit insgesamt der erworbenen Kompetenzen von Lernenden. Sie soll Informationen über den aktuellen Stand des Wissens und der Fähigkeiten liefern.

Zwei oft angeführte Zitate zeigen die Relevanz guter Prüfungen für das Lernen beziehungsweise die Lernenden: „Assessment drives Learning” (Wass et al., 2001) und „Students can escape bad teaching, but they can‘t escape bad assessment” (Boud, 1995).

E-Assessments haben, wie traditionelle papierbasierte Prüfungen, besondere Anforderungen in Bezug auf die Dimensionen Didaktik, Methodik und Organisation zu erfüllen (Gruttmann, 2010). Hinzu kommen die Dimension der technischen Unterstützung sowie die Rechtssicherheit (siehe Abbildung 1).

Abb. 1: Dimensionen des E-Assessments
Abb. 1: Dimensionen des E-Assessments

Die Didaktik thematisiert, welchen Einfluss unterschiedliche Lehr- und Lernziele auf den Prozess der Wissensvermittlung und damit auch auf Formen der Wissensüberprüfung in Lernfortschrittskontrollen haben. Aus methodischer Sicht sind verschiedene Aufgabentypen und Prüfungsarten zu berücksichtigen, die Gestaltungsanforderungen an den E-Assessment-Einsatz stellen. Organisatorische Fragestellungen betreffen vor allem die Rahmenbedingungen, die für die Vorbereitung, Durchführung und Nachbereitung eines E-Assessments in einer konkreten Veranstaltung zu schaffen sind. Durch den Einsatz geeigneter technischer Lösungen können neue Potenziale von Lernfortschrittskontrollen, zum Beispiel durch Einbinden von Medien, direktem Feedback, kollaborative Aspekte oder effizienter Kompetenzorientierung realisiert werden.

Dabei ist jedoch zwingend zu beachten, dass der Einsatz digitaler Medien nicht zum Selbstzweck erfolgt und die Qualität der Prüfungen erhalten (oder besser noch gesteigert) werden kann. Eine unreflektierte Übertragung traditioneller Verfahren zu Lernfortschrittskontrollen auf digitale Medien ist nicht zielführend. Vielmehr sind die bestehenden Ansätze hinsichtlich ihrer didaktischen, methodischen und organisatorischen Aspekte an die neuen technischen Rahmenbedingungen anzupassen. Die klassischen qualitativen Gütekriterien für Prüfungsverfahren, also die Validität, Objektivität und Reliabilität, sollten in jedem Fall erhalten bleiben (Gruttmann, 2010; Wannemacher, 2007, 427-440) und auch die „Nebengütekriterien“ wie zum Beispiel Testfairness, Transparenz, Unverfälschbarkeit oder Zumutbarkeit müssen beachtet werden (Ehlers et al., 2009, 24-36).

Den Leserinnen und Lesern soll in diesem Kapitel eine erste Orientierung zum Thema E- Assessment gegeben werden und gleichzeitig ein Prozess der kritischen Reflexion angestoßen werden. Denn nur wenn Prüfungen sorgfältig den Ansprüchen des Lehr-Lerngebiets und den pädagogischen Zielen angepasst werden, und sich ein tatsächlicher Mehrwert für Lernende und Lehrende ergibt, kann ein E-Assessment-Prozess langfristig Akzeptanz finden.

Prüfen mit Computer und Internet

Didaktik: Formen und Funktionen von Prüfungen

Gemeinhin existieren verschiedene Formen von Prüfungen, die Unterschiede in Bezug auf ihre didaktische Ausrichtung und Zielstellung aufweisen. Auf ihre Art stellen sie jeweils eine Strategie dar, zu evaluieren, inwiefern die Ziele eines Lehr-Lernprozesses erreicht wurden und übernehmen dabei unterschiedliche Aufgaben: Förderung und Selektion (Tabelle 1).

Summatives Assessment (Assessment of Learning) Formatives Assessment (Assessment for Learning) Diagnostisches Assessment
Self-Assessment Eignungstest
Selektiver Charakter Fördernder Charakter Fördernder Charakter
Formale Qualifikation über das Erreichen eines Kompetenzniveaus Praktische Anwendung von Erlerntem; Evaluation von Lernfortschritten Eigendiagnostische Lernevaluation
Prüfung am Ende eines Lehr-Lernprozesses Aufgaben während des Lehr-Lernprozesses Prüfungen fortwährend (insb. zu Beginn) möglich
Teilnahme verpflichtend Teilnahme i. d. R. freiwillig Teilnahme i. d. R. freiwillig
Bewertung und Benotung durch Lehrende Korrektur und Bewertung durch Lehrende, i. d. R. keine Benotung i. d. R. keine Benotung und Korrektur

Tab. 1: Formen von Lernfortschrittskontrollen (Mischformen zwischen den genannten Kriterien können in der Praxis auftreten und auch sinnvoll sein)

Für Lernfortschrittskontrollen (LFK) mit selektivem Charakter hat sich die Bezeichnung summatives Assessment etabliert, da es sich oft um Prüfungen handelt, die eine Lernphase abschließen und das Erreichen des Lernziels überprüfen (siehe Abbildung 2). Summative Assessments fokussieren somit auf den Output des Lernens und belegen das Erreichen eines bestimmten Kompetenzniveaus (Reinmann, 2007; Winther, 2006). Dabei kann die Abfrage von Wissen, Fertigkeiten und Einstellungen passend im Rahmen des „Constructive Alignment“ (Biggs und Tang, 2011) mündlich, praktisch oder schriftlich erfolgen. Neben der reinen Entscheidung über das Bestehen der Prüfung wird hierbei oft noch eine (graduelle) Benotung erforderlich.

Lernfortschrittskontrollen mit förderndem Charakter werden als formatives Assessment bezeichnet. Die Lernfortschrittskontrollen sind in Form mehrerer kleiner oder kontinuierlicher Überprüfungen in den Lernprozess integriert und können die Konstruktion und Festigung von vermitteltem Wissen und Fähigkeiten unterstützen. Das regelmäßige, selbständige und oftmals freiwillige Bearbeiten von Arbeitsaufträgen und das damit einhergehende Feedback können den Lernenden helfen, eigene Fehler zu erkennen und in Zusammenhang mit seinem Lernverhalten zu bringen. Gerade bei E-Learning-Modulen stellen sie eine sehr häufige und wichtige Interaktionsform dar. Sie können ferner den Lehrenden dazu dienen, Lehr- und Lernprozesse zu überwachen und instruktionale Maßnahmen zur besseren Kompetenzentwicklung einzuleiten (Winther, 2006).

Beim formativen Assessment gibt es demzufolge mehrere Gelegenheiten zur Evaluation unter realistischeren Bedingungen, wodurch ein kontinuierlicher Überblick über Lernfortschritte gewonnen werden kann. Ein sehr typisches Beispiel hierfür sind die Progresstests, die einerseits den Lernenden regelmäßig individuelles Feedback über ihren Lernstand und -fortschritt und andererseits den Lehrenden Feedback über den Leistungsstand der gesamten Lerngruppe geben (Osterberg et al., 2006).

Abb. 2: Millers Kompetenzpyramide mit passenden Prüfungsformen (modifiziert nach Kopp 2006)
Abb. 2: Millers Kompetenzpyramide mit passenden Prüfungsformen (modifiziert nach Kopp 2006)

Neben summativen und formativen Assessments findet das diagnostische Assessment zunehmend Verbreitung. Unter diesem Begriff werden zwei unterschiedliche Formen zusammengefasst. Die erste Form des diagnostischen Assessments zielt durch lernbegleitende, freiwillige Lernfortschrittskontrollen auf eine Förderung der Lernenden ab. Dieser Form des diagnostischen Assessments sind zum Beispiel die so genannten Self-Assessments zuzuordnen, die zur fundierten Studienfachwahl beitragen sollen (Zimmerhofer et al., 2006). Die Teilnahme an Self-Assessments erfolgt in der Regel freiwillig und ist im Allgemeinen nicht an eine Bewertung oder Begutachtung durch eine Lehrperson geknüpft.

Die zweite Form besitzt einen eignungsdiagnostischen und damit gegebenenfalls einen selektiven Charakter. In diese Kategorie des diagnostischen Assessments fallen eignungsdiagnostische Tests, wie zum Beispiel das Auswahlverfahren der Hochschule (Schaper & Ehlers, 2011). Durch das Durchführen von initialen, also dem Lehr-Lernprozess vorangestellten Prüfungen wird beabsichtigt, ausgewogene Lerngruppen zu formen oder die Lehr-Lernprozesse an die Kenntnisse und Fähigkeiten der Lernenden anzupassen (Chalmers & McAusland, 2002).

Es existieren viele verschiedene Ansätze und Systeme zur Computerunterstützung von Lernfortschrittskontrollen. Im Regelfall basieren sie auf den traditionellen Formen des Assessments und sind ihnen in Bezug auf Didaktik, Methodik und Organisation sehr ähnlich. Studien zufolge ist es auch sinnvoll, neue elektronische Lehr- und Lernformen zunächst äquivalent zu gängigen traditionellen Methoden zu gestalten (Dyckhoff et al., 2008; Kleimann & Wannemacher, 2005). Jedoch wird vermehrt der Einsatz innovativer Konzepte und die Implikation einer neuen Lernkultur gefordert (Meder, 2006).

Mit dem Aufkommen von E-Assessment geht eine Diskussion einher, ob die neuen Medien als technologische Impulsgeber die Etablierung alternativer Prüfungsarten bewirken können (Bisovsky & Schaffert, 2009; Reinmann, 2007). Web-Didaktiker/innen entwickeln daher ständig neue Formen für die medial unterstützte Leistungserbringung und -beurteilung. Exemplarisch kann hier die Anfertigung von Facharbeiten in Form von online recherchierten Kollagen weltweit verfügbaren Wissens genannt werden oder online bereitgestellte Arbeitsmappen, die Dateien mit produkt- oder aufgabenorientierten Leistungen der Lernenden auf einer E-Learning- Plattform zusammenfassen (Meder, 2006). Ein innovativer und neuer Ansatz zur Überprüfung von Wissen und Fähigkeiten ist das automatische und kontinuierliche Assessment und Feedback von Aktivitäten und Interaktionen in simulierten Umgebungen von virtuellen Welten. Damit können Fähigkeiten trainiert und überprüft werden, wie zum Beispiel das richtige Verhalten bei Feueralarm, oder das Verständnis von physikalischen Gesetzmäßigkeiten, wie zum Beispiel die dynamischen Grundgesetze eines Pendels (Mader et al., 2013).

In der Praxis: Assessments in der Hochschule

In der universitären Prüfungspraxis kann man von einer Art „universitärem Dreikampf“ sprechen: Klausuren, Referate, Hausarbeiten (Reinmann, 2007). Hinzu kommen Prüfungsarten mit dem Ziel der Förderung von Studierenden wie obligatorische oder freiwillige Übungen und Praktika. Auch wenn noch lange nicht von einem flächendeckenden Einsatz von E-Assessment-Systemen in der Hochschule gesprochen werden kann, so ist zu bemerken, dass einige Formen von Lernfortschrittskontrollen überhaupt erst dank Computerunterstützung realisierbar sind und in den letzten Jahren die Bestrebungen zunehmen, E-Assessments an den meisten Hochschulen zu etablieren. Die Kontrolle formativer oder diagnostischer Assessments zur Lernförderung kann aufgrund beschränkter personeller Ressourcen in den Hochschulen oft nicht im wünschenswerten Umfang angeboten werden. Die Studierenden erhalten damit in vielen Fällen erst in der Abschlussprüfung ein Feedback zu ihrem persönlichen Lernstand. (Teil-)automatische Korrekturen entlasten den Lehrenden und eröffnen so die Möglichkeit, regelmäßige Lernfortschrittskontrollen wie zum Beispiel wöchentliche Übungsaufgaben anzubieten oder direkt im Unterricht zum Beispiel über Audience-Response-Systeme durchzuführen (Ehlers et al., 2010). Neben diesen organisatorischen Vorteilen eröffnet auch die Einbindung verschiedenartiger digitaler Medien wie Sound- und Filmdateien oder Simulationen Möglichkeiten für universitäre Prüfungen, die bei traditionellen Papierverfahren nicht realisierbar wären. Auch bei praktischen oder mündlichen Prüfungen erlaubt der Einsatz von Computern und Fragendatenbanken neben einer schnelleren Auswertung auch eine Standardisierung und Strukturierung der Einzelprüfungen.

Sowohl die Freie Universität Berlin als auch die Universität Bremen sind im deutschsprachigem Raum Vorreiter im Bereich elektronischer Klausuren in eigenen Prüfungscentern, während die Stiftung Tierärztliche Hochschule Hannover und die Medizinische Hochschule Hannover durch den Einkauf der Dienstleistung „E-Prüfung“ und Einsatz in bestehenden Hörsälen bereits über 200.000 Einzelprüfungen durchführen konnten.

Das so genannte E-Portfolio, das derzeit viel diskutiert wird, bezeichnet zum Beispiel netzbasierte Sammelmappen, die verschiedene digitale Medien und Services integrieren (Bisovsky & Schaffert, 2009). Lernende können ein E-Portfolio als digitalen Speicher der Artefakte kreieren und pflegen, die sie im Verlauf eines Kurses oder auch während des gesamten Lernprozesses erarbeiten. So kann die Kompetenzentwicklung in einer bestimmten Zeitspanne und für bestimmte Zwecke dokumentiert und veranschaulicht werden (Bisovsky & Schaffert, 2009).

Computerunterstützung in Prüfungsprozessen ermöglicht Lehrenden bzw. Prüfenden folglich eine Fülle neuer Varianten zur Ermittlung von Lernfortschritten. Doch unabhängig von Ausprägung und Ausgestaltung des Computereinsatzes ist festzuhalten, dass sich die elektronische Kontrolle und Beurteilung von Lernfortschritten langfristig nur dann als wirklich effektiv erweist, wenn sie für die speziellen Einsatzzwecke in den jeweiligen Veranstaltungen optimal konfiguriert ist und sich gut in die bestehende Bildungspraxis einpassen lässt (Eilers et al., 2008). Lehrende und Lernende müssen sich an die neuen Bedingungen gewöhnen, die Methoden und Konzepte müssen in angemessener Form auf elektronische Medien abgebildet werden und die notwendigen studienorganisatorischen, infrastrukturellen oder prüfungsrechtlichen Rahmenbedingungen müssen geschaffen werden.

!

Denken Sie an eine oder mehrere typische offene Prüfungsaufgaben in Ihrem Lehr-Lerngebiet. Überlegen Sie sich, wie diese Prüfungsaufgaben im Aufgabenformat Multiple-Choice abgebildet werden könnten. Überlegen Sie sich dafür jeweils einen geeigneten Aufgabentext (auch Stamm genannt) sowie eine angemessene Anzahl sinnvoller Antwortalternativen. Achten Sie dabei darauf, dass die Distraktoren, also die falschen Antworten, nicht zu offensichtlich sind und die richtigen Antworten nicht zu leicht zu erraten sind. Beachten Sie dabei auch, welche Wissensstufe (Taxonomie nach BLOOM) durch die Frage getestet wird. Durch das Einbringen von Fallbeschreibungen, Statistiken oder Bildern können Sie zum Beispiel auch Verständnis statt reinem Faktenwissen überprüfen.

Man unterscheidet im Allgemeinen summative, formative und diagnostische Assessments. Überlegen Sie sich zu jeder Form ein konkretes Prüfungsszenario, in dem Sie eine computerunterstützte Lernfortschrittskontrolle für sinnvoll erachten würden.

Abb. 3: Einfache Wissensabfrage mit Multiple-Choice
Abb. 3: Einfache Wissensabfrage mit Multiple-Choice
Prüfen mit Computer und Internet

Methodik: Aufgabentypen in Lernfortschrittkontrollen

Lernfortschrittskontrollen bestehen im Allgemeinen aus einer oder mehreren Prüfungsaufgaben, die in konvergente und divergente Aufgabentypen unterteilt werden (McAlpine, 2002).

Konvergente Aufgaben haben eine genau definierte Lösungsmenge, sind daher in der Regel einfacher zu bewerten und ermöglichen ein exakteres Feedback. Multiple-Choice-Aufgaben sind vermutlich die bekanntesten Vertreter konvergenter Aufgaben. Bei diesem Format wird eine Frage zusammen mit Antworten präsentiert, aus denen die zu Prüfenden die richtigen Antworten wählen müssen (siehe Abbildung 3).

Auch Wahr-Falsch-Aufgaben, Zuordnungsaufgaben und einfache Lückentextaufgaben können den konvergenten Aufgabentypen zugeordnet werden (Richtlinien zur Aufgabenerstellung siehe auch Krebs, 2008 oder Stieler, 2011). Des Weiteren zählen auch bestimmte Klassen von Rechenaufgaben im Mathematikunterricht und in technischen Disziplinen zu diesem Aufgabentyp. Doch so einfach konvergente Aufgaben auszuwerten sind, so schwierig und zeitaufwendig kann es sein, qualitativ hochwertige Aufgaben zu entwickeln. Die Konstruktion von konvergenten Aufgaben erfordert vom Lehrenden ein fundiertes Wissen im betreffenden Sachgebiet und setzt viel Erfahrung in der angemessenen Formulierung von Aufgaben voraus. Da die zu Prüfenden oftmals eine Auswahl aus vordefinierten Antwortalternativen zu treffen haben, ist die Wahrscheinlichkeit einer Lösung durch Erraten recht hoch. Werden die Antwortalternativen zudem ungeschickt gewählt (zum Beispiel offensichtlich unlogische Alternativen), erhöht dieses zusätzlich die Trefferwahrscheinlichkeit. Obwohl das Ausmaß an Aktivität und Kreativität der zu Prüfenden bei der Bearbeitung von Aufgaben dieses Typs verhältnismäßig gering ist, eignen sich qualitativ hochwertige konvergente Aufgaben insbesondere für die einfache Abfrage von Faktenwissen. Durch Einsatz von zum Beispiel Medien, Fallbeispielen oder Grafiken ist auch die Überprüfung von Verständnis möglich (Krebs, 2008), durch die Kombination mehrerer Fragen zu Key-Feature-Fragen auch von prozeduralem Wissen (Schaper et al., 2013).

Durch divergente Aufgaben können Hintergrundwissen, Lösungswege und Begründungen besser erfasst werden. Zur Lösung divergenter Aufgaben ist ein schöpferisches Einsetzen von Wissen nötig. Die Lösung divergenter Aufgaben soll zu grundlegenden methodischen Überlegungen anregen, eine inhaltliche, qualitative Argumentation initiieren und damit die vertiefte Auseinandersetzung mit dem Lehrstoff bewirken. Divergente Aufgabenformate zielen darauf ab, Eigenständigkeit, Selbstvertrauen, Problembewusstsein, Kreativität und Flexibilität der zu Prüfenden zu fördern. Ein vorherrschendes divergentes Aufgabenformat ist die Freitextaufgabe. Die Korrektur durch den Lehrenden ist sehr aufwendig und erfolgt nur selten nach exakt definierten, objektiven Bewertungsschemen, den sogenannten Assessment Rubriken (McAlpine, 2002).

Konvergente wie divergente Aufgaben haben ihren jeweiligen didaktischen Wert. Sie sind in der Aufgabenkultur auf das Profil des Prüfungsgebietes, die Lerngruppe und die methodische Zielsetzung der Prüfung abzustimmen.

?

Sammeln Sie Probleme, die bei der automatischen Korrektur von Freitextaufgaben wie etwa das Schreiben eines Aufsatzes auftreten können. Die Entscheidung, ob konvergente oder divergente Aufgabentypen zum Einsatz kommen, sollte auf Basis des Prüfungsgebiets, der Lerngruppe und der methodischen Zielsetzung der Prüfung getroffen werden und nicht auf Basis der technologischen Unterstützungsmöglichkeiten.

Insbesondere für konvergente Aufgabentypen bieten E-Assessment-Systeme heutzutage schon vielfältige Unterstützung. Durch innovative, computerunterstützte Aufgabentypen mit neuartigen Antwortverfahren kann die Präsentation, Durchführung und Auswertung erleichtert werden. Gleichzeitig kann ihre Gestaltung sehr flexibel erfolgen, wodurch ihre Aussagekraft im Vergleich zu papierbasierten Prüfungen sogar erhöht werden kann (Reepmeyer, 2008; Wannemacher, 2007). So können zum Beispiel Grafiken, Sound-Dateien oder sogar Filme eingesetzt werden. Bei grafischen Zuordnungsaufgaben lösen die zu Prüfenden die Aufgabe zum Beispiel durch geschicktes Platzieren eines grafischen Objekts in einer grundlegenden Grafik. Als Vorteile konvergenter Aufgabentypen in computerunterstützten Lernfortschrittskontrollen können allgemein die eindeutige Auswertbarkeit, die kurze Bearbeitungszeit, der geringe Eingabeaufwand und das Bereitstellen kontextsensitiven Feedbacks gesehen werden (McAlpine, 2002). Ein offensichtlicher Nachteil ist, wie auch bei traditionellen Formen dieser Aufgabenkategorie, im Erraten von Antworten und der damit verbundenen Gefahr von Zufallslösungen zu sehen. Vermehrt zeigt sich aber auch, dass elektronische Systeme zur Unterstützung strukturierter mündlicher oder praktischer Prüfungen, wie etwa eOSCE (Aboling et al., 2011), eingesetzt werden können, um die Vorteile der computergestützten Dokumentation und Bewertung auch bei der Überprüfung von Fertigkeiten oder Einstellungen einzusetzen.

Computerunterstützte Lernfortschrittskontrollen mit divergenten Aufgabentypen befinden sich seltener im praktischen Einsatz. Sollen zum Beispiel Freitextaufgaben mittels Computerunterstützung bewertet werden, kommen bei vielen E-Assessment-Systemen nur Stichwortlisten zum Einsatz. Hierzu wird vom Lehrenden eine Liste obligatorischer Stichworte und ihrer Synonyme vorgegeben, auf deren Vorkommen der zu bewertende Text untersucht wird. Die Wörter und nahe gelegene Negationen werden optisch hervorgehoben und erlauben dem Korrektor und der Korrektorin eine einfachere Nachbearbeitung. Ferner unterstützen viele computerunterstützte Ansätze eine Überprüfung der Rechtschreibung sowie eine Plagiatskontrolle. Insofern wird eine hilfreiche Vorstrukturierung des Freitextes vorgenommen. An einer umfassenden semantischen Analyse arbeiten zurzeit einige Arbeitsgruppen (Berlanga et al., 2011) und konnten bereits gute Ergebnisse bei der Bewertung von kurzen Freitextantworten erreichen (Gütl et al., 2011).

Es ist ersichtlich, dass noch eine Diskrepanz zwischen didaktischen und methodischen Ansprüchen an Aufgabentypen in Prüfungsverfahren und den real vorherrschenden Methoden beziehungsweise technisch realisierten Aufgabentypen existiert. Qualitativ hochwertigen Lernzielen und -inhalten, methodisch anspruchsvoll vermittelt, stehen oft noch Prüfungen mit dem Fokus darauf, was leicht zu überprüfen ist, gegenüber (Reeves, 2006). Dabei kann der Einsatz von Computern bei divergenten Fragen durch das einheitliche Schriftbild die Korrekturzeit der Lehrenden deutlich verringern und einen Beitrag zu Effizienz leisten (Stieler, 2011). Des Weiteren können auch Peer-Assessment-Ansätze genutzt werden, um insbesondere qualitätsvolles Feedback für formatives Assessment durch die Gruppe der Lernenden selbst zu geben (Wesiak et al., 2012).

Prüfen mit Computer und Internet

Organisation: Prozesse computerunterstützter Prüfungen

Welche organisatorischen Maßnahmen zur Vorbereitung, Durchführung und Nachbereitung computerunterstützter Lernfortschrittskontrollen notwendig sind, wird am Beispiel einer computerunterstützten Klausur demonstriert. Zentrale Fragestellung ist, wie die Organisation von Lernfortschrittskontrollen durch Computerunterstützung effektiv, effizient und zuverlässig gestaltet werden kann. Um E-Assessment zu etablieren, ist die Schaffung von geeigneten organisatorischen Strukturen und technologischen Komponenten bzw. Verfahren notwendig, mit denen computerunterstützte Klausuren in zuverlässiger und justiziabler Form durchgeführt werden können (Reepmeyer, 2008). Schon bei der Fragenerstellung und dem Pre- und Postreview sowie dem nach den Klausuren folgenden Einsichts- und Einspruchsverfahren zeigen Fragendatenbanksysteme eine große Effektivität und Effizienz (Vor dem Esche et al., 2011). Für die Prüfungen an sich müssen etwa räumliche, zeitliche und personelle Ressourcen koordiniert werden. Eine Voraussetzung für die Durchführung elektronischer Prüfungen mit größeren Teilnehmerzahlen stellen große Rechnerpools mit der entsprechenden Hard- und Software dar.

Bei mangelnden Rechnerkapazitäten in Massenprüfungen können Prüfungen simultan in mehreren Rechnerpools bzw. in mehreren aufeinanderfolgenden Zeitscheiben durchgeführt werden (Eilers et al., 2008; Reepmeyer, 2008; Wannemacher, 2007), oder den zu Prüfenden wird die Nutzung eigener Laptops in der Prüfung gestattet (meist Open-Book-Prüfungen; Schulz und Apostolopoulos, 2010). Darüber hinaus werden an einigen Universitäten elektronische Prüfungen in den normalen Hörsälen unter Einsatz universitätseigener Laptops oder gemieteter Laptops durchgeführt (Fischer, 2010).

Beispielsysteme

Vorbereitung Durchführung Nachbereitung
Fragenkataloge erstellen, reviewen und auf Server bereitstellen Systembetrieb sicherstellen Automatische beziehungsweise manuelle Korrekturen koordinieren und durchführen
Teilnehmerlisten erzeugen Anwesenheit/Identität der Teilnehmer/innen prüfen Rückmeldung an Teilnehmer/innen geben
Raum- und Zeitressourcen koordinieren Rechner- und Prüfungszugang koodinieren Notenlisten generieren und an das Prüfungsamt übermitteln
Teilnehmer- und Organisationsdaten in Prüfungssystem importieren Organisatorische Fragen klären Einsicht- und Einspruchnahme koordinieren
Teilnehmende mit dem Prüfungssystem vertraut machen Manipulation und Täuschung verhindern Prüfungs- bzw. Fragenkorrektur nach Einspruchsverfahren Archivierung sichern

Tab. 2: Organisatorische Prozesse in computerunterstützten Klausuren

!

Neben der Akzeptanz durch Prüfende und zu Prüfende ist die Akzeptanz durch das Prüfungsamt maßgeblicher Faktor bei der Initialisierung eines E-Assessment-Systems.

Die computerunterstützte Prüfungsorganisation birgt ferner vielfältige technische Herausforderungen: Die technische Zuverlässigkeit von Prüfungssystemen zählt zu den zentralen Bedingungen für die Akzeptanz der neuen Prüfungsformen, weshalb die Entwicklung spezieller Sicherheitskonzepte erforderlich ist (Wannemacher, 2007). Der Ausfall eines Prüfungsrechners oder des Gesamtsystems darf nicht dazu führen, dass ein Prüfungsteilnehmer oder eine Prüfungsteilnehmerin seine/ihre Prüfung nicht zu Ende führen kann (Reepmeyer, 2008). Dem Problem technischer Ausfälle wird bei modernen Prüfungssystemen durch Maßnahmen, wie regelmäßige Backups bzw. Replikationen der Aktionen der Prüfungsteilnehmer/innen und die Möglichkeit zur Prüfungsfortsetzung an einer Ersatzstation, entgegengewirkt. Um Manipulationen vorzubeugen, sind eine Einschränkung der Netzwerkfunktionalität und die Abkopplung des Prüfungssystems vom Internet ratsam. Der Zugriff auf (unerlaubte) Fremdanwendungen sollte gesperrt und ein Datenaustausch zwischen Rechnern verhindert werden (Reepmeyer, 2008; Wannemacher, 2007). Auch kann durch individuelle Aufgaben beziehungsweise eine variierende Anordnung der Aufgaben einer Manipulation des Prüfungsergebnisses vorgebeugt werden. Alle diese Vorgänge sind in der jeweiligen Prüfungsordnung detailliert festzulegen, damit E-Prüfungen als rechtssichere Prüfungsform zulässig sind (Horn et al., 2013).

Um die Lernenden an die neue digitale Organisationsform der Klausuren und neue Frageformate zu gewöhnen, bieten sich Trainingsphasen im Vorfeld der eigentlichen Prüfungen an, in denen der Prüfungsablauf erprobt werden kann (Wannemacher, 2007).

Der konkrete organisatorische Ablauf computerunterstützter Prüfungen kann stark variieren. Tabelle 2 zeigt mögliche organisatorische Prozesse dieser Prüfungsform (Gruttmann, 2010).

?

Geben Sie jeweils Beispiele aus Ihrem Umfeld für die vier Kategorien, in die ein Assessment-System aus technischer Sicht eingeordnet werden kann.

TECHNISCHE KLASSIFIZIERUNG Korrekturunterstützung
manuell automatisch
Internetanbindung online
stand-alone

Tab. 3: Technische Klassifizierung der E- Assessment-Systeme

Es wird deutlich, dass auch computerunterstützte Klausuren mit einem erheblichen organisatorischen Aufwand verbunden sind. Sowohl im Vorfeld einer Prüfung, als auch während und nach der Prüfung, sind diverse Arbeiten zu erledigen, um einen reibungslosen Ablauf der Prüfungen unter rechtssicheren Bedingungen zu gewährleisten. Computerunterstützte Klausuren eignen sich aufgrund dieser Aufwände in besonderem Maß zur Prüfung großer Gruppen. Insbesonders bei regelmäßig wiederkehrenden Prüfungen rentieren sich die aufwendige Ausarbeitung einer umfassenden Aufgabendatenbank und die mitunter kostenintensive Infrastruktur.

Prüfen mit Computer und Internet

Technik: Klassifizierung von E-Assessment-Systemen

Der Begriff E-Assessment an sich verlangt per Definition zunächst nur, dass eine Lernfortschrittskontrolle „mit Hilfe elektronischer Medien vorbereitet, durchgeführt und nachbereitet wird“ (Eilers et al., 2008). Das Ausmaß, mit dem Computer im Assessment-Prozess eingesetzt werden, wird hierdurch noch nicht determiniert. Hinsichtlich des Einsatzes lassen sich jedoch verschiedene Realisierungsformen unterscheiden. Sie lassen sich grob durch die zwei folgenden Dimensionen beschränken: den Grad der Korrekturunterstützung einerseits, das heißt, welche Rolle nimmt der Computer bei der Korrektur ein, und der Grad der Anbindung des Internets andererseits (Tabelle 3).

Da sich das E-Assessment nicht ausschließlich auf die vollautomatische Auswertung von Aufgaben beschränkt, wird in der Dimension Korrekturunterstützung zusätzlich die manuelle Auswertung der Aufgaben unterschieden. Unter der Kategorie „manuelle Auswertung“ werden sowohl die teilautomatisierte Korrekturunterstützung, als auch die nicht computergestützte Auswertung von Aufgaben subsumiert, da in beiden Fällen eine Benutzerinteraktion notwendig ist. Vollständige Korrekturunterstützung ohne Computernutzung bei der Antworteingabe weisen zum Beispiel die weitverbreiteten Papier-Scan-Lösungen auf. Die Differenzierung der Korrekturunterstützung wird maßgeblich durch die Art der Prüfungsaufgaben bestimmt. Konvergente Aufgabenformate, wie Multiple Choice oder das Abprüfen von Vokabeln, erfordern in der Regel keinen manuellen Eingriff. Divergente Aufgabenformate sind mit dem heutigen Stand der Technik häufig nur manuell korrigierbar.

Hinsichtlich der Dimension Anbindung des Internets wird zwischen den Ausprägungen online und offline beziehungsweise stand-alone unterschieden. Online bezeichnet hierbei die Anbindung an das Internet zur Nutzung von Applikationen oder zum Informationsaustausch, wohingegen stand-alone-Anwendungen nur im lokalen Netzwerk oder sogar nur auf einzelnen Computern installiert sind und keine externen Netzwerkzugriffe benötigen. Bei der Entscheidung für oder wider Internetanbindung eines elektronischen Prüfungssystems spielen rechtliche, didaktische, technische und organisatorische Faktoren eine maßgebliche Rolle. So wird bei summativen elektronischen Lernfortschrittskontrollen, häufig bereits aufgrund von Sicherheitsaspekten in Hinblick auf die Ausfallsicherheit des Systems und den Schutz vor Datenmanipulationen, auf eine Internetanbindung verzichtet. Ein großer Vorteil der Webanbindung ist die Zeit- und Ortsunabhängigkeit. Aus diesem Grund ist die Internetanbindung häufig bei Systemen für das formative und diagnostische Assessment zu finden.

Prüfen mit Computer und Internet

Zusammenfassung

Potenziale, die E-Learning-Systeme für die Unterstützung von Prozessen des Lehrens und Lernens bieten, können durch den Einsatz von E-Assessment-Systemen auch in Prüfungsprozessen realisiert werden. E-Assessment kann dabei eine Verbesserung der Effektivität und Effizienz sowie eine Steigerung der Qualität der Assessment-Prozesse bewirken. Eine sinnvolle Realisierung ist allerdings nur dann möglich, wenn diverse didaktische, methodische und organisatorische Aspekte neben den technischen Rahmenbedingungen berücksichtigt werden. Der vorliegende Beitrag greift eine Auswahl relevanter Aspekte auf und macht auf die vielfältigen Potenziale und Fallstricke aufmerksam, die mit der Computerunterstützung von Lernfortschrittskontrollen verbunden sind.

Möglichkeiten der Zeitersparnis und des reduzierten Personaleinsatzes bei der Prüfungsabwicklung, die Aussichten auf Standardisierung und Rationalisierung von Prüfungen, die vereinfachte Auswertung sowie das zunehmende Prüfungsaufkommen im Zuge einer Leistungsorientierung in der Gesellschaft stellen jedoch hinreichende Anreize dar, sich weiterhin mit dem Thema E-Assessment zu beschäftigen, wobei das Ziel nicht sein sollte, bisherige Prüfungsformate nur effizient zu kopieren, sondern die Potenziale elektronischer Prüfungen zu nutzen, um noch besser die erworbenen Kompetenzen zu überprüfen und den Studierenden hilfreiches Feedback zu geben.

Prüfen mit Computer und Internet

Literatur

Blogging und Microblogging

Anwendungsmöglichkeiten im Bildungskontext

Dieses Kapitel gibt einen Überblick über Einsatzmöglichkeiten von Blogs und Microblogs in formalen, informellen und gemischten Bildungskontexten. Es werden Schlüsselbegriffe definiert und grundlegende Informationen zu Microblogging und Weblogs gegeben. Außerdem wird die Rolle von Microlearning und Microcontent für Blogging und Microblogging beschrieben. Anschließend werden didaktische Szenarien für den Einsatz von Blogs und Microblogs in Lehr und Lernkontexten vorgestellt. Anhand ausgewählter Praxisbeispiele aus unterschiedlichen Bildungskontexten werden einige Einsatzmöglichkeiten von Blogs verdeutlicht und exemplarisch dargestellt. Abschließend werden Ergebnisse aus ausgewählten Studien vorgestellt.

Blogging und Microblogging

Einführung

Blogs und Microblogs gehören nach wie vor neben Wikis und Podcasts zu den meist genutzten Social-Media- bzw. Web-2.0-Diensten. Zum Einstieg beschreiben wir kurz, was Blogs und Microblogs sind und wie sie didaktisch eingesetzt werden können. Im Kapitel werden wir dann nach und nach erklären, wie diese Webanwendungen funktionieren und wie Lehr-/Lernszenarien mit Micro-/Blogs aussehen können.

Blogs und Microblogs sind Kommunikations-, Wissensmanagement- und Publikationsdienste zugleich. Der Begriff Blog ist die Kurzform von Weblog, einem Kunstwort aus ,‚Web‘‘ und ,‚log", dem Logbuch, also dem seemännischen Tagebuch (Brahm, 2007). Microblogs sind kleinere Blogformate mit Einträgen von circa 140 bis 250 Zeichen. Gemeinsam ist Blogs und Microblogs, dass sie Einträge enthalten, die in chronologisch absteigender Reihenfolge gelistet werden (aktuelle Meldungen stehen oben). Mit Micro-/Blogs können Beiträge im Netz von jeder Nutzerin und jedem Nutzer veröffentlicht, gelesen, kommentiert, verlinkt und weitergeleitet werden. Dadurch entsteht eine offene Kommunikation, an der sich gleichzeitig viele Nutzer/innen (u.a. Lernende, Lehrende, Novizinnen und Novizen, Expertinnen und Experten) beteiligen können. Durch den offenen Austausch und die Beteiligung der verschiedenen Nutzer/innen können formelle und informelle Lernkontexte überbrückt und miteinander verzahnt werden.

!

Blogs und Microblogs können in formellen und informellen Lehr-/Lernkontexten individuelle und kooperative Kommunikations-, Wissensmanagement-, Reflexions- und Feedbackprozesse unterstützen sowie formelle und informelle Kontexte verzahnen.

!

Weiterführende Links: L3T-Gruppe bei Diigo unter Verwendung der Hashtags #l3t #blogging #microblogging. Ein Video “Microblogging: Leben in 140 Zeichen” vom Elektrischen Reporter: http://www.elektrischer-reporter.de/elr/video/83

Blogging und Microblogging

Begriffe und Definitionen

Im praktischen Umgang mit Micro-/Blogs wird eine Reihe von spezifischen sprachlichen Ausdrücken und im Fall von Microblogging auch eine spezifische Syntax verwendet. Die gängigen Begrifflichkeiten werden im Folgenden dargestellt.

!

Bei der Arbeit mit Micro-/Blogs ist ein Verständnis von Jargon und Funktionen hilfreich (u.a. Blogpost, Tagcloud, Permalink).

Jargon und Funktionen von Blogs

Das Schreiben im Blog (Bloggen) wird von Autorinnen oder Autoren (Bloggerinnen oder Bloggern) der Blogeinträge (Blogposts) vorgenommen. Dabei hat jeder Blogpost eine eigene, permanente Internetadresse (Permalink). Blogposts werden auch durch Schlagworte (Tags) kategorisiert. Inhaltsverwandte Blogposts werden mit gleichen Tags versehen und können damit leicht gefunden werden. Alle in einem Blog verwendeten Tags können als eine sogenannte ‚Wortwolke‘ (Tagcloud) dargestellt werden (siehe Abbildung 1).

Walker (2003) definiert einen Blog als eine regelmäßig auf den neuesten Stand gebrachte Website, deren Einträge in chronologisch umgekehrter Reihenfolge gereiht werden, so dass der aktuelle Eintrag der erste ist. Weblogs haben folgende Eigenschaften:

Abb. 1: Jargon und Funktionen von Blogs.
Abb. 1: Jargon und Funktionen von Blogs.

!

Blogs können bei solchen Diensten wie Wordpress oder Blogger kostenlos angelegt werden. Wordpress bietet auch ein System zur Selbstinstallation an.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

In der Praxis: Praxisbeispiele Weblogs

Im Sinne des lebenslangen Lernens werden im Folgenden ausgewählte Praxisbeispiele für den Einsatz von Blogs und Microblogs in einzelnen Bildungsstufen (Kindergarten, Schule, Aus-/Weiterbildung, Hochschule) und in informellen Lernkontexten (außerhalb von formellen Bildungsinstitutionen) vorgestellt.

Jargon und Funktionen von Microblogs

Neben Tumblr, Edmodo, Yammer oder Status.net steht vor allem Twitter schon fast als Synonym für das Microblogging. Dies ist auch der Grund, warum nachfolgend der spezifische Jargon und die Syntax von Twitter-Nachrichten näher beschrieben werden. Dabei werden viele der Begrifflichkeiten von den englischen Worten ,‚twitter‘ (zwitschern) und ,‚tweet‘‘ (Pieps) abgeleitet.

Wer eine Twitter-Nachricht (‚Tweet‘) senden (,twittern‘) möchte, kann nur 140 Zeichen pro Tweet verwenden. Mit einer Kombination aus Doppelkreuz-Zeichen (#, engl. ,‚hash‘) und einem Schlagwort (engl. ,‚tag‘), also einem Hashtag, erhalten Tweets eine Art Metainformation. Anhand von Hashtags, die in Tweets enthalten sind, können Tweets zu bestimmten Themen gesucht werden. Durch die Kombination eines @-Zeichens und eines Twitter-Benutzer/innen-Namens (@Benutzer/innen-Name) können andere Twitter-Nutzende (,Twitterer‘) öffentlich angesprochen werden. Zwei Twitterer, die sich gegenseitig als Kontakt hinzugefügt haben (‚Follower‘),, können sich auch private, direkte Nachrichten (‚directmessage‘,‘dm‘) senden. Dazu wird die folgende Zeichenkombination verwendet: ,‚d Benutzername‘. Öffentliche Tweets können in der ursprünglichen Form an eigene Follower weitergeleitet (RT entspricht ‚re-tweeted‘) werden (siehe Abbildung 2).

Abb. 2: Jargon und Funktionen des Microbloggingsystems Twitter.
Abb. 2: Jargon und Funktionen des Microbloggingsystems Twitter.

In der Praxis: Praxisbeispiele Microblogs

Im folgenden Abschnitt werden ausgewählte Praxisbeispiele für den Einsatz von Microblogs vorgestellt.

Blogging und Microblogging

Lernen mit Micro-/Blogs

Microlearning

Das Lernen mit Micro-/Blogs ist durch kurze Beiträge und kurze Lernphasen gekennzeichnet. Micro-/Blogeinträge sind kleine, selbständige und thematisch abgrenzbare Informationseinheiten. Ähnlich kleinen ‚Wissenshäppchen‘ können sie als Microcontent, d.h. kleine, lose gekoppelte Informationsbausteine, bezeichnet werden (Weinberger, 2002; Lindner, 2006). Micro-/Blogeinträge können im Rahmen von kurzen Lernaktivitäten individuell bearbeitet, kommentiert und zusammengestellt werden. In diesem Zusammenhang ist von ,Microlearning‘ die Rede, das aus kurzen Lernphasen besteht, in denen Microcontent, d.h. kleine Inhaltsportionen, als Lernressource erstellt und bearbeitet wird (Robes, 2009; Buchem & Hamelmann, 2010).

Microlearning mit Micro-/Blogs kann flexibel in den Alltag integriert werden, zum Beispiel als ergänzendes Element für formelle Lehr-/Lernangebote, z.B. an Hoch-/Schulen, oder als eigenständiger Baustein zum lebenslangen Lernen, z.B. berufsbegleitend (Buchem & Hamelmann, 2010).

Nach Lindner (2006) und Kerres (2007) sind mit der Anwendung von Micro-/Blogs in Bildungskontexten einige Fragen verbunden, u.a.:

!

Lernen und Lehren mit Micro-/Blogs kann als Microlearning gestaltet werden, in dem kurze Lernphasen mit kleinen Inhaltseinheiten (Microcontent) geplant werden.

In der Praxis: Gespräch mit Martin Lindner

Im L3T-Interview erklärt Martin Lindner den Begriff und den Praxiseinsatz von Microlearning: http://www.youtube.com/watch?v=Ii-H6IeQ5ag

Persönliche Lernnetzwerke

Das Lernen mit Micro-/Blogs kann auch als Lernen in persönlichen Lernnetzwerken bezeichnet werden. Das Lernen durch die Vernetzung mit anderen Menschen ist ein zentrales Merkmal von Lernen mit Social Media bzw. Web 2.0. Nach Downes (2007) besteht das Lernen mit Web 2.0 in dem Eintauchen (engl. ‚immersion‘) in sozialen Netzwerken. Aus der Perspektive sozio-konstruktivistischer Lerntheorien, z.B. dem Ansatz von Praxisgemeinschaften (engl. ,‘community of practice‘)‚von Lave und Wenger (1991), besteht das Lernen in sozialen Interaktionen mit Menschen, die gleiche Interessen teilen oder ähnliche Lernziele verfolgen.

Auch die konnektivistische Sichtweise auf das Lernen betont die Rolle sozialer Interaktionen in Netzwerken für das Lernen (Siemens, 2005).

Persönliche Lernnetzwerke (engl. ‚personal learning networks‘, PLN) können nach Couros (2010) als Summe aller sozialen Verbindungen definiert werden, die sich durch die Nutzung von Web-2.0-Diensten ergeben. Lernende nutzen und verbinden die verschiedenen Web-2.0-Dienste, u.a. Micro-/Blogs, individuell, nach eigenen Bedürfnissen und Präferenzen. Daraus ergeben sich sogenannte persönliche Lernumgebungen (engl. ,personal learning environments‘, ‚PLE‘). Eine wichtige Aufgabe der Lehrenden und der Lernenden ist demnach ein gezielter Aufbau von Lernnetzwerken durch die Nutzung von Web 2.0, u.a. Micro-/Blogs. So können Lehrende die Lernenden dabei unterstützen, Kontakte in bestimmten Netzwerken aufzubauen oder auf relevante Netzwerke hinweisen (z.B. bloggende Experten- oder Interessennetzwerke in Twitter, die unter Verwendung von Schlüsselwörtern, sog. Hashtags, zu finden sind).

!

Lernen mit Blogs und Microblogs kann als Lernen in persönlichen Lernnetzwerken bezeichnet werden. Dabei ist es wichtig, dass Lernende gezielt Netzwerke aufbauen und zum Lernen nutzen, z.B. in Expertennetzwerken aktiv werden.

In der Praxis: Persönliche Lernnetzwerke aus Sicht der Lernenden

Ein Studierender beschreibt in einem Blogbeitrag eigene Erfahrungen zur Nutzung von Twitter im Studium und geht auf die Vorteile der sozialen Vernetzung ein: http://danyo-is-an-oj.blogspot.de/2008/01/twitter-im-studium-zwischenbilanz.html

E-Portfolio

Das Lernen mit Micro-/Blogs besteht in der Erstellung von persönlichen Beiträgen. Durch das Veröffentlichen von Beiträgen in Blogs und Microblogs entstehen Aufzeichnungen, die Aufschlüsse über die Entwicklung einer Person in einer gewissen Zeitspanne geben. Die im Laufe von Micro-/Blogging entstehenden Dokumentationen sind Lerntagebüchern ähnlich und beinhalten Informationen über Interessen, Aktivitäten, Leistungen oder Reflexionen einer Person (siehe Kapitel #offeneslernen).

E-Portfolio kann nach Hilzensauer und Hornung-Prähauser (2005) als “eine digitale Sammlung von ,mit Geschick gemachten Arbeiten‘ (lat.: Artefakte) einer Person, die dadurch das Produkt (Lernergebnisse) und den Prozess (Lernpfad/Wachstum) ihrer Kompetenzentwicklung in einer bestimmten Zeitspanne und für bestimmte Zwecke dokumentieren und veranschaulichen möchte.” (S. 4) verstanden werden.”

Die Erstellung von digitalen Dokumentationen durch den Einsatz von Micro-/Blogs kann auch gezielt mit Hilfe medien-/didaktischer Strategien angeregt und als Teil der Lernprozesse im Bildungskontext integriert werden. So können Lehrende Lernende dabei unterstützen geeignete Micro-/Blogging Dienste auszuwählen, Hilfestellungen zur Verfassung von Beiträgen anbieten, das Reflektieren von Lerninhalten und Lernprozessen begleiten, Feedback geben und durch Fragen, z.B. in Form von Tweets (Kurznachrichten im Twitter) oder Kommentaren in Blogs, zum Lernen anregen.

!

Lernen mit Blogs und Microblogs kann nach dem Ansatz von E-Portfolio gestaltet werden. Die Lernenden Nutzen Micro-/Blogs, um eine eigene digitale Dokumentation von Lernprozessen und Lernergebnissen zu erstellen.

In der Praxis: Einsatz von Blogs zur Erstellung von E-Portfolios in der Hochschullehre

Im kursbegleitenden Seminar-Blog stellt Ilona Buchem Beispiele von E-Portfolios der Studierenden vor, die mit Hilfe von Blogs (u.a. auf der Basis von Wordpress) im Hochschulstudium eingesetzt werden: http://aw448.wordpress.com/

Blogging und Microblogging

Didaktische Einsatzszenarien

Im folgenden Abschnitt werden einige didaktische Einsatzszenarien von Micro-/Blogs vorgestellt, die für unterschiedliche Lehr-/Lernkontexte adaptiert werden können.

Blogs

Blogs können in Bildungskontexten zur Inhaltssammlung verwendet werden. In einem Blog können Lernmaterialien, Aufgaben, Literaturlisten, Links und andere Lernressourcen gesammelt und mit anderen ausgetauscht werden. Solche Sammlungen können über einen längeren Zeitraum entstehen und als Lernmaterial zur Verfügung gestellt werden (Brahm, 2007, 67).

Blogs eignen sich auch zur Erstellung von E-Portfolios (siehe Kapitel #grundlagen), welche z.B. als Projekt- oder Lerntagebücher eingesetzt werden können. In Projekttagebüchern können im Rahmen projektbasierter Lehre oder Gruppenarbeiten einzelne Teams den Verlauf und die Ergebnisse der Projektarbeit gemeinsam dokumentieren, reflektieren und mit anderen teilen. Durch die Verlinkung von Blogs untereinander können gruppenbasierte Lernprozesse und der diskursive Austausch unterstützt werden (Brahm, 2007, 67). In Lerntagebüchern können Lernende eigene Gedanken und Reflexionen festhalten, Lernfortschritte thematisieren und anderen, z.B. Lehrenden, Mitlernenden oder der Öffentlichkeit, zugänglich machen. Der Reflexionsprozess kann dabei durch Leitfragen und spezifische Aufgabenstellungen unterstützt werden (Glogger et al., 2009).

Weitere didaktische Einsatzmöglichkeiten von Blogs umfassen:

Bei der Nutzung von Blogs sind stets rechtliche Regelungen zu beachten. Nach dem Telemediengesetz (TMG), welches für alle elektronischen Informations- und Kommunikationsdienste gilt, sind Blogger Dienstanbieter, die gesetzlich für die Bloginhalte verantwortlich sind und allgemeine Informationspflichten, u.a. Name und Kontaktmöglichkeit, erfüllen müssen. Empfehlenswert ist die Erstellung eines Impressums, welches auch mit einem Impressumsgenerator erstellt werden kann. Sobald mit einem Blog personenbezogene Daten erhoben (z.B. Analyse-Tools) und/oder Dienste der Fremdanbieter (z.B. Social-Media-Buttons) verwendet werden, müssen sich Blogger an einschlägige Datenschutzgesetze halten und eine Datenschutzerklärung hinterlegen.

!

Bei der Nutzung von Blogs in Bildungskontexten müssen von Lehrenden und Lernenden datenschutzrechtliche und urheberrechtliche Aspekte beachtet werden (siehe Kapitel #recht).

In der Praxis: Blogs im Unterricht

Einen Einblick in weitere Einsatzmöglichkeiten von Blogs im Unterricht gibt Lisa Rosa: http://lisarosa.files.wordpress.com/2009/09/tabelle-typen-weblogs-unterricht-und-schule1.pdf

Microblogs

Die Möglichkeiten des Einsatzes von Microblogs zum Lernen und Lehren sind ebenfalls vielfältig. Microblogs können zum Beispiel den Austausch in informellen Netzwerken und den Aufbau von persönlichen Lernnetzwerken unterstützen. Die Erweiterung des Kommunikationsraumes über die Grenzen von Bildungsinstitutionen hinaus kann neue Lernwege eröffnen, z.B. können Lernende Einblicke in Gedanken, Veröffentlichungen, Projekte von anerkannten Fachexperten kostenlos und zeitnah gewinnen.

Microblogs eignen sich besonders für den Ressourcenaustausch (zumeist Hyperlinks), indem aufgefundene Quellen als Kurznachrichten mitgeteilt werden. Einzelne Twitter-Konten können zu Listen, zum Beispiel nach Thema oder Ort, zugeordnet werden. Einzelne Beiträge können, zum Beispiel zu einem bestimmten Suchwort (Hashtag) und mithilfe spezieller Dienste, archiviert werden. Dadurch entsteht ein Micro-Lerntagebuch.

Mit dem Aufkommen von Microblogs wurde besonders an vielen Hochschulen erprobt, wie man diese in der Lehre einsetzen kann, um damit unter anderem einen größeren Austausch der Studierenden über die Themen der Lehrveranstaltung zu fördern (Schön & Wieden-Bischoff , 2011, 72). Schon früh wurde mit Microblogs, die nur Postings mit 140 Zeichen zulassen, experimentiert und die Frage nach der Einsetzbarkeit in Lernsettings diskutiert (Ebner & Schiefner, 2008; Grosseck & Holotescu, 2008).

Der Einsatz von Microblogs in der Lehre wird damit begründet, dass (a) die Interaktivität der Studierenden erhöht wird, (b) ermöglicht wird auch soziale, gemeinschaftliche Aspekte in eine (Massen-) Lehrveranstaltung zu bringen und dass (c) die Infrastruktur sehr geeignet ist, weil es die Geräte der Studierenden und verbreitete Software nutzt (Ebner et al., 2010a).

Bei Lehrveranstaltungen werden Microblogs zur Unterstützung von Diskussionen, Recherche, Informationsdistribution, Gruppenbildung, Feedback und Evaluationen eingesetzt. Dabei werden sowohl Kommunikation, Reflexion, Wissensmanagement und Gruppenarbeitsprozesse unterstützt (Reinhardt et al., 2009).

Micro-/Blogs können synchrone und asynchrone Gruppenarbeit, sowohl an einem bestimmten Ort, als auch bei räumlicher Verteilung der Teilnehmenden, zum Beispiel durch Informationsaustausch, Koordination und soziales Netzwerken, unterstützen (Rankin, 2010). Bei gemeinschaftlicher Gruppenarbeit bietet sich die Projektion der Tweets an eine Leinwand (sogenannte ,‚Twitterwall‘) an (Herwig et al., 2009, 18).

In der Praxis werden verschiedene Typen von Microblogs eingesetzt. Es wird sowohl mit nicht öffentlich zugänglichen, z.B. Yammer, als auch mit öffentlichen Plattformen, z.B. Twitter, gearbeitet. Öffentliche Microblogs haben den Vorteil, dass auch Kontakte mit anderen, z.B. Expertinnen und Experten, geknüpft und auch im Anschluss fortgesetzt werden können. Gleichzeitig werden jedoch Informationen von und über Lernende frei im Netz zugänglich (Medienzoo, 2010; Pleil, 2009).

!

Bei der Nutzung von öffentlichen Microblogs ist es wichtig, Lernende über die Chancen und Risiken, die mit einer öffentlichen Kommunikation verbunden sind, aufzuklären (siehe Kapitel #recht).

In der Praxis: Praxiserfahrungen mit dem Twitter

Auf der englischsprachigen Seite http://madhouseofideas.org/ sind viele persönliche Geschichten zum Einsatz von Twitter u.a. aus verschiedenen Bildungskontexten zu finden. Auch Sie können dort Ihre Geschichte erzählen oder Ideen für den Einsatz beschreiben!

Im Folgenden diskutieren wir das Lernen mit Micro-/Blogs als Microlearning, Lernen in persönlichen Lernnetzwerken und die Gestaltung von E-Portfolio.

Blogging und Microblogging

Micro-/Blogging in der Forschung

In diesem Abschnitt stellen wir ausgewählte Forschungsstudien zu Micro-/Blogging vor.

Blogs in der Forschung

Nach dem allgemeinen Hype in den Jahren 2005/2006 rund um das Thema Blogs hat sich deren Verwendung heute mehr oder weniger gesetzt. Viele Blogs, die vor wenigen Jahren Hochbetrieb hatten, liegen heute brach. Die ARD/ZDF-Onlinestudie 2012 zeigt, dass unter den Internetnutzerinnen und -nutzern in Deutschland eine eher passiv-konsumierende als eine aktiv-gestaltende Haltung herrscht: Insgesamt bloggen nur 3 Prozent (Eimeren & Frees, 2012, 365). Es entstehen jedoch immer wieder neue Blogs und es gibt Wissenschaftler/innen im deutschsprachigen Raum, die regelmäßig bloggen. Vor allem scheint der Gedanke vorrangig einen öffentlichen Diskurs über eigene Arbeit zu führen und anderen zugänglich zu machen. Laut Schulmeister (2010) kann die These von Leggewie (2006), dass Blogs eine eher monologische Ausdrucksform sind, auch auf die Blogs der deutschsprachigen E-Learning-Wissenschaftler/innen angewendet werden.

In der Praxis: Beispiele für Blogs aus der E-Learning-Szene

Microblogs in der Forschung

Laut der ARD/ZDF-Onlinestudie 2012 nutzt in Deutschland vor allem die Digitale Avantgarde Microblogs, vor allem Twitter, um informiert zu werden (Busemann & Gscheidle, 2012, 382). Dabei bestehen die persönlichen Netzwerke in Twitter aus einer Mischung aus professionellen Anbietern sowie privaten Kontakten. Auch im Fall von Microblogs dominiert eine eher passive Nutzung: Viele nutzen Twitter lediglich als ,Follower‘ und folgen den wenigen, aktiven Usern (Busemann & Gscheidle, 2012, 382).

Was das Microblogging in Bildungskontexten angeht, zeigen Praxis- und Forschungsberichte, dass der Einsatz von Microblogging kein Selbstläufer ist. Häufig wird die Nutzung forciert, in dem sie zum Bestandteil der Bewertung wird (Ebner et al, 2010b), wobei als Gründe für dieses didaktische Handeln häufig die fehlende Motivation und geringe Vertrautheit der Lernenden mit den Tools genannt werden (Medienzoo, 2010). Die Aktivität der Lehrenden ist maßgeblich für die Nutzung des Tools durch Studierende: Berichte der Praktikerinnen und Praktiker zeigen, dass Diskussionsforen oder auch Micro-/Blogging im hohen Maße davon abhängig sind, ob die Studierenden das Gefühl haben, dass auch Lehrende in Microblogs aktiv sind (Beck, 2007).

Neben der wissenschaflich fundierten Erprobung von Microblogs in verschiedenen Lehr-/Lernsituationen (Ebner, 2013), werden heute zunehmend semantische Technologien eingesetzt, um automatisierte Auswertungen von Twitterstreams oder Lehr-/Lerninhalten durchzuführen. So zeigen Thonhauer et al. (2012), dass sie Lerncommunities basierend auf Ähnlichkeiten zusammenstellen können und schlagen Lernenden andere Microbloggingnutzer/innen vor. Softic et al. (2013) verfolgen einen ähnlichen Weg, visualisieren aber zusätzlich die Nähe zur anderen Nutzerinnen und Nutzern. Laut Ebner et al. (2010b) sowie Schön und Ebner (2013) wird Twitter – im Unterschied zu Blogs – primär als ein Diskussionsmedium und weniger als ein Tool zum Informationsmanagement eingesetzt.

?

Übungsaufgaben zu Blogs

  1. Suchen Sie im Internet nach Blogs von Ihnen bekannten Expert/inn/en oder zu den Themen, die Sie besonders interessieren. Schreiben Sie einen Blogbeitrag darüber und senden Sie den Link zu diesem Blogbeitrag via Twitter!
  2. Erstellen Sie ein Szenario für den Einsatz von Blogs, um das persönliche Lernen von einer oder mehreren Personen, die Sie kennen, zu unterstützen. Welches Microblogging-Tool wäre geeignet? Was wären die inhaltlichen Schwerpunkte?
  3. Fragen Sie Ihre Kolleginnen und Kollegen, ob und wie Sie Blogs bereits zum Lernen und Lehren einsetzten. Sie können auch diese Frage ganz öffentlich via Twitter stellen und schauen, welche Beispiele Ihnen genannt werden.

?

Übungen zu Microblogs

  1. Finden Sie die Twitteraccounts der Ihnen bekannten Wissenschaftler/innen heraus. Wenn Sie Lust haben, folgen Sie diesen und treten mit Ihnen in Dialog!
  2. Erstellen Sie ein Szenario für den Microblog-Einsatz in einer Lehrveranstaltung. Welchen Dienst würden Sie einsetzen? Wie würden Sie die Lernenden dazu anregen, miteinander und mit anderen zu kommunizieren? Wie würden Sie Ihre Lernenden über die Chancen und Risiken der öffentlichen Kommunikation in Microblogs aufklären?
  3. Probieren Sie dann das Micro-/Blogging in Ihrer Praxis aus! Sammeln Sie Erfahrungen und teilen diese mit anderen. Dadurch tragen Sie dazu bei, dass wir gemeinsam unser Wissen über den Einsatz von diesen neuen Tools erweitern.
Blogging und Microblogging

Literatur

Vom Online-Skriptum zum E-Book

Lehr- und Lernunterlagen als elektronische Bücher

Das Kapitel „Vom Online-Skriptum zum E-Book“ erschließt das weite Feld der Möglichkeiten, Lehr- und Lernunterlagen als elektronische Bücher in die eigene Lehre mit einzubinden. Der Schwerpunkt liegt in der Erarbeitung der Vorteile sogenannter E-Books und darin, deren Interaktions- und Anwendungsmöglichkeiten kennenzulernen. Der Abschnitt „E-Reader-Formate und HTML5“ gibt Einblick in aktuelle Entwicklungen auf dem Sektor von E-Book-Readern. Die Verwendbarkeit von E-Books für Tablets und E-Reader sollte unbedingt angestrebt werden, da der E-Reader-Markt zukunftsweisend ist. Es kann angenommen werden, dass sich die Lesbarkeit verbessert und die Interaktionsmöglichkeiten sowie mobile Einsatzszenarien von E-Reader-Formaten in absehbarer Zeit wesentlich umfangreicher werden. Die in diesem Kapitel angeschnittenen Inhalte sind gerade in Bezug auf mobile Endgeräte und Lernszenarien sehr im Fluss. Es lohnt sich, die dynamische Entwicklung in diesem Bereich im Auge zu behalten, um so Lehr- und Lernunterlagen effektiv zu gestalten und anbieten zu können.

Vom Online-Skriptum zum E-Book

Online-Unterlagen

Ein guter Grund für E-Books

Basis und Kern jedes Lehrens und Lernens sind die eigentlichen Lehr- und Lerninhalte. Um eine didaktisch adäquate Aufbereitung und Vermittlung bzw. auch kollaborative Erarbeitung derselben zu gewährleisten, sind Lehr- und Lernunterlagen meist unerlässlich. In der universitären Bildung haben sich neben dem klassischen (Lehr-)Buch elektronische (digitale) Skripte in Textformaten (wie MS Word, Adobe PDF, LATEX) etabliert. Diese werden digital verfasst und ebenso meist über Lernplattformen (LMS) zum Download angeboten. In der Regel passiert das Lernen aber zum größten Teil noch über eine ausgedruckte Form solcher Unterlagen, wobei Pilotprojekte mit Note- oder Netbooks sowie Tablets zunehmen. Das haptische Empfinden und die Möglichkeit der einfachen Mitschrift sowie die zum Lernen nach wie vor ungewohnte Verwendung eines Bildschirms sind Hauptgründe dafür (Polsani, 2003). Neue Studien zum Verstehen und zur Verarbeitung digitaler vs. gedruckter Texte widerlegen dies aber größtenteils (siehe Hinweis: DIIGO). In subjektiv empfunden zunehmendem Maße werden auch Präsentationsformate (zum Beispiel MS PowerPoint) als Skripte verteilt, wobei deren Zweckmäßigkeit und Eignung als Lernunterlage im Allgemeinen angezweifelt werden darf. Präsentationen bieten meist zu wenig Information, sind zu plakativ oder von ihrer Strukturierung zu schlecht lesbar, um auch als Lernskriptum Anklang zu finden. Damit einhergehend sehen sich Lehrende und Lernende oft mit der großen Diskrepanz zwischen Präsentationsunterlagen und Skriptum konfrontiert. E-Books können hier aushelfen, da sie durch ihren interaktiven Charakter der Lehrperson und der oder dem Lernenden neue Möglichkeiten der Gestaltung und Erarbeitung der Inhalte bieten.

!

Hinweis: Alle im Kapitel erwähnten Links und weitere sind bei https://groups.diigo.com/group/l3t_20_ebook in der L3T Gruppe mit dem Hashtag #l3t und #ebook abgelegt.

Definition von „E-Books“

Seit den 1990er Jahren wird die Bezeichnung E-Book für elektronisch lesbare Inhalte geläufig. Dabei hat sich ihre Bedeutung im Laufe der Jahre stark gewandelt. Wurde zu Beginn beinah jede portierbare Druckdatei als „electronic book“ bezeichnet, wobei damit oft das damals neue Format PDF gemeint war, ist der Begriff heute schon lange nicht mehr eindeutig. Die Palette an Interpretationen und Varianten reicht von der (navigierbaren) PDF-Datei (Schulmeister, 2005) über Hörbücher und auf PDA (Personal Digital Assistants) lesbaren Werken (Garrod, 2003) bis hin zu multimedial interaktiv aufbereiteten Inhalten, die auch auf E-Readern lesbar sind. Unabhängig davon, um welche Art E-Book es sich handelt, ist der Medienmarkt schon lange auf den gewinnbringenden Zug aller der nun folgenden drei unterschiedlichen Interpretationen von E-Books aufgesprungen (Hillesund, 2001). So wurden 2012-2013 in Deutschland über 12 Millionen E-Books gekauft (http://heise.de/-1801153). In einer Studie von 2009 prognostizieren Kirchner und Robrecht (2009) für 2014-2015 einen Absatz von zwischen 15 und 60 Millionen E-Books.

!

Hinweis: Das Projekt Gutenberg aus den 1970er Jahren ist ein gutes Beispiel für die Digitalisierung von Büchern und bietet eine Sammlung von freien E-Books an – http://www.gutenberg.org

Die ursprüngliche Definition von E-Books steht in unmittelbarem Zusammenhang mit dem Aufkommen der Digitalisierung von Büchern bestehender Bibliotheken. Dies betrifft die digitalisierte Fassung sowie das zugehörige Online-Angebot zumeist eines Bibliothekbetriebes (exklusive von Online-Zeitschriften, siehe Kapitel #literatur). In diese Definition fallen also alle über ein Bibliotheksportal oder sonstige Institutionen beziehbaren Dokumente (wie Bücher, Publikationen), die vorwiegend im PDF-Format zu betrachten und herunterzuladen sind. Dabei kann es sich um später digitalisierte Ausgaben von gedruckten Büchern handeln oder um die digitale Form eines neuen Buches. Interaktionsmöglichkeiten sind bei solchen E-Books meist kaum vorhanden. E-Books in diesem Sinne gehören heute zum Alltag der Studierenden. Der große Vorteil liegt in der schnellen und einfachen Verfügbarkeit. Zum Lesen ist grundsätzlich kein spezielles Endgerät notwendig, da meist ein weit verbreitetes Format wie Adobe PDF, seltener MS Word oder andere, genutzt wird.

!

E-Books im herkömmlichen Sinne sind digitalisierte Dokumente von Büchern und Zeitschriften. E-Book steht für ein elektronisches Buch (engl. electronic book).

Die zurzeit populärste Interpretation von E-Books bezeichnet Bücher in digitaler Form, die auf E-Readern oder mit spezieller Software auf Personal Computern, Tablet-Computern oder Smartphones lesbar sind (http://de.wikipedia.org/wiki/E-Book). E-Reader sind Endgeräte, die in erster Linie zum Lesen von extra für diesen Zweck digitalisierten oder neu digital erstellten Büchern (häufig literarischen Werken), eben E-Books, gedacht sind. Das Ziel solcher E-Reader ist es, das Buch digital zu imitieren und Benutzerinnen und Benutzern das Lesen eines digitalen Buches zu bieten. Die Entwicklung von E-Reader-Endgeräten geht in die 1990er Jahre zurück, wobei sich damalige Endgeräte auf das Lesen von E-Books im zuvor genannten Sinne beschränkten und kein eigenes Format verlangten. Moderne E-Reader erfordern bestimmte Formate und können bislang nur bestimmte, zum Teil proprietäre Formate lesen. Dabei setzt sich mittlerweile langsam das sogenannte EPUB-Format durch. Der Abschnitt „E-Reader-Formate und HTML5“ befasst sich genauer mit dieser Definition von E-Books. Zukünftige E-Reader-Endgeräte werden weitaus mehr bieten als auf bestimmte Formate beschränkte Lesefunktionen darzustellen. So unterstützt bereits heute Apple als Vorreiter mit seinen iBooks die Einbindung von 3D-Grafiken, Audio- und Video-Elementen sowie die Nutzung von interaktiven Elementen, Tests und Quizzes. Zudem können selbst gestaltete Interaktionen über Widgets via learningapps.com eingebunden werden (#ebook #L3T #interaktion).

!

Echte E-Reader sind mobile Endgeräte, die auf den Anzeigetechniken des elektronischen Papiers beruhen (Bildschirme mit E-Ink-Technologie). Das Besondere an der Anzeigetechnik ist, dass für das Anzeigen von Texten oder Bildern keine Erhaltungsspannung nötig ist, daher sind sie stromsparend und augenschonend. Die bekanntesten Geräte sind derzeit der Sony E-Book-Reader und der Amazon Kindle. Auch Smartphones und Tablets eignen sich, gegebenenfalls mit Zusatzsoftware, als E-Book-Lesegeräte.

E-Books für Lernumgebungen stellen im Unterschied zu den beiden anderen Definitionen meist mit spezieller Autorinnen- und Autoren-Software erstellte Lehr- und Lerninhalte dar. Sie sind im Allgemeinen noch nicht mit E-Readern lesbar, könnten aber meist als PDF-Version (auch in Online-Bibliotheken) angeboten werden. Der Unterschied zu den beiden vorhergehenden Varianten liegt in der Erstellung der Inhalte und im Format der Verwendung bzw. Präsentation und Interaktion. Während E-Reader-Inhalte meist über kommerzielle Anbieter abonnierbar sind (es gibt auch freie Anbieter) und das Angebot von Online-Bibliotheken für die Benutzer/innen schwer beeinflussbar ist, erstellen diese im Falle von E-Books für Lernumgebungen den Inhalt meist selbst. Das Ausgabeformat ist dabei für Internetbrowser optimiert und erfährt durch die ständige Weiterentwicklung des gängigen Browserformats HTML (derzeit HTML5) vorher ungeahnte Möglichkeiten. Oft bietet die Lernumgebung, in welche das E-Book eingebettet ist, umfangreiche Navigations- und Interaktionsmöglichkeiten; so kann eine Notizfunktion in solchen Lernumgebungen vorausgesetzt werden, wodurch sie sich gerade für den Lehr- und Lernbetrieb besonders eignen. Ebenso im Gegensatz zu E-Books für Online-Bibliotheken oder E-Reader ist diese Art von E-Book auch die einzige mit einigen Forschungsansätzen. Dabei spielt die Fragestellung nach einer didaktisch sinnvollen Aufbereitung von Inhalten, die meist im Rahmen von Fernlehre oder Selbststudien-Szenarien angeboten werden, eine zentrale Rolle (Armstrong, 2008; Weitl et al., 2002; Weitl et al., 2005).

!

E-Books können auch in anderen Formaten (wie HTML/HTML 5, Flash) mit Autorinnen- und Autorenwerkzeugen erstellt und in Lernumgebungen angeboten werden.

Im Folgenden wird die Bezeichnung E-Book im zuletzt genannten Sinn eines E-Books für Lernumgebungen verwendet.

Charakteristika und Vorteile von E-Books gegenüber klassischen Lehrunterlagen (Skripten)

Klassische digitale Lernunterlagen unterscheiden sich kaum von ihrem traditionellen analogen Pendant. Meist zeichnen sie sich durch gut strukturierten Fließtext mit Abbildungen aus. In zunehmendem Maß werden den Lernenden auch Lehrunterlagen in Folienform („PowerPoint-Lehrunterlage“) als Unterlage angeboten. Diese sind jedoch auf Grund ihres Präsentationscharakters oft schlecht zum Lernen geeignet. E-Books können genau diese Lücke zwischen Buch und Präsentation schließen. Sie sind online verfügbar, meist didaktisch strukturiert und erlauben die Einbettung und das Abspielen verschiedener multimedialer Formate sowie die Vernetzung mit anderen Inhalten. Zusätzlich bieten sie im Allgemeinen Interaktions- und Kommunikationsmöglichkeiten, zum Beispiel Annotationsfunktionen, Lesezeichen, Chats oder Foren.

Zur Erstellung der Inhalte kommt eine sogenannte Autorinnen- oder Autorensoftware für die Programmierung zum Einsatz. Diese kann in ihrer Komplexität und Bedienfreundlichkeit sehr divergieren. Editoren für den Offline-Betrieb sind genauso vorhanden wie Online-Varianten. Mit vielen Editoren können sowohl der eigentliche Inhalt editiert und strukturiert als auch entsprechende Test- und Prüfungsinhalte erstellt werden. Meist stehen auch umfangreiche Möglichkeiten zur Administration der Inhalte zur Verfügung. Auch die Möglichkeit zur audiovisuellen Unterstützung, vorwiegend für Inhalte, die zum Selbststudium oder zur Fernlehre geeignet sein sollen, wird von mancher Authoringsoftware angeboten. Neben kurzen Lehrvideos kommen hier gerne auch sogenannte Avatare zum Einsatz.

!

Ein Avatar ist eine künstliche Person oder eine grafischer Stellvertretung einer echten Person in der virtuellen Welt, wodurch eine subjektiv angenehmere Lernumgebung geschaffen werden soll.

Unabhängig von den Vor- oder Nachteilen der Autorinnen- und Autorensoftware ist es bei der Erstellung von E-Books von essentieller Bedeutung, E-Learning-Inhalte effizient zu entwickeln und effektiv einzusetzen (Barton et al., 2009). So begünstigen Inhalte mit audiovisuellen interaktiven Elementen eindeutig das Lernen gegenüber vergleichbaren, die dies nicht bieten (Rowhani & Sedig, 2005). Gerade in Hinblick auf die Verwendung als Lehr- und Lernunterlage ist eine didaktisch wohl überlegte Strukturierung und Aufbereitung der Inhalte die zentrale und meist schwierigste Aufgabe bei der Erstellung von E-Books. Auch dies kann eine Autorinnen- und Autorensoftware unterstützen. So bietet zum Beispiel die Software ABC-Manager der Technischen Universität Graz bereits ein didaktisches Schema zur Erstellung von Inhalten (siehe Kasten „### In der Praxis“, Abbildung 2; Nagler et al., 2007; Huber et al., 2008).

Die Inhalte werden in der Regel in einzelne Inhaltspakete untergliedert, deren Aufbau didaktisch orientiert ist. Die klassische Lehrbuch-Einteilung in Einführung in die Thematik, Hauptteil und Zusammenfassung samt angehängter Übungseinheiten ist auch hier oft vorzufinden und erinnert stark an die in den späten 1980er Jahren aufgekommenen und den 1990er Jahren beliebten Lern-CD-ROMs.

!

Eine Auswahl verschiedener Autorinnen- und Autorensysteme zur Erstellung von E-Books kann in der L3T-Gruppe bei https://groups.diigo.com/group/l3t_20_ebook unter Verwendung von #ebook #l3t abgerufen werden. Neben kommerziellen Angeboten wird auch eine Reihe von kostenlosen Open-Source-Angeboten angeführt.

Die Auswahl der Autorinnen- und Autorensoftware richtet sich hauptsächlich nach dem Zweck der Lehr- und Lernunterlagen sowie der Einbindung der so erstellten Inhalte in ein eventuell verwendetes übergeordnetes Lernmanagementsystem. Bei der Auswahl eines Systems sollte auch überprüft werden, ob das Lernmanagementsystem den für E-Learning-Inhalte gerne verwendeten Standard SCORM unterstützt, da SCORM von vielen Systemen als Ausgabeformat angeboten wird.

Vom Online-Skriptum zum E-Book

Exkurs: SCORM - Der Versuch einer Vereinheitlichung von Online-Inhalten

Seit dem Aufkommen von Lernplattformen in den 1990er Jahren gab es immer wieder Versuche, das Format von elektronischen, interaktiven Lerninhalten zu standardisieren. Es liegt wohl hauptsächlich an der unüberschaubaren Vielfalt und Unterschiedlichkeit von Lehrinhalten, dass sich bis heute kein Standard durchschlagend etablieren konnte. Der wohl erfolgreichste Versuch, einen derartigen Standard für E-Learning-Inhalte durchzusetzen, ist SCORM. SCORM ist die Abkürzung für „Sharable Content Object Reference Model“ und bezieht sich damit auf die technische Wiederverwendbarkeit von einzelnen Lernpaketen in verschiedenen Lernumgebungen. Auf der Seite SCORM Explained (http://scorm.com/scorm-explained/) ist zu lesen: „it is the de facto industry standard for e-learning interoperability“. SCORM ist seit 1999 ein Standard der 1997 gegründeten ADL-Initiative (Advanced Distributed Learning). Das Ziel dieser gemeinsamen Initiative des White House Office of Science and Technology Policy (OSTP) und des Office of the Secretary of Defense (OSD) der Vereinigten Staaten von Amerika ist es, Lehr- und Informations-Technologien zu entwickeln und zu benutzen, um Bildung und Ausbildung zu modernisieren sowie die Entwicklung von E-Learning-Standards in Zusammenarbeit mit weiteren Initiativen zu fördern. Mehr Informationen zu SCORM finden sich im Kapitel #metadaten.

!

Software. mit der E-Reader-Formate auch ohne E-Reader-Endgerät gelesen werden können, sind in der L3T Gruppe bei https://groups.diigo.com/group/l3t_20_ebook unter #ebook #l3t #lesesoftware auffindbar. Software, mit der Inhalte im EPUB-Format erzeugt bzw. bestehende konvertiert werden können, sind bereits in großer Zahl vorhanden. Eine gute Übersicht bietet http://www.xmarks.com/site/www.lexcycle.com/faq/how_to_create_epub

!

Weitere Lösungen sind in der L3T-Gruppe bei https://groups.diigo.com/group/l3t_20_ebook unter #ebook #l3t #konvertierung abrufbar.

In der Praxis: Gespraech mit Herwig Hagenbacher

Herwig Habenbacher gibt im L3T-Interview aus Nutzendensicht einen Einblick in seine tägliche Arbeit mit seinem E-Reader. Er setzt diesen zunehmend ein und spricht im Interview über dessen Stärken und Schwächen. Das Video ist bei YouTube zugänglich oder bei DIIGO unter dem Hashtag #video (http://www.youtube.com/watch?v=7Z_qRbjG6Ck)

Vom Online-Skriptum zum E-Book

Interaktion und Vernetzung der Inhalte

Auch wenn das Format SCORM nicht verwendet wird, sollte besonders im universitären Einsatz von E-Books darauf geachtet werden, dass diese in das verwendete Lernmanagementsystem eingebettet oder zumindest verlinkt werden können. Auch bei E-Books stellt die Verwendung einer Vielzahl verschiedener Einzelsysteme, die eventuell nicht einmal miteinander in Verbindung stehen, Lehrende wie Studierende vor unnötige Herausforderungen. Daher sollten Strategien bevorzugt werden, welche die Qualitäten von Einzelanwendungen miteinander verknüpfen. So könnten beispielsweise Inhalte eines E-Books, welche in einer Lehrveranstaltung verwendet wurden, automatisch mit Aufzeichnungen dieser Lehrveranstaltung verknüpft werden. Auch die Verwendung eines einheitlichen Identifikationssystems für mehrere verwendete Systeme (Single-Sign-On) ist in diesem Zusammenhang ein integraler Bestandteil eines Gesamtkonzepts. So können Annotationen zu Inhalten eines E-Books über eine Log-In-Kennung ebenso in einen themenrelevanten Blog oder ein Newsgroup-System automatisiert personenbezogen Eingang finden, wie zum Beispiel in einen zum Inhalt nebenher geführten Chat. Die Möglichkeiten vernetzter Systeme sind zahlreich. E-Books und E-Book-Umgebungen sollten hier nicht ausgeklammert, sondern ihr Interaktionspotential ausgeschöpft werden.

Besonders wichtig für Studierende sind Annotationsmöglichkeiten. Erst die Möglichkeit, zum Online-Inhalt persönliche Notizen, Kommentare und Fragen hinzufügen zu können, verleiht dem E-Book die Qualität eines Skriptums. Darüber hinaus sollte es möglich sein, Annotationen öffentlich oder privat anzufügen. Wird eine druckbare Form des E-Books angeboten, so müssen auch die getätigten Annotationen an den richtigen Stellen im Ausdruck vorhanden sein. Dabei sollte zwischen nur den eigenen Annotation oder auch denen anderer Benutzer/innen gewählt werden können. Diese Anforderung betrifft weniger das Autorinnen- und Autorensystem als die verwendete E-Book-Umgebung bzw. das Lernmanagementsystem, in welches E-Books eingebettet sind.

Die Erstellung eines E-Books ist je nach Leistungsumfang und Grad der Interaktivität durchaus aufwändig. Ein großer Anteil des Aufwands entfällt dabei, wie auch bei anderen Inhaltsformen, auf die Konzeption der Inhaltselemente und deren Abstimmung aufeinander. Der Aufwand zur eigentlichen Umsetzung hängt vom Leistungsumfang und der Bedienfreundlichkeit der Autorinnen und Autorensoftware ab.

Vom Online-Skriptum zum E-Book

E-Reader-Formate und HTML5

Seit Amazon im Herbst 2007 sein E-Reader-Endgerät namens Kindle in den USA herausgebracht hat, erfährt das Thema E-Books einen ungeahnten Höhenflug. Im Frühjahr 2009 kam das Folgemodell heraus und startete einen breiten internationalen Siegeszug für E-Books. Spätestens mit der Verfügbarkeit des Kindle im deutschsprachigen Raum im Herbst 2009 erhält das Thema E-Books auch hierzulande steigende Aufmerksamkeit. Aber auch mit anderen Endgeräten können E-Books gelesen werden: neben zahlreichen Programmen sind hier besonders die Kindle-Software für PCs, Android- und iOS-Mobilgeräte sowie die für iOS und ab Herbst 2013 für Mac OS X Mavericks verfügbaren iBooks inklusive interaktiven Elementen zu erwähnen.

Der E-Book-Markt boomt hinsichtlich der Absätze (Kirchner & Robrecht, 2009) und der Vielzahl an Endgeräten sowie Anwendungen. Zudem gibt es eine noch überschaubare Menge an verschiedenen Formaten (einige davon sind auch proprietär). Das bedeutendste Format ist das sogenannte EPUB-Format (electronic publication).

Abb. 1: Icon für EPUB-Format
Abb. 1: Icon für EPUB-Format

?

Sie sind eine technologiebegeisterte Lehrkraft an einer Schule. Nachdem Sie von den Möglichkeiten erfahren haben, die neue Formate für die elektronische Distribution bringen, müssen Sie sich bald mit einer Person im Kollegium mit angeborener Technikskepsis treffen und versuchen, diese Person zu einem Buchprojekt mit Schülerinnen und Schülern zu überzeugen.

?

Erstellen Sie zu einem Thema Ihrer Wahl mit Hilfe einer freien Software ein kurzes E-Book (10 Seiten) im EPUB-Format und lesen Sie es mit einer E-Reader-Software. Damit erhalten Sie einen Einblick in den Produktionsprozess sowie in die Nutzung des abschließenden Produkts.

In der Praxis: Ablaufprozess bei der Erstellung von E-Books

An der Technischen Universität Graz wird seit 2007 ein eigenes Autorinnen- und Autorensystem zur Erstellung von Online-Inhalten entwickelt, der ABC-Manager (http://ebook.tugraz.at), welches sich an didaktischen Richtlinien und Erkenntnissen zur Aufbereitung von digitalen Inhalten orientiert (Weitl et. al., 2002; Weitl et. al., 2005). Beim ABC-Manager werden Inhalte in einzelnen Seiten (Screens) von fixer Größe erstellt und in sogenannten Screen-Pools unabhängig von ihrer späteren Verwendung in einem E-Book gespeichert. Durch Zuordnung eines Screens zu einer Kategorie können im späteren E-Book nur Screens einer gewählten Kategorie selektiv angezeigt werden, wodurch Skript- und Präsentationsscreens in einem E-Book realisiert werden können. Bei der Erstellung eines E-Books werden die im Pool abgespeicherten Screens beliebig aneinander gereiht, gemischt und abgespeichert. Screens können so mehrfach wiederverwendet und E-Books schnell aus vorhandenen Inhalten erstellt werden. Im Zusammenhang mit der Lernplattform des TU Graz TeachCenters, in welcher die E-Books des ABC-Managers veröffentlicht werden, bilden E-Books der TU Graz einen weiteren Baustein in der Strategie des freien Zugangs und der Verbreitung von Bildungsinhalten, von „Open Educational Resources“. Die Grafik veranschaulicht die Möglichkeiten, mit denen Lehrende an der TU Graz E-Books erstellen und im TeachCenter bzw. in den verschiedenen E-Reader Ausgabeformaten veröffentlichen können.
Abb. 2: Ablaufprozesse beim Erstellen eines E-Books
Abb. 2: Ablaufprozesse beim Erstellen eines E-Books

EPUB ist ein vom International Digital Publishing Forum (IDPF) 2007 entwickelter offener Standard für E-Books auf Basis der Web-Sprache XML. In erster Linie werden Inhalte mit Text- und Bildanteilen unterstützt, wobei das EPUB-Format eine dynamische Anpassung der Inhalte an den Bildschirm des Endgerätes erlaubt. Da dieses Format von vielen E-Readern (nicht aber Kindle) gelesen werden kann, ist es inzwischen das gängigste am E-Book-Markt. Das aktuelle Format EPUB 3.0 (seit Oktober 2011) unterstützt die Einbettung multimedialer Inhalte (Audio- und Videodateien wie auch 3D-Grafiken) sowie interaktive Elemente mit Drag&Drop-Funktionalität (zum Beispiel für Quizzes) in das E-Book. Unter anderem können nun auch mathematische Formeln direkt dargestellt werden, die zuvor nur als Bilder eingebunden werden konnten. Ermöglicht wird dies weitestgehend durch die Weiterentwicklung und Verwendung von HTML Standards (HTML5, MathML). Auch Amazon Kindle setzt mittlerweile auf HTML5. Als eindrucksvollste Autorensoftware auf Basis dieser neuen Entwicklungen kann Apples iBooks Author genannt werden, welche alle genannten neuen Funktionalitäten bietet. Sowohl die Wiedergabe- als auch die Autorenfassung der Software ist kostenlos. Die Wiedergabekomponente ist nur für iOS sowie ab Herbst 2013 für Mac OS X 10.9 verfügbar; die Software steht nur für Mac OS X zur Verfügung.

Vom Online-Skriptum zum E-Book

Zentrale Erkenntnisse

Mit den Möglichkeiten des modernen Internets (Web 2.0) kann Lehre immer vielfältiger stattfinden. Für den universitären Lehr- und Lernalltag sind ‚handfeste‘ Inhalte und Unterlagen, mit denen gearbeitet werden kann, nach wie vor zentrale Elemente. Mit E-Books kann beides gut kombiniert werden, sofern die genutzten E-Book-Umgebungen über Interaktionsfunktionalitäten sowie Kommunikationsmöglichkeiten verfügen und die E-Books selbst didaktisch aufbereitet sind. Die Verwendbarkeit für E-Reader sollte unbedingt angestrebt werden. Besonders interessant sind dabei auch Möglichkeiten der Kollaboration zwischen den einzelnen Nutzenden, etwa über eine ‚Cloud‘. Erste Ansätze dazu finden sich beispielsweise bei LOOP (http://loop.oncampus.de/loop/LOOP), dem offenen Biologie-Buch (http://schulbuch-o-mat.oncampus.de/loop/BIOLOGIE_1) oder in den Kapitel-Erweiterungen zu L3T (http://l3t.oncampus.de/). Auch die Integration von Wissenstests und dynamischen Simulationen von Algorithmen in „Visualization-based Computer Science Hypertextbooks“ (Rößling & Vellaramkalayil, 2009) fällt in diesen Rahmen.

Vom Online-Skriptum zum E-Book

Literatur

Educasting

Wie Podcasts in Bildungskontexten Anwendung finden

Das Wortgebilde „Educast“ kombiniert Bildungs- bzw. Lernkontexte mit der Podcast-Technik. Beispiele für Educasts sind zum einen Vorlesungsmitschnitte in formalen Lernsituationen oder dokumentarisch orientierte (oft auch frei verfügbare) Audio- und Videoaufnahmen einzelner Events, die für Lehr- und Lernzwecke eingesetzt werden. Zum anderen findet die Erstellung von Podcasts in Bildungskontexten statt, mit dem Ziel der Förderung einer Medienkompetenz der Lernenden. Zunächst werden in diesem Kapitel Hinweise zur technischen Umsetzung von Educasts gegeben. Für pädagogische Kontexte sind didaktische und lerntheoretische Gestaltungsentscheidungen wesentlich. Daher wird die Nutzung von Educasts entsprechend verschiedener Lerntheorien erläutert sowie ihre didaktische Gestaltung in verschiedenen Lernszenarien mit Beispielen aus der Hochschule, Schule und außerschulischen Jugendbildung beschrieben, um die eigene Planung und Produktion von Educasts anzuregen. Ziel ist es, einen Blick über die traditionelle Instruktion hinaus zu wagen. Dabei wird die Nutzung von öffentlich verfügbarem Medienmaterial für Bildungskontexte aufgezeigt und erläutert wie Educasts im Sinne des konstruktivistischen Lernens von Lernenden selbst erstellt werden können. Als Gründe und Anlässe ihres Einsatzes werden abschließend Educast-Nutzungskontexte unter den Perspektiven von Medienkompetenzentwicklung, von selbstgesteuertem lebenslangem Lernen sowie von Lernen in institutionellen und nicht-institutionellen Kontexten veranschaulicht.

Educasting

Was sind Educasts?

Der Begriff ‚Educast‘ bezieht sich auf die Nutzung von Podcasts und anderen Audio- und Videoaufzeichnungen in Bildungskontexten. Educasts, auch als ‚Educational Podcasts‘ verstandene Aufzeichnungen, sind an pädagogischer Thematik orientierte oder in pädagogischen Kontexten entstandene Ton- und Filmmedien (Schiefner, 2008, 16). Educasts können über einen sogenannten RSS-Feed abonniert werden. Dieses nutzer/innen-orientierte Benachrichtigungssystem informiert über Änderungen und neue Episoden, ohne dass man diese aktiv im digitalen Netz abrufen muss. Das dem Educast zugrundeliegende Podcast ist ein Kunstwort aus dem Markennamen iPod, einem weit verbreiteten Audiowiedergabegerät der Firma Apple Inc., und dem englischen Wort ‚to broadcast‘ mit der Bedeutung etwas zu senden oder aus zu strahlen, was sich im englischen Sprachraum auf die Tätigkeit von Rundfunkanstalten (engl. ‚broadcasting agencies‘) bezieht. Diese Wortschöpfung umfasst den Grundgedanken des Ausstrahlens oder Sendens medialer Inhalte mittels technologischer Publikationsmechanismen auf ein entferntes Wiedergabegerät. In den vergangenen Jahren haben sie jedoch einige funktionale Erweiterungen erfahren, die wiederum neue Wortschöpfungen hervorbrachten:

Aktuelle Entwicklungen ermöglichen es, Podcasts zu annotieren, das bedeutet, zu jedem Moment eine Notiz sowohl in verbaler als auch in grafischer Form anzufügen. Wird der Podcast an dieser Stelle nochmals abgespielt, wird die Annotation angezeigt. Wie bei einem Text dienen die Annotationen der inhaltlichen Auseinandersetzung mit dem Podcast. Notizen können dabei für sich alleine vorgenommen werden oder auch für eine Gruppe, mit der man darüber diskutiert. Beispiele für den Einsatz der Annotation von Podcasts finden sich in der Fahrschullehrerausbildung (Ranner & Reinmann, 2011), im Tischtennisunterricht (Vohle, 2009) oder in der Hochschullehre (Krüger, Steffen & Vohle, 2012). Die Annotationsfunktion ermöglicht eine inhaltliche Auseinandersetzung mit den Podcasts, die in dieser Qualität bisher nicht möglich war.

Mit dem Blick auf andere bedeutende Bildungsressourcen wie Nachrichtensendungen im Internet, außerschulische Jugendprojekte bis hin zu Weiterbildungsinstitutionen erfahren Educasts zunehmende Aufmerksamkeit. Sie dienen als Informationsquelle, Ausdrucksmittel individuellen Lernens sowie als Lerngegenstand. Educasts werden zudem auch im Kunden-Support, zum Beispiel von Software-Unternehmen zur Vorstellung ihrer Software oder für die Unternehmenskommunikation und Public Relations, genutzt. Besonders aber Hochschulen und Schulen sehen im Educasting einen Mehrwert für die Unterstützung des Lernens.

!

Educasts sind Audio- und/oder Videodateien, die digital zu Lern- und/oder Lehrzwecken bereitgestellt werden.

In der Praxis: Werkzeuge und Links für die Erstellung von Educasts

Aufnahmetechnik

Für die Erstellung von Educasts werden Audio- und/oder Videoaufnahmegeräte benötigt. Neben professionellen, teuren Aufnahmegräten bieten heute auch oft leicht verfügbare digitale Alltagsgeräte ausreichende Qualität für Aufnahmen (dies erleichtert insbesondere die Anwendung von Educasts in Schulen). Neben MP3-Recordern, Diktiergeräten, Videokameras eignen sich beispielsweise auch Mobiltelefone oder Mobilcomputer (Laptops, Tablets) als Aufnahmegeräte. Zur Aufnahme von Screencasts wird zusätzliche Software benötigt. Zum Beispiel eignen sich dazu die freie Version von Jing/Techsmith (http://www.jingproject.com/features/) und die Open-Source-Version von CamStudio (http://camstudio.org/).

Zudem gibt es auch kostenpflichtige Software, wie zum Beispiel Camtasia Studio von TechSmith (http://www.techsmith.de), Captivate von Adobe (http://www.adobe.com) oder Screenflow von Telestream (http://www.telestream.com).

Schnitt/Bearbeitung

Zur Bearbeitung des aufgenommenen Ton- und Bildmaterials wird ebenfalls Software benötigt, mit der die Aufnahmen geschnitten, verändert, mit Effekten versehen und durch Sounds, Bilder, Text etc. ergänzt werden können. Folgende aus Platzgründen beispielhafte Software dient als Hilfe für einen ersten Start, es sollte aber recherchiert werden, ob nicht inzwischen leistungsfähigere freie Software verfügbar ist: Zur Audioaufnahme und -bearbeitung empfiehlt sich Audacity (http://audacity.sourceforge.net/). Zur Videoaufnahme können Windows Movie Maker, Avidemux (Linux) und Cinderella (Linux) verwendet werden. Aufnahmen, Geräte und Bearbeitungsprogramme vergeben beziehungsweise benötigen oft spezifische Dateiformate. Wenn diese nicht kompatibel sind, werden zudem Konvertierungsprogramme benötigt. HandBrake (http://handbrake.fr/downloads.php) wandelt beispielsweise DVDs und Videos für den iPod und das iPhone um. Zusätzlich kann nach MP4 und Xvid encodiert werden oder das SUPER Konvertierungsprogramm (http://super.softonic.de/), das unterschiedliche Aufnahmeformate in andere umwandelt, verwendet werden.

Urheberrechte

Wer seine Aufnahmen mit Musik oder Bildern ergänzen will, muss sich um Urheberrechte kümmern (siehe Kapitel #recht). Ein Reihe hilfreicher Links finden sich bei Diigo mit Hilfe der Schlagworte #l3t und #educast.

Freie Materialien

Auch freie Musik und Bilder sind im Internet erhältlich, zum Beispiel auf den Websites von Massivetracks.net, Jamendo.com und Musicralley.com.

?

Wie erstelle ich einen Screencast mit Captivate oder Camstudio? Siehe dazu URL: http://www.seehagen-marx.de/index.php/e-szenarien/educasts/screencasting

Educasting

Vorgehen bei der Erstellung von Educasts

Die Realisierung von Educasts scheint einfach: Aufnahmesoftware starten, Aufnahme starten, aufzeichnen und kommentieren. Dann wird das Produkt zusammen mit einer textbasierten Beschreibung (‚Shownotes‘) online gestellt und die Zielgruppe wird über die Existenz des neuen Lernstoffs automatisch informiert. Für die erfolgreiche Erstellung von Educasts gilt es, sich mit der Gestaltung des Inhalts, mit den gewählten Technologien und der Veröffentlichung auseinander zu setzen. Dazu werden in der Box ‚### In der Praxis‘ oben Tipps für Werkzeuge und Webadressen gegeben. Gestaltungsprinzipien, die auf Erkenntnissen der Gedächtnispsychologie beruhen, wie zum Beispiel der kognitiven Theorie multimedialen Lernens (Mayer 2005), sind dabei zu beachten (beispielsweise das Verhältnis von visuellen und auditiven Informationen, Split-Attention-Effect etc.) (siehe Kapitel #gedaechtnis).

Für die Entwicklung von Educasts gilt zum einen, didaktische Prinzipien sowohl bei der Gestaltung als auch beim Einsatz von Educasts zu berücksichtigen. Zum anderen gilt es, das Medium Educast auf seine Wechselwirkung von unterschiedlichen Methoden, Lerninhalten und Zielgruppen hin zu untersuchen. Educasts können im Lernprozess zur Wissenspräsentation in darstellender und organisierender Weise sowie zur Unterstützung personeller Kommunikation genutzt werden. Damit können sie sowohl einem instruierenden als auch einem konstruktivistischen Lehr-/Lernverständnis zugeordnet werden. Entsprechend lassen sich dann unterschiedliche didaktische Gestaltungsmöglichkeiten entwickeln (siehe Kapitel #lerntheorie).

Educasting

Lern-/Lehrtheoretische Verortung

Educasts sind im Grunde genommen Medientechnologien, die in Bildungskontexten eingesetzt werden. Doch diese Medientechnologie macht spezifische Szenarien und Bildungsarrangements möglich. Entlang der Akteursgruppe kann in Szenarien unterschieden werden, die beispielsweise eher Wissensrezeption intendieren, oder – weil es einfach geht – in der Produktion und Distribution die Gestaltung durch Lernende. Die Wissensrepräsentation wird zum Beispiel beim instruierenden Lehren durch das Aufzeichnen von Vorträgen und Vorlesungen oder Erklärungen in den Vordergrund gerückt. Die Struktur der Lerninhalte kann dabei sequentiell gestaltet werden. Die Möglichkeit, nicht verstandene Vortragsabschnitte sanktionslos zu wiederholen, kann dabei eine Steigerung der Motivation bei den Lernenden erwirken (Schulmeister, 2001).

Lernende können dann ihren Lernstoff frei nach eigenen Bedürfnissen oder Lernständen auswählen. Bei diesem Modell agieren die Herstellenden als Lehrende, von denen die Rezipientinnen und Rezipienten etwas lernen sollen. Den Educasts können angeleitete Übungen und Aufgaben beigefügt werden, mit dem Ziel, durch ihre Bearbeitung die kognitive Verarbeitung des Gelernten zu fördern. Derartige Nutzung in instruierenden Lernformen folgt dem Lernmodell des Kognitivismus, bei dem davon ausgegangen wird, dass Lernprozesse durch die geleitete Aufnahme und Verarbeitung von Wissen erfolgen: Reize werden aufgenommen und einer kognitiven Verarbeitung und Bewertung unterzogen.

Beide Varianten könnten auch für eher konstruktivistische Lernformen angepasst werden: Das gemeinsame Annotieren von Educasts wäre konstruktivistisch, da die Lernenden ihre Ideen und Meinungen mit dem instruierenden Educast verknüpfen. Auch beim Konzept des Flipped Classrooms (siehe Kapitel #offeneslernen) können instruktionale Educasts zur Erlangung von Vorwissen eingesetzt werden, um dann eine diskursive Auseinandersetzung über das Gelernte in der Lerngruppe anzuregen.

Eine andere Variante ist die Produktion von Educasts nicht durch Lehrende, die instruieren, sondern durch die Lernenden selbst und kann dem konstruktionistischen Lernen zugeordnet werden (Harel & Papert, 1991). Die Aufgabe, selbst einen Educast zu erstellen, fordert Lernende dazu heraus, ihr selbst angeeignetes Wissen wiederzugeben und für die Konstruktion eines Educasts zu strukturieren. Dazu erstellen sie ein Drehbuch.

Diese Nutzungsform von Educasts fördert ein konstruktivistisches Lernen: Wissen wird nicht vorgegeben und gelernt, sondern muss selbst erschlossen, verarbeitet, strukturiert und transferiert werden, um in die Konstruktion eigener kognitiver Schemata zu münden. Durch die Arbeit an der Konstruktion einer eigenen Darstellung des Wissens wird dieser Prozess unterstützt. Der Educast dient dann als ein zu konstruierendes Artefakt, das als eine veräußerlichte Form der erfolgten Lern- und Denkprozesse diskutiert werden kann. Derartige Mediennutzung für Lernprozesse wird auch als Learning-by-Designing (Kafai & Harel, 1991) bezeichnet.

Mit Bezug auf den gesamten Prozess, von der Planung, über die Produktion bis zur Distribution und dem sich danach anschließenden Diskurs um die Information, steht der Kontext zu einer bildungstheoretisch-subjektwissenschaftlichen Basis (Faulstich & Zeuner, 1999) oder vor konstruktivistischem Horizont einer Ermöglichungsdidaktik (Arnold, 2003).

!

Educasts finden als Medienwerkzeug sowohl mit dem Ziel der assistierenden Vermittlung (zur Instruktion) als auch der Gestaltung (Konstruktion) ihre praktische Anwendung.

?

Skizzieren Sie Beispiele für die Nutzung von Educasts

Educasting

Didaktische Gestaltungsmöglichkeiten für den Einsatz von Educasts

Ergänzend zur idealen technischen Umsetzung von Podcasts ist besonders ihre adäquate didaktische Gestaltung zu beachten. Neben den oben aufgeführten lerntheoretischen Überlegungen zum Einsatz von Educasts gilt es, den didaktischen Zweck, den pädagogischen Kontext und das didaktische Szenario zu planen.

Die Planung des Inhalts

Am Anfang steht die Idee, das Thema, welches erlernt oder bearbeitet werden soll. Erarbeiten Sie mit Hilfe eines Drehbuches die genauen Lerninhalte, Lernziele und Produktionswege ihres Educasts. Ein Drehbuch sollte die wesentlichen didaktischen Abläufe umschreiben und alle notwendigen Ressourcen, wie zum Beispiel Produktionsteam, Medien und Zeit, erfassen und einbeziehen. Wichtig für die Lernmotivation ist es, dass der Educast notwendige curriculare Bezüge aufweist. Im Weiteren müssen auch rechtliche Aspekte bei der Produktion eines Educasts beachtet werden, zum Beispiel Urheber-, Nutzungs- und Persönlichkeitsrechte (siehe Kapitel #recht).

!

Leitfragen zur Erstellung des Drehbuches:

Bei der Einbindung und Erstellung von Educasts sollten Erkenntnisse aus empirischen Studien beachtet werden (zum Beispiel über den Split-Attention-Effekt oder über Lernerfolge bei Audio- und Videomedien, siehe Niegemann, 2008).

Didaktische Szenarien

Im Folgenden werden didaktische Gestaltungen von Educasts in verschiedenen Szenarien aus Hochschule, Schule, Freizeit und Beruf vorgestellt. Beispielsweise werden in der Hochschullehre Vorlesungen immer öfter auf Video aufgezeichnet und anschließend als Educast bereitgestellt. Studierende haben so die Möglichkeit, nicht verstandene Vorlesungspassagen nochmal anzuhören (zum Beispiel zur Prüfungsvorbereitung) oder verpasste Vorlesungen (zum Beispiel aufgrund von Krankheit) nachzuholen. Dieses Ergänzungsangebot wird von Studierenden sehr begrüßt und intensiv wahrgenommen, da es einen hohen Nutzen für das Lernen bietet (Tillmann, Bremer & Krömker, 2012; Rust & Krüger, 2011).

Zentrale Podcast-Portale, beispielsweise an Universitäten, sind ideale Orte im Internet, um außerhalb von Lernveranstaltungen und Arbeitsgruppen das Selbstlernen zu unterstützen und zu fördern. Dabei sind Podcast-Portale nicht nur zentrale Anlaufstellen für fachübergreifende Lernmaterialien, sie unterstützen zugleich zum Beispiel einen hochschulübergreifenden Informationsaustausch in Forschung und Lehre.

!

Ein Beispiel für den innovativen Medieneinsatz in Forschung und Lehre ist das zentrale Podcast Portal der Bergischen Universität Wuppertal (http://podcast.uni-wuppertal.de/). Das als “Work in Progress” zu verstehende Portal wird stets weiterentwickelt. Ein weiteres Beispiel findet sich bei der Universität Graz (http://gams.uni-graz.at/pug).

Gebündelt nach Fachbereichen, zentralen Einrichtungen und Themen werden durch zentrale Podcast-Portale zunehmend Beiträge aus Forschung und Lehre abrufbar und durch RSS-Feeds abonnierbar sein. Folgende Aspekte unterstreichen das innovative Potenzial:

Screencasts werden meist zur anschaulichen Instruktion benutzt (zum Beispiel Softwareschulungen). Sie können aber auch zur Präsentation von Arbeitsergebnissen in Veranstaltungen genutzt werden. Lernende, die ihre Ergebnisse präsentieren wollen, erstellen mithilfe eines Screencasts ihre Präsentation (beispielsweise Arbeitsergebnisse einer Projektarbeit) und stellen diese zum Herunterladen bereit. Dazu sammeln sie in (durchaus auch verschiedenen) Computermedien visualisierte Darstellungen ihrer Ergebnisse (zum Beispiel Fotos, Webseiten, Präsentationsfolien, Darstellungen in Textverarbeitungsseiten oder Tabellenkalkulationen) und erstellen ein Drehbuch für ihre Präsentation, die sie dann durchführen, indem sie zu einem imaginären Publikum sprechen. Das Publikum ruft die Präsentation online ab. Lernende entwickeln dabei häufig mehr Ehrgeiz als bei einer Präsenzpräsentation, da sie die Aufzeichnung wiederholen können (Zorn, 2010).

Podcasts erlauben es Studierenden, Interviews mit Wissenschaftlerinnen und Wissenschaftlern oder mit Praxisexpertinnen und Praxisexperten durchzuführen, szenische Dialoge zu entwickeln und aufzuzeichnen, sowie eigene Features zu recherchieren und zu entwickeln. Damit kann Studierenden ein realistischer Erfahrungsraum ermöglicht werden. Dies umfasst ebenso die Ausformulierung einer Idee/Konzeption, wie deren Umsetzung. Ein derartiges Praxisprojekt stellt Studierenden sicher, dass über einen langen Zeitraum ihre Arbeitsergebnisse öffentlich zugänglich sind und trägt somit dem Gedanken des Lernportfolios Rechnung.

Educasting

Projekte und Beispiele

Educasts finden in Bildungskontexten immer häufiger Anwendung. Im Folgenden wird ein Überblick über Projekte gegeben, mit dem Ziel, beispielhaft möglichst diverse Einsatzbereiche aufzuzeigen.

Die ZIM4Learners (http://www.zim.uni-wuppertal.de/e-learning-amp-schulung/selbstlerner/zim4learners.html) sind ein praktische Beispiel für Screencasts. Die Screencasts werden vom Zentrum für Informations- und Medienverarbeitung der Bergischen Universität Wuppertal produziert.

Potential ‚ZIM4Learners‘:

Die AG-Podcasting begann 2005, explorativ Potentiale des Podcasting zu ergründen (http://userpages.uni-koblenz.de/~bid/bidagg/index.php):

Die Macher des Kaffeepod der Universität Augsburg verfolgen mit ihrem Podcast-Konzept inhaltlich eine Einführung in die Welt der Universität informellen Charakters (http://kaffeepod.de). Zielgruppe sind Studierende und Studieninteressierte. Die Inhalte entstehen innerhalb von Seminaren des Studiengangs “Medien und Kommunikation” der Universität Augsburg.

Der Podcast Bildungstalk strebt in seiner Wirkung einerseits nach der Distribution lehrveranstaltungsergänzender Themen wie auch dem Ermöglichen des Kompetenzerwerbs für Studierende aus medienpädagogischer und medienpraktischer Sicht (http://www.bildungstalk.uni-frankfurt.de).

In der Schule stehen die projektbezogenen Podcast-Produktionen durch die Schüler/innen im Vordergrund (mehr unter http://www.schulpodcasting.info/). Neben internen Schulprojekten (zum Beispiel Podcasts im Fremdsprachenunterricht, Podcasts als Schulradio) gibt es auch Podcasts als Lernbrücken zu anderen Schulen. Wichtig ist zu beachten, dass bei minderjährigen Schülerinnern und Schülern die Verantwortlichkeit für die Inhalte im Podcast bei den Lehrenden beziehungsweise bei der Schulleitung liegt. Daneben ist es wichtig, bei der Verwendung von personenbezogenen Daten wie Fotos und Namen von Minderjährigen die Erlaubnis der Eltern einzuholen.

In der außerschulischen Jugendbildung produzieren Jugendliche Podcasts zu selbstgewählten Themen. Sie entwickeln dazu Interviews oder Meinungsbeiträge über Mode, Schule, Berufswahl, Musik, ihren Stadtteil, ihren Jugendtreff und Weiteres. Dies erfolgt oft auch in Kooperation mit offenen Kanälen, welche die Audioprodukte als Radiosendungen ausstrahlen. Sie erreichen mit dieser Vermittlungsform ihrer Sichtweisen ein größeres Publikum, als wenn sie ihre Sichtweisen nur im Freundeskreis diskutieren würden. Entsprechend der Ziele der Medienpädagogik tragen solche Projekte zur Erweiterung von Handlungsoptionen und gesellschaftlicher Partizipation bei und fördern die Medienkompetenz.

Das Projekt VideoLern adressiert schließlich die Hochschullehre, konnte aber auch schon in der beruflichen Bildung erfolgreich eingesetzt werden. Die dahinterstehende Idee ist einfach: Die Lehrenden zeichnen ihre Vorträge auf und produziert so einen Educast. Die Lernenden kommen in einen Computerraum und schauen sich dann den Educast in Zweier- bis Dreiergruppen an und lösen dabei Übungsaufgaben, die einerseits das Verständnis der Vortragsinhalte überprüfen, andererseits aber auch eine Transferleistung einfordern. Die Lehrenden stehen in diesem Zeitraum den Lernenden permanent für Fragen zur Verfügung, denn sie sind durch den Educast von ihren Vorträgen entbunden. Vorteil dieses Lernszenarios ist, dass der instruierende Vortrag so durch selbstgesteuerte und kooperative Lernhandlungen angereichert wird. Darüber hinaus sind Variationen von VideoLern untersucht worden, die ähnliche Lernziele verfolgen (Gegenüberstellung der Vor- und Nachteile siehe Krüger, 2011).

?

Entwickeln Sie ein Lernszenario, in dem Educasts eingesetzt werden. Berücksichtigen Sie hierbei alle Angaben zum Drehbuch.

?

Recherchieren Sie im Internet Podcasts aus folgenden Kontexten: Nachrichten, Jugendbildung, Migrationspädagogik, Schule. Hören/Sehen Sie sich die Beiträge an und notieren Sie, welchen pädagogischen Zweck sie verfolgen.

Educasting

Bildungskontexte für den Einsatz von Educasts

Educasts zum selbstgesteuerten, lebenslangen Lernen

Im bildungspolitischen Kontext wird neben der Medienbildung eine lernendenzentrierte Lehrauffassung mit Blick auf die Unterstützung und Förderung des selbstgesteuerten, lebenslangen Lernens erwartet (BLK 2004, 13-30). Die Selbststeuerung des eigenen Lernens ist dabei ein Ideal zur aktiven Bewältigung des durch Globalisierung sowie wirtschaftliche und technische Veränderungen hervorgerufenen Wandels. Im Wesentlichen soll die Verantwortung für viele Aspekte des Lernens in die Hand der Lernenden gelegt werden. Die Lernenden sollen demnach mehr oder weniger die Fähigkeit erhalten, sich selbst zu unterrichten (Simons, 1992, zitiert nach Mandl & Krause, 2001; Dohmen, 1999). Dieser aktive Aneignungsprozess bietet umfassende Möglichkeiten zur eigenen Lernausrichtung sowie zur Überprüfung des Lernprozesses (Arnold & Gómez Tutor, 2007).

Vor diesem Hintergrund eröffnen Educasts mobile und flexible Lernwege, die besonders das selbstgesteuerte Lernen unterstützen. So können die Lernenden den Lernort und die Lernzeit selbst bestimmen. Darüber hinaus können beim Selbstlernen mit Educasts eigene Lernbedürfnisse festlegt werden, sowie eigene Lernziele bestimmt, organisiert und reguliert werden. Vorausgesetzt werden müssen die nötigen Selbstlern- und Medienkompetenzen zur Auffindung, zur Auswahl und zum Rezipieren von Educasts. Auch können durch gemeinsames Rezipieren der Educasts soziale Einbindungen unterstützt und gefördert werden, wie beim gemeinsamen Explizieren, Argumentieren und Rekapitulieren. Die Lernenden beeinflussen beim Rezipieren der Educasts den eigenen Lernprozess selbst aktiv in (meta-)kognitiver, motivationaler, emotionaler und sozialer Hinsicht.

Educasts in institutionellen Kontexten

Bildungsinstitutionen produzieren Educasts mit mehrfacher Absicht: Support der Lernenden, Transparenz der Lehre, Kontaktpflege zu den Alumni der Institution, Steigerung der Reputation der Institution; im Fall von öffentlich zugänglichen Educasts eine Erweiterung der Zielgruppe über den traditionellen Veranstaltungskontext hinaus. So leisten Educasts einen Beitrag als offene Bildungsmaterialien (Geser, 2007, siehe Kapitel #openaccess).

Museen verwenden Educasts beispielsweise, um sowohl im Museum als auch auf einer Museumswebseite Informationen über Ausstellungen und Exponate zu vermitteln.

Unternehmen nutzen Educasts, um öffentlichkeitswirksam auf ihrer Website ihre Produkte zu beschreiben. Mehr und mehr wenden sie Educasts auch intern für die Mitarbeiter/innen-Schulung an, indem beispielsweise Educasts für das formelle und informelle Lernen am Arbeitsplatz bereitgestellt werden.

Educast als Alltagsgegenstand in der Wissensgesellschaft

Während in den zuvor beschriebenen Kontexten Educasts eingesetzt werden, um sich darin vermittelte Lerninhalte anzueignen (zum Beispiel über Sprachen, Zeitalter, Firmenprodukte), ist ein weiterer Bildungskontext die medienpädagogische Veranstaltung, in der Educasts mit den Lernenden entwickelt werden, um eine Auseinandersetzung mit Medien in der Gesellschaft anzuregen:

Aus einer medienpädagogischen Perspektive heraus wird Podcasting als Phänomen der medialen Alltagswelt wahrgenommen (siehe Kapitel #medienpaedagogik). Im Bildungskontext könnten in Medienpädagogik-Workshops die Fähigkeit vermittelt werden, Educasts zu gestalten und sie im Internet für die Öffentlichkeit bereitzustellen. Die Educast-Herstellung würde dann als Mittel vorgestellt werden, um Menschen das Prinzip zu erläutern, kreativ und öffentlichkeitswirksam ihre Sichtweisen auf ein Thema darzustellen und somit ihre gesellschaftlichen Partizipationsmöglichkeiten zu erweitern.

!

Educasts sind auch Bildungsgegenstand bei der Förderung von Medienkompetenz.

?

Diskutieren Sie in Kleingruppen, wie an Ihrer pädagogischen Einrichtung Educasts eingesetzt werden könnten.

Educasting

Fazit

Abschließend sei darauf hingewiesen, dass die Einsatzbereiche für Educasts vermutlich in den nächsten Jahren wachsen werden, da die Technologien für die Erstellung von Educasts zunehmen und immer weiter verbreitet sind (vgl. Wachstumsraten von kleinen technologischen Geräten mit Video- und Aufnahmetechnik wie Smartphones, Tablets, Laptops, etc.). Internetbasierte Videoportale verzeichnen hohe Wachstumszahlen und werden zunehmend auch für die Suche nach Informationen genutzt. Es ist zu erwarten, dass die Dominanz von Text und Bild für Lernkontexte, wie wir es von Lehrbüchern her kennen, reduziert wird, und die Gewohnheiten von Lernenden zunehmen, sich Lerninhalte auch durch Audio- und Videoelemente in Form von Educasts anzueignen.

Educasting

Literatur

Game-Based Learning

Spielend Lernen?

Computer- und Videospiele gewinnen immer weiter an Popularität, vor allem auch durch neuere Entwicklungen wie der zunehmenden Eignung moderner Smartphones als Spielplattform oder dem Trend zu Browser- und Social-Games. Millionen von Menschen nutzen digitale Spiele als reine Freizeitbeschäftigung, ohne sich der mit den Spielen verbundenen Lernprozesse bewusst zu sein. Zwar dienen das bei Unterhaltungsspielen erworbene Wissen und die sich entwickelnden Kompetenzen in erster Linie der Erreichung der Spielziele, aber das Lernpotenzial digitaler Spiele lässt sich auch für formelle Bildungsziele nutzen – das zumindest ist die Grundidee des „Digital Game-Based Learning“. Was und wie lernt man durch digitale Spiele? Wie lassen sich Computer- und Videospiele zu Lernzwecken instrumentalisieren? Wie müssen digitale Lernspiele ausgestaltet werden, um einen möglichst hohen Lernerfolg zu gewährleisten, und wie können die Spiele in geeignete Lernarrangements eingebunden werden? Mit diesen und ähnlichen Fragen beschäftigt sich die Wissenschaft im Themenbereich (Digital) Game-Based Learning. Ziel dieses Kapitels ist es, das Konzept des (Digital) Game-Based Learning vorzustellen, indem einerseits seine Grundüberlegungen und wichtige Einflussgrößen erläutert, und andererseits Potenziale, Probleme und Herausforderungen veranschaulicht werden. Abgerundet wird das Kapitel durch einige Praxisbeispiele.

Game-Based Learning

Begriff und Geschichte

Der Begriff „Game-Based Learning“ stammt aus dem angloamerikanischen Raum. Er wurde Anfang des Jahrtausends durch die Arbeiten von Autoren und Autorinnen wie James Paul Gee (2007), Diana Oblinger (2006), Richard Van Eck (2006), Steven Johnson (2006) und Marc Prensky (2007) medienwirksam verbreitet. Teilweise wird von den Autoren und Autorinnen ein „Digital“ ergänzt, um hervorzuheben, dass Computer- und Videospiele als digitale Spiele im Vordergrund stehen. In der Literatur findet sich bisher keine eindeutige Abgrenzung des Game-Based Learning zu anderen populären Begriffen wie „Serious Games“ (siehe #virtuellewelt) oder „Educational Games“ (Fromme et al., 2009 und Fromme et al, 2010). Einigkeit herrscht aber darin, dass der Einsatz digitaler Spiele im Bildungskontext mit „ernsten Absichten“ geschieht. Einige Autoren/innen fassen dabei auch solche Konzepte unter den Begriff des (Digital) Game-Based Learning, bei denen konventionelle Unterhaltungsspiele zur Motivation, zur Belohnung oder zur Reflexion eingesetzt werden (Ritterfeld & Weber, 2006; Klimmt, 2008). Andere Autoren/innen beschränken wiederum „Serious Games“ nicht allein auf den institutionellen Bildungssektor, sondern sehen sie etwa auch als geeignete Instrumente zur Wissensvermittlung im Gesundheitssektor („Games for Health“), beispielsweise zur spielerischen Unterstützung von Therapien oder in der Werbung zur Anpreisung von Produkten (Sawyer, 2008).

Bereits in den 1990er Jahren, also noch vor der Diskussion von (Digital) Game-Based Learning, wurden digitale Spiele zur Wissensvermittlung eingesetzt. Es handelte sich dabei in der Regel um eher simple Lernspiele für jüngere Lernende, die sich im Rahmen des Edutainment-Trends die zunehmend multimedialen Fähigkeiten von PC zu Nutze machten und hauptsächlich Vorschulwissen vermittelten (Michael & Chen, 2006). Zeitgleich gewannen im Kontext der immer leistungsfähigeren PC und der Verbreitung portabler und stationärer Videospielkonsolen digitale Spiele rasant an Popularität. Bildungsexperten/innen sahen sich vor diesem Hintergrund gefordert, die Auswirkungen der Spielnutzung auf die Heranwachsenden zu untersuchen. Neben den Kritikern/innen, die vor Gefahren wie Vereinsamung, Suchtverhalten, Aggression oder Bewegungsarmut der intensiven und unbegleiteten Spielbeschäftigung warnten, meldeten sich zunehmend auch Befürworter/innen eines Game-Based Learning zu Wort, die in digitalen (Lern-)Spielen eine vielversprechende Form des aktiven, selbstgesteuerten, konstruktiven und situierten Lernens erkannten (Petko, 2008; Gros, 2007). Diese Idee fand im Bildungsbereich insbesondere auch deshalb große Resonanz, weil die ersten Erfahrungen mit E-Learning zeigten, dass bisherige softwareunterstützte Lernformen wie Computer-Based Trainings (CBT) oder Web-Based Trainings (WBT) häufig aufgrund didaktischer Mängel nicht den erhofften Erfolg brachten. Trotz der weitreichenden multimedialen Darstellungsmöglichkeiten konnten die Lernenden die Inhalte hier oft nur passiv rezipieren, so dass es bei mangelnder intrinsischer Motivation zu hohen Abbruchquoten kam (Meier & Seufert, 2003).

Game-Based Learning

Grundüberlegungen

Digitale Spiele sind nach Wagner (2008) ein regelbasiertes, interaktives Medium, das Spielende „emotional bindet und innerhalb eines von der objektiven Realität abgegrenzten Raums stattfindet“ (S. 49) und dessen „zugrunde liegende Interaktionstechnologie rein digitaler Natur ist“ (S. 50). Zwar handelt es sich bei Spielen aus informationstechnischer Sicht um Software, sie unterscheiden sich aber von anderen Softwareformen dadurch, dass es keinen zweckbezogenen Bedarf für sie gibt (Sellers, 2006). Sie werden nicht erstellt, um festgelegte Nutzerziele oder erforderliche Aufgaben zu erfüllen beziehungsweise zu unterstützen; die Nutzer/innen sind also nicht auf sie angewiesen. Da digitale Spiele im Wesentlichen der Unterhaltung dienen, stehen die Hersteller im Gegensatz zu anderen Softwareproduzierenden vor der Herausforderung, Bedarf für ihre Produkte überhaupt erst zu wecken. Die hohen, internationalen Wachstumsraten der Spielbranche in den letzten Jahren zeigten, dass dies auch gut gelingt. Der sich verschärfende Wettbewerb um die Aufmerksamkeit der Kunden führt aber gleichzeitig dazu, dass die Spielproduktion immer aufwändiger und teurer wird. Zum Beispiel lagen laut Holowaty (2010) die Produktionskosten für die zehn teuersten Spiele in den Jahre 2009 und 2010 im zweistelligen Millionenbereich.

!

Digitale Spiele (Bildschirmspiele oder Computer- und Videospiele) sind ein regelbasiertes, interaktives Medium, das Spielende emotional bindet und innerhalb eines virtuellen Raums stattfindet, dessen zugrunde liegende Interaktionstechnologie rein digitaler Natur ist. Beispiele für Interaktionstechnologien sind Arcade-Automaten, mobile oder stationäre Computer und Videokonsolen sowie Mobiltelefone.

Es existieren verschiedene Typen digitaler Spiele, leider findet sich in der Literatur jedoch bisher keine einheitliche Klassifizierung. Je nachdem, welche Merkmale ein Verfasser oder eine Verfasserin für seine Einordnung berücksichtigt, ergeben sich entsprechend unterschiedlich viele Spielgenres (Gauguin, 2010). Typische Unterscheidungsmerkmale sind dabei die Spieldynamik, die Symbolstruktur oder die Handlungsanforderung, was auf die folgenden grundlegenden Spielgenres schließen lässt (wobei anzumerken ist, dass aktuelle Unterhaltungsspiele in der Regel Merkmale mehrerer Genres aufweisen) (Feil & Scattergood, 2005; Pedersen, 2003):

Die Popularität und der Spielspaß von digitalen Spielen können dadurch erklärt werden, dass verschiedene Mechanismen des Unterhaltungserlebens sequenziell oder parallel ausgenutzt und aktiviert werden. Zentrale Unterhaltungsprozesse sind nach Klimmt (2008) Selbstwirksamkeitserfahrung, Spannung bzw. Lösung und simulierte Lebens- und Rollenerfahrungen, die bei Spielen zu einem integrierten Erlebnis verschmelzen:

Eng verbunden mit der Selbstwirksamkeit und der erfolgreichen Kontrolle eines Spiels ist die Lernfähigkeit eines Spielers oder einer Spielerin. Das Erlernen von Spielen beschreiben Garris & Driskell (2002) dabei als einen Spielzyklus aus Spielerverhalten, Rückmeldungen des Programms und der daraufhin von Spielenden vorgenommenen Beurteilung des Spielfeedbacks und des eigenen vorherigen Verhaltens (vgl. ebenso die Ausführungen von Kerres et al., 2009). Die Spieler reagieren dabei mit einem unterschiedlich hohen Grad an Interesse, Freude, Ehrgeiz oder Selbstvertrauen auf das Feedback, was wiederum die Richtung, Intensität und Qualität ihres weiteren Verhaltens beeinflusst. Spielende führen also einen Spielzug aus, erhalten eine Reaktion, bewerten anschließend ihre Situation und können sich dann zu einem weiteren Spielzug entscheiden. Wird ihr Handeln als richtig akzeptiert, fühlen sie sich positiv bestätigt und ihr Interesse am Weiterspielen steigt. Wird ihr Zug aber als falsch deklariert, fühlen sie sich herausgefordert. Ihr Ehrgeiz steigt und sie nehmen solange alternative Handlungen vor, bis bei wiederholtem Misserfolg ihre individuelle Frustgrenze erreicht ist und sie das Spiel entnervt beenden. In der Regel durchlaufen Spielende diesen Zyklus nach dem Versuch-und-Irrtum-Prinzip mehrfach und erwerben damit schließlich die erforderliche Kompetenz.

Eine kritische Komponente des Zyklus stellen folglich die Rückmeldungen des Programms und somit die im Spiel implementierten Hilfefunktionen und Regeln dar. Spiele mit gutem Spieldesign zeichnen sich durch eine abgestimmte Balance von Herausforderungen und Erfolgserlebnissen aus. Abbildung 1 zeigt den Spielzyklus.

Ein Verständnis für die Spielidee zu entwickeln bedeutet, dass Spielende deklaratives Wissen über die Objekte und Regeln des Spiels erwerben, welches sie im Spielzyklus anwenden und weiterentwickeln. Bei komplexeren Spielen würde der Aufbau einer deklarativen Wissensbasis jedoch zu einer regelrechten Einstiegshürde heranwachsen, weshalb hier typischerweise einer prozeduralen Wissensgenerierung im Spielverlauf (Learning-by-Doing) der Vorzug gewährt wird. Die zunächst verborgene Logik des Spiels wird von Spielenden erst nach und nach erkundet, was sie jedoch nicht vom erfolgreichen Spielen abhält. Kerres et al. (2009) weisen in diesem Kontext darauf hin, dass in digitalen Spielen vorwiegend implizites Lernen stattfindet. Das trainierte Verhaltensrepertoire Spielender wird durch den Spielzyklus hochgradig routiniert und läuft weitgehend automatisch ab. Explizites Lernen wird aber immer dann notwendig, wenn die Spielenden nicht mehr weiterkommen und sich gezwungen sehen, aus der Spielwelt in die Realität aufzutauchen, um nach geeigneten Problemlösungen zu suchen. Spiele, die Spielenden zu häufigen und langen Phasen expliziten Lernens zwingen, laufen dabei Gefahr, schnell an Attraktivität zu verlieren.

Abb. 1: Input-Prozess-Output-Spielmodell (nach Garris & Driskell, 2002)
Abb. 1: Input-Prozess-Output-Spielmodell (nach Garris & Driskell, 2002)
Game-Based Learning

Potenziale und Herausforderungen

Bei unterhaltsamen Spielen können die Spielenden die Zeit und ihr reales Umfeld regelrecht vergessen. Ein Grund hierfür ist der geschilderte schrittweise Aufbau der erforderlichen Kompetenzen und Kenntnisse im kontinuierlichen Zyklus aus Handlung, Rückmeldung und erneuter Handlung in Reaktion auf Erfolg oder Misserfolg. Eine derart intensive und selbstvergessene Auseinandersetzung mit dem Spielgegenstand (beziehungsweise Immersion und Flow-Erfahrung, Bopp, 2005) wünschen sich Bildungsanbieter auch für andere Lerninhalte, weshalb sie daran interessiert sind, die Eigenschaften digitaler Spiele im Bildungskontext gewinnbringend einzusetzen. Insbesondere im Rahmen des durch die Möglichkeiten des technologiegestützten Lernens vorbereiteten Paradigmenwechsels von traditionellen und eher passiv ausgerichteten Lernformen zu stärker selbstgesteuerten und eigenverantwortlichen Lernprozessen stellt (Digital) Game-Based Learning einen vielversprechenden Ansatz dar. Komplexere digitale Lernspiele können folgende, auf Basis einer konstruktivistischen Auffassung wünschenswerte Lernprozesse fördern (in Anlehnung an Meier & Seufert, 2003):

Im Idealfall ist spielbasiertes Lernen also mit einem hohen Maß an intrinsischer Motivation verbunden und kann strategisches Denken und Entscheidungsfindung in einem Kontext anregen, wo Lösungen anspruchsvoller Probleme mit der Möglichkeit verschiedener Handlungsalternativen gefordert werden (Helm & Theis, 2009). Die Lernziele von Game-Based Learning gehen über das reine Verstehen und Speichern von Lerninhalten hinaus, sie beinhalten auch den Erwerb von generischen und metakognitiven Fertigkeiten wie den Umgang mit komplexen Situationen oder das Durchdenken und Erkunden von erforderlichen Handlungen (unter anderem mittels Informationssuche unter Zeitdruck oder schnellem Reagieren auf Bedrohungen). Das Sammeln positiver Selbstwirksamkeitserfahrungen kann außerdem das allgemeine Selbstvertrauen im Umgang mit Unsicherheiten stärken (Kerres et al., 2009).

Es stellt sich aber die Frage, inwiefern sich Spiele überhaupt in der gewünschten Weise instrumentalisieren lassen, wenn Spiele nach Spieltheoretikern wie Huizinga oder Caillois eigentlich zweckfreie und freiwillige Handlungen sind, die losgelöst vom Alltagsleben nach eigenen Regeln funktionieren (Huizinga, 1961; Caillois, 2001). Die Beschreibung der Lernprozesse beim Spielen deutete bereits darauf hin, dass implizites Lernen nicht als Lernaktivität wahrgenommen wird und so gesehen die ideale und erwünschte Lernweise darstellt („Stealth-Learning“), wobei explizites Lernen – zumindest potenziell – den Spielfluss stören kann. Bopp (2005) bezeichnet daher die Lehr-Lern-Methode in digitalen Spielen als Programm einer immersiven Didaktik. Mediale oder technische Brüche in Lernspielen fördern dieses Gefühl der Störung zusätzlich. Beispielsweise kommt Jantke (2007) aus der Analyse einiger kommerziell erfolgreicher Lernspiele zu dem Schluss, dass den Herstellern in vielen Fällen keine didaktisch sinnvolle Integration von Lerninhalten und Spielmechanik gelingt: In einigen Spielen werden Spiel- und Lernbereiche voneinander getrennt, wobei Lerninhalte nicht immer relevant für den Spielablauf sind oder Spielende sogar zum Lernen gezwungen werden, um im Spiel voranzukommen. Zudem bereiten nach einer Untersuchung bekannterer Serious Games durch Shen et al. (2009) viele Titel nicht annähernd das von Unterhaltungsspielen gewohnte Maß an Spielspaß, da ihre technische Funktionalitäten, ihre ästhetische Präsentationen und vor allem ihr Game Design nicht an den Standard konventioneller Spiele heranreichen, was aber hauptsächlich durch das wesentlich geringere Investitionsbudget für Lernspiele begründet werden kann. Die Absicht, digitale Spiele für Bildungszwecke zu nutzen, stellt somit große Herausforderungen an das Instruktions- und an das Spieldesign, da mit einer unausgewogenen Balance aus pädagogischem Anspruch und spieltechnischer Umsetzung Ergebnisse erzeugt werden, die weder lehrreich noch unterhaltsam sind (Kerres et al., 2009).

!

(Digital) Game-Based Learning bedeutet den Einsatz digitaler Spiele in einem (Fort-)Bildungskontext zur Förderung und Unterstützung von Lernprozessen. Die Nutzung der Spieltypen beschränkt sich allerdings nicht nur auf digitale Lernspiele (Serious Games), sondern es können auch konventionelle Unterhaltungsspiele eingesetzt werden, wenn sie inhaltlich oder thematisch für das Ziel-Lernarrangement geeignet sind.

Der hohe pädagogische Anspruch spiegelt sich auch in den ambivalenten Erwartungen wider, die oft an (Digital) Game-Based Learning gestellt werden. Danach sollen die im (Digital) Game-Based Learning eingesetzten Spiele (Jenkins et al., 2009):

Jenkins et al. (2009) kritisieren zudem die irrtümliche, aber verbreitete Auffassung, dass bei Lernenden aufgrund der spielerischen Vermittlungsform erwünschte Lerninhalte oder Fähigkeiten einfach indoktriniert werden könnten. Digitale Lernspiele dürfen gerade nicht als spielerische Varianten instruktiver Lernsoftware verstanden werden, sondern besitzen wie bereits erläutert spezifische Mechanismen und Wirkungsweisen, um Lernprozesse anzuregen. Um gewünschte Lernziele zu erreichen, reicht es daher nicht aus, Lerninhalte lediglich in digitalen Spielen zu platzieren, sondern die Inhalte müssen mit der Spielmechanik verzahnt werden, um durch die Lernprozesse beim Spielen die angestrebten Effekte zu fördern.

Potentiale Herausforderungen
Förderung von aktivem, konstruktivem, selbstgesteuertem, sozialem, emotionalem und situiertem Lernen (lernerzentriertes Lernmodell) Didaktische Aufbereitung von Lerninhalten und Spielmechanik (zum Beispiel Gefahr der Verminderung von Spielspaß durch Wechsel von implizitem und explizitem Lernmodus)
Erleichterung des Verständnisses von komplexen Sachverhalten durch Erwerb generischer und metakognitiver Fertigkeiten Hohe, ambivalente Erwartungen an (Digital) Game-Based Learning aufgrund unklaren Verständnisses; Notwendigkeit zur Aufklärung von Chancen und Grenzen
Hohe Motivation durch spielerische Komponenten wie Herausforderungen und Erfolgserlebnissen (Stärkung des eigenen Selbstvertrauens) Mögliche Probleme beim Transfer von Bedeutungskontexten ohne Betreuung oder Nachbesprechung
Realisierbarkeit von implizitem Lernen, idealerweise keine Wahrnehmung von exogener Anstrengung oder Druck beim Lernen ("Stealth Learning") Fehlende Verfügbarkeit geeigneter Spiele für individuelle Lehrveranstaltungen; hohe Hürden für die Selbsterstellung geeigneter Spiele aufgrund der Komplexität der Spielgestaltung bzw. des erforderlichen interdisziplinären Know-How

Tab.1: Potenziale und Herausforderungen des (Digital) Game-Based Learning

Ob eine solche Verzahnung jedoch alleine ausreicht, bezweifelt Wagner (2009) in seiner Theorie des ludischen Konstruktivismus, nach der die Lernergebnisse von dem Zusammenwirken der Erwartungshaltungen des Lernenden im Umgang mit dem Spiel, den im Spiel existierenden Regeln und Zielen und der Übersetzungskompetenz des Spielenden zwischen den Bedeutungskontexten von objektiver Realität und vom Medienspielraum abhängen. Der Einsatz von digitalen Lernspielen kann aufgrund der individuellen Spielerfahrungen die Erreichung festgelegter Lernziele nicht garantieren. Um auf definierte Lernziele hinwirken zu können, wäre demnach im Vorfeld eine individuelle Beeinflussung der Erwartungshaltung der Lernenden durch eine pädagogische Betreuung erforderlich. Auch müsste die Übersetzungskompetenz der Lernenden auf Defizite oder Unterschiede überprüft werden; der Lehrende wird somit zu einem/einer unverzichtbaren Lernprozessbegleiter/in, ohne den/die nach Wagner im Allgemeinen ein selbstgesteuertes Lernen mittels (Digital) Game-Based Learning weitgehend ausgeschlossen ist. Auch andere Autoren/innen (Kerres et al., 2009) erkennen die Notwendigkeit einer didaktischen Rahmung an, um gewünschte Lerneffekte erzielen zu können. Garris und Driskell (2002) sehen zudem in der Nachbesprechung („De-Briefing“) eines Lernspiels einen kritischen Teil der Spielerfahrung, weil hier eine Verbindung von Spielwelt und Realität hergestellt werden kann: Die Lernenden können auf Parallelen zur Wirklichkeit aufmerksam gemacht werden und die Ereignisse des Spiels mit ihren Dozierenden kritisch reflektieren.

Game-Based Learning

Zusammenfassung und zentrale Erkenntnisse

Abschließend sollen noch einmal die zentralen Erkenntnisse dargestellt werden:

In der Praxis: Beispiele

Winterfest

Das Adventure Winterfest soll Erwachsene, die Probleme mit dem Lesen, Schreiben und Rechnen haben, spielerisch zum Lernen motivieren. Der Spieler oder die Spielerin wird in eine prätechnologische Welt versetzt und muss durch die Bewältigung von Rätseln und Aufgaben versuchen, wieder nach Hause zu kommen. In vielen Aufgaben werden die Lese-, Schreib- und Rechenkompetenz im Kontext lebensweltnaher Alltags- und Arbeitsszenarien gefördert. http://www.lernspiel-winterfest.de

Energetika 2010
Das Online-Strategiespiel Energetika 2010 stellt Spielende vor die Herausforderung, die Stromversorgung im fiktiven Land Energetika bis 2050 sicherzustellen. Dazu müssen sie unter anderem Kraftwerke bauen, Speicheranlagen planen und neue Technologien entwickeln. Neben strategischem Geschick müssen Spielende auch nachhaltig handeln, um die Umwelt zu schonen und die Wirtschaftskraft des Landes zu erhalten. Das Spiel soll seinen Nutzern und Nutzerinnen die technischen, wirtschaftlichen und gesellschaftliche Zusammenhänge der Energieversorgung nahe bringen.
http://www.energiespiel.de

Frontiers – You’ve reached the fortress Europe
In dem Spiel Frontiers erleben Spielende den Alltag an den EU-Außengrenzen aus zwei Perspektiven: Aus der Sicht eines Flüchtlings oder eines Grenzpolizisten. Als Flüchtling müssen die Spieler sich verstecken, untertauchen oder Wachen bestechen, als Grenzpolizist hingegen können sich die Spieler entscheiden, ob sie Warnschüsse abgeben oder gar den Grenzgänger erschießen, wobei unethisches Verhalten bestraft wird. Zweck des Spiels ist es, Spielende die schwierige Situation von Flüchtlingen und Grenzbeamten nachempfinden zu lassen und damit Denkanstöße zu geben.
http://frontiers-game.com/

Re-Mission
In dem Action-Spiel Re-Mission steuern Spielende einen Nano-Roboter und spüren damit Tumorzellen im menschlichen Körper auf oder sie bekämpfen bakterielle Infektionen. Dabei kann als „Waffe“ zum Beispiel die Chemotherapie eingesetzt werden. Die Zielgruppe des Spiels sind in erster Linie junge an Krebs erkrankte Patienten, die damit ihre Krankheit bzw. Therapie besser verstehen und daraus Mut schöpfen sollen.
http://www.re-mission.net/

?

Überlegen Sie sich ein Thema, das Sie anderen durch ein digitales Lernspiel vermitteln wollen. Wie könnte ein entsprechendes Lernspiel aussehen? Welches Spielgenre würden Sie auswählen und wie würden Sie die Lerninhalte didaktisch integrieren? Ist ein Spiel überhaupt für das Thema geeignet bzw. welche Probleme könnten bei einer spielerischen Form der Wissensvermittlung hinsichtlich der Lernzielerreichung auftreten? Stellen Sie Ihre Lösungen Kollegen und Kolleginnen vor – würden diese Ihr Spiel spielen?

?

Laden Sie eines der freien Praxisbeispiele für digitale Lernspiele über den angegebenen Link herunter und spielen Sie das Spiel möglichst durch. Haben Sie etwas Neues gelernt? Hat Ihnen das Spiel Spaß gemacht? Wie beurteilen Sie die Integration von Lerninhalt und Spielmechanik? Was könnte man bei dem Spiel besser machen?

?

Reflektieren Sie ein nah zurückliegendes Erlebnis mit Computer- oder Videospielen: Haben Sie Spielspaß empfunden? Wenn ja, worauf würden Sie die dabei entstandene Motivation zurückführen? Wenn nicht, was hat Sie an der Entwicklung von Begeisterung für das Spiel gehindert?

Game-Based Learning

Ausblick: Durchdringt uns die Gamification?

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Wir erleben derzeit eine deutliche Zunahme an Smartphone- und Tablet-Besitz (siehe #netzgeneration und #ipad) in den letzten Jahren und damit verbunden auch der Anzahl verfügbarer mobiler Applikationen. Durch die typischerweise mobile Verwendung dieser Geräte sowie der deutlich geringeren Leistungsfähigkeit gegenüber PCs kommt es zu einem deutlichen Aufschwung von Casual Games. Dieses Genre ist unter anderem aufgrund der geringeren Hardwareanforderungen und der weniger komplexen Bedienung klar im Vorteil.

Ab der zweiten Hälfte des Jahres 2010 fasst zusätzlich ein neuer Begriff Fuß: Gamification. Deterding et al. (2011) definieren Gamification als die Verwendung von Spielelementen verschiedenster Art in einem nicht-spielebasierten Kontext. Als bekanntestes Beispiel in diesem Zusammenhang kann die standortbezogene Applikation Foursquare genannt werden. Eigentlich geht es darum, Orte zu entdecken und mit Freunden zu teilen, die Spielenden werden jedoch zusätzlich durch die Möglichkeit, verschiedenste Abzeichen und Grade (engl. Badge) zu erreichen, intrinsisch motiviert.

Bei Gamification steht nicht die Produktion eines Spiel im Vordergrund, sondern vielmehr verschiedenste Applikationen mit spielerischen Elementen gezielt zu ergänzen, um Anwender/innen zu begeistern (Deterding et al., 2012; Groh, 2012). Im Lehr- und Lernbereich gibt es einen deutlichen Anstieg von Anwendungen, die solche Elemente aufweisen (Muntean, 2012), und hier erwarten uns spannende und interessante Jahre.

?

Wählen Sie ein App auf Ihrem Smartphone aus, die eine Gamification aufweist. Beschreiben Sie, welche Spielelemente verwendet werden. Sind diese Element auch im Lehr- und Lernkontext sinnvoll einsetzbar?

Game-Based Learning

Literatur

Einsatz kollaborativer Werkzeuge

Lernen und Lehren mit webbasierten Anwendungen

Nach der Klärung der Begriffe „kollaboratives Lernen” und „kooperatives Lernen” werden in diesem Beitrag einige typische webbasierte kollaborative Lehr- und Lernszenarien dargestellt und jeweils mit entsprechenden Beispielen für kostenfreie und einfach zu nutzende Werkzeuge versehen. So wird gezeigt, wie Lehrende und Lernende mit Hilfe von Online-Diensten gemeinsam Texte schreiben, Ideen strukturieren, Inhalte sammeln oder Dokumente austauschen können. Und es werden einfach zu nutzende Möglichkeiten für synchrone Online-Treffen und das Dokumentieren von Gruppenprozessen vorgestellt. Im Anschluss daran wird anhand eines Praxisbeispiels verdeutlicht, wie diese Szenarien und Werkzeuge in einem größeren Lehr- und Lernsetting zum Einsatz kommen können. Der Artikel schließt mit einem Ausblick auf Aspekte, die aus didaktischer Perspektive bei der Organisation und Betreuung kollaborativen Lernens berücksichtigt werden sollten.

Einsatz kollaborativer Werkzeuge

Web-Werkzeuge für kollaboratives Arbeiten

„Collaborative forms of learning are becoming increasingly popular methods of adult education, because they involve all students in the process of learning. Social software is based heavily on participation, and this is apparent in a number of features including tagging, voting, versioning, hyperlinking and searching, as well as discussion and commenting. The power of this kind of software is that it includes all in the process of creating group based collections of knowledge, and artefacts that are of specific interest to the learning community.” (Wheeler, 2008, 5)

Von kollaborativem Lernen kann nach Haake et al. (2004) dann gesprochen werden, „wenn ein gemeinsames, von allen am Lernprozess Beteiligten geteiltes Ziel vorliegt beziehungsweise großer Wert auf das Aushandeln gemeinsamer Ziele, Prozesse und Ergebnisse gelegt wird” (Haake et al., 2004, 1). Zuweilen wird davon der Begriff des kooperativen Lernens abgegrenzt, bei dem es eher um die Aufteilung von Aufgaben innerhalb einer Gruppe geht: „Kooperativ weist häufig auf eine Strukturierung des Lernprozesses durch Rollen und bestimmte Kooperationsmethoden hin” (Haake et al., 2004, 2). Wenn dabei Informationstechnologien zum Einsatz kommen, wird diese Spezialform der Organisation von Lehren und Lernen klassisch als „Computer Supported Collaborative Learning”, kurz CSCL, bezeichnet (vgl. Haake et al., 2004, 3).

In diesem Kapitel soll es nun um die Möglichkeiten der Nutzung webbasierter Werkzeuge für die Unterstützung kollaborativer beziehungsweise kooperativer Lernprozesse gehen. Es gibt im World Wide Web (WWW) eine ganze Reihe von Werkzeugen, die sich gerade für die gemeinsame Auseinandersetzung mit Lerninhalten sehr gut eignen. Wir werden in der Folge eine Übersicht über Möglichkeiten der Nutzung solcher Werkzeuge anbieten und ausgewählte Webdienste vorstellen. Diese sind fast allesamt Browser-basiert (keine Installation von Software erforderlich), zumindest in einer Basisversion kostenfrei verfügbar und einfach zu nutzen – manche davon sogar ohne eigenes Benutzerkonto (Account), was dem/der Nutzer/in die Eingabe persönlicher Daten erspart.

Die rasche Entwicklung des sogenannten Social Web und seiner Dienste bringt es mit sich, dass die dauerhafte Verfügbarkeit von Diensten nicht immer gewährleistet ist. Änderungen der Funktionspalette eines Dienstes, des Geschäftsmodells (etwa anfänglich gratis, dann nur noch gegen Bezahlung oder gratis in der Basisversion und kostenpflichtig für bestimmte Optionen) bis hin zur Einstellung eines wenig profitablen Dienstes, erfordern es, im Bedarfsfall flexibel zu agieren und auf alternative Werkzeuge umzusteigen. Aus diesem Grund sind im vorliegenden Kapitel stets mehrere Werkzeugalternativen angegeben. In der Linksammlung auf diigo finden Sie zusätzliche Werkzeuge sowie weiterführende Informationen. Praktische Möglichkeiten, um nach Alternativen für Webdienste oder Software zu suchen, sind AlternativeTo oder kommentierte Werkzeugsammlungen wie beispielsweise das Wiki Edutec, das einer der beiden Autoren als unterrichtsbegleitendes Arbeitsmaterial für Kurse zusammengestellt hat.

!

Web-Werkzeuge – Begriffliches:

Social Web: Unter „Social Web“ (frühere Bezeichnung: „Web 2.0“) verstehen die Autoren die Gesamtheit der Angebote (Dienste), die das Arbeiten in der gegenwärtigen, interaktiven Form des WWW und seiner Zwei-Wege-Kommunikation ermöglichen.

Social Media: Unter „Social Media“ verstehen die Autoren die Gesamtheit der Medieninhalte, die von den Nutzerinnen und Nutzern des Social Web produziert, geteilt und online verfügbar gemacht werden („User Generated Content“).

Suche nach Werkzeug-Alternativen:

Einsatz kollaborativer Werkzeuge

Schreiben kurzer Texte

Es gibt viele Online-Texteditoren, die für das kollaborative Schreiben von Texten eingesetzt werden können. Hier soll zunächst auf Editoren eingegangen werden, die sich vor allem für das gemeinsame Schreiben an einfachen Texten eignen (wie Brainstormings, Listen, etc.). Sofern der betreffende Editor echtzeitfähig ist, können mehrere Personen gleichzeitig an einem Text arbeiten und dabei mitverfolgen, welche Textstellen gerade von anderen bearbeitet werden. Aufgrund seiner einfachen Nutzbarkeit ist hier Etherpad hervorzuheben: Auf Etherpad-Dokumenten können mehrere Personen – ohne dazu ein Benutzerkonto anlegen zu müssen – schnell gemeinsam an Ideen, Konzepten, Brainstormings, etc. arbeiten.

!

Der ursprüngliche Etherpad-Webserver wurde nach seiner Übernahme durch Google geschlossen. Es gibt durch die Offenlegung des Quellcodes jedoch eine Reihe öffentlich zugänglicher Etherpad-Server:

Beispiele für öffentliche Etherpad-Server:

Liste weiterer öffentlicher Etherpad-Server:

Einsatz kollaborativer Werkzeuge

Schreiben komplexer Texte

Für längere, komplexere Texte, die in eine hierarchische Struktur von Kapiteln und Abschnitten gegliedert sein sollen, die formatiert werden müssen und gegebenenfalls auch mit Bildern, Tabellen und so weiter. versehen werden sollen, eignen sich Online-Office-Werkzeuge wie beispielsweise Google Drive (früher Google Docs) oder das Modul Zoho Docs der Office-Suite Zoho. Mit diesen Diensten können Textdokumente, Tabellen, Präsentationen, Zeichnungen und auch Formulare gemeinsam erstellt und online von mehreren Personen gleichzeitig bearbeitet werden.

Wenn in einem kollaborativen Schreibprozess nicht nur an einem linearen Dokument gearbeitet werden, sondern ein System von Dokumentenseiten entstehen soll, eignen sich dafür Wiki-Systeme (kurz „Wikis“). Wikis zeichnen sich dadurch aus, dass mehrere Personen gemeinsam an einem Werk arbeiten können. Allerdings kann bei den meisten Wiki-Systemen eine Textstelle zur gleichen Zeit immer nur von einer Person bearbeitet werden, anderenfalls können Ver­sionen­konflikte entstehen. Ein weiterer Unterschied zwischen Online-Texteditoren (beziehungsweise Online-Office-Werkzeugen) und Wikis besteht darin, dass die Ergebnisse von Editoren von Funktion und Erscheinung her an Textdokumenten orientiert sind, die von Wikis an Webseiten.

Der bekannteste Anbieter von Wikis ist die Wikimedia-Foundation. Wikimedia betreibt auf Basis der von ihr mitentwickelten Open Source-Software Mediawiki neben der berühmten Online-Enzyklopädie Wikipedia einige „Schwesterprojekte”. Insbesondere Wikibooks und Wikiversity eignen sich vor allem dann gut für Lehr- und Lernprojekte, wenn Lernende ein Wissensgebiet kollaborativ erschließen sollen und der Prozess und das Ergebnis dieser Arbeit öffentlich sein sollen. Für Projekte, bei denen nicht erwünscht ist, dass Personen außerhalb einer definierten Gruppe aktiv, das heißt schreibend, zugreifen können, empfiehlt sich die Verwendung eines Wikis mit der Möglichkeit der Zugriffskontrolle.

Für erste eigene Projekte auf Wiki-Basis empfehlen sich Webdienste wie zum Beispiel Wikispaces*,* mit denen einfach zu bearbeitende Wikis kostenlos erstellt und Schreibrechte auf definierte Personen beschränkt werden können. Die Option „Wikispaces Classroom” erlaubt es Lehrenden und Lernenden, die Arbeit an gemeinsamen Wiki-Projekten durch Kommunikations- und Verwaltungswerkzeuge zu unterstützen.

Wikia ist ein Wiki-Dienst, der sich auf das Erstellen von öffentlichen Communities auf Wiki-Basis spezialisiert hat – hier können zum Beispiel kollaborativ gestaltete Sammlungen zu beliebigen Themen mit anderen gemeinsam erstellt und bearbeitet werden.

!

Für Kollaboration geeignete Online-Texteditoren und Wiki-Systeme:

Weiterführende Links finden Sie in der L3T-Gruppe bei Diigo unter Verwendung der Hashtags #l3t #kollaboration #wiki

Einsatz kollaborativer Werkzeuge

Sammeln und Strukturieren von Ideen

Für kollaboratives Sammeln und Strukturieren von Ideen bieten sich neben den bereits genannten Text­editoren Mindmapping-Werkzeuge wie beispielsweise Mind42, Coggle oder Mindomo an. Dort erstellte Mindmaps können durch Verwendung von Farben, Symbolen und Änderung der Form und Ausrichtung der Äste der Baumstruktur individuell gestaltet und Wichtiges oder Beziehungen zwischen Ideen hervorgehoben werden.

Die Kombination aus Brainstorming (Sammeln von Ideen ohne Bewertung) mittels Texteditoren (zum Beispiel Etherpad) und anschließendem Sortieren, Strukturieren und Gewichten mittels einer kollaborativ erstellten Mindmap ist eine gute Möglichkeit, um neue Themengebiete zu erschließen und später in Form eines gemeinsam erstellten Textes (zum Beispiel in einem Wiki) weiter zu bearbeiten.

Ein weiteres einfach zu nutzendes Brainstorming-Tool ist Padlet, eine Online-Pinnwand, auf der u. a. Ideen, Gedanken, Links, Bilder und Kurztexte übersichtlich gesammelt werden können. Auf diese Weise können ein Brainstorming unterstützt und Informationen zu einem Thema gemeinsam gesammelt und strukturiert werden.

!

Mindmapping ist eine Visualisierungstechnik, bei der Ideen in Form einer Baumstruktur um ein Thema herum angeordnet werden. Hierarchische Beziehungen und Verbindungen zwischen Elementen können so auf einfache Weise sichtbar gemacht und Ideen dadurch in eine sinnvolle Struktur gebracht werden.

Weiterführende Links finden Sie in der L3T-Gruppe bei Diigo unter Verwendung der Hashtags #l3t #kollaboration #mindmap

Einsatz kollaborativer Werkzeuge

Gemeinsames Sammeln und Verschlagworten von Informationen

In den letzten Jahren haben sich einige Dienste etabliert, mit deren Hilfe vor allem das Sammeln und Verschlagworten von interessanten Webseiten, Artikeln oder anderen Web-Fundstücken verfolgt wird. Social Bookmarking-Dienste wie Diigo oder Delicious eignen sich (zusätzlich zum Sammeln von Bookmarks bzw. Favoriten) nicht nur für die fokussierte Recherche, sondern auch für den Austausch von Inhalten innerhalb einer Gruppe. Lernendengruppen können sich dafür auf gemeinsame, unverwechselbare Schlagwörter, so genannte „Tags”, einigen. Diese Tags werden fortan von allen Mitgliedern eines Lernnetzwerkes über den verein-barten Dienst allen relevanten Web-Fundstücken zugewiesen. Die Gruppenrecherchen können sodann durch die Abfrage des Tags zusammengefasst werden.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Für das gemeinschaftliche Sammeln und Austauschen von Bildern gibt es Dienste wie zum Beispiel „Pinterest”. Hier können im Web gefundene Fotos und Grafiken gesammelt, in Form von thematischen ‚Pinnwänden’ sortiert und von anderen „geliked” kopiert, kommentiert und abonniert werden. Das gemeinschaftliche Sammeln kann sich aber auch auf (Text- und Audio-)Notizen und Ausschnitte von Webseiten (zum Beispiel Evernote), Nachrichten (zum Beispiel Digg) und andere Informa­tionsbereiche erstrecken.

!

Anbieter von Diensten für kollaboratives Sammeln und Verschlagworten:

Beispiel: Von Studierenden eines Kurses gesammelte Hyperlinks:

Weiterführende Links finden Sie in der L3T-Gruppe bei Diigo unter Verwendung der Hashtags #l3t #kollaboration #link

Einsatz kollaborativer Werkzeuge

Synchrone Online-Treffen

Der Vorteil örtlich verteilten kollaborativen Lernens liegt zwar darin, dass sich die Teilnehmenden eines solchen Szenarios dann einbringen können, wenn sie dafür Zeit, Ruhe und Energie haben, und dass zwischen den Zeiten aktiver Arbeit die Möglichkeit zum Beiziehen von Literatur, zur Reflexion oder zum Neustrukturieren von Konzepten und Ideen besteht. Dennoch kann es während solcher Lernaktivitäten auch Phasen geben, in denen gemeinsame synchrone (zeitgleiche) Absprachen nötig sind: Mit Tinychat kann man eine kleinere Anzahl von Personen ohne Angabe von Anmeldeinformationen in einen Text-, Audio- oder Videochat einladen; es reicht, dort einen neuen Chatraum zu öffnen und den Personen, die man gerne synchron treffen möchte, den entsprechenden Link zukommen zu lassen. Auch Meetings.io eignet sich als einfach zu nutzendes Werkzeug, um mit einer kleinen Gruppe (max. 5 Teilnehmende) einen „virtuellen Konferenzraum” zu eröffnen.

Für größere Personengruppen und/oder wenn komplexere Szenarien abgebildet werden sollen, können auch Online-Konferenzsysteme zum Einsatz kommen. In einem Google Hangout können bis zu 10 Personen gleichzeitig online sein (zum Beispiel über den Dienst Google+, aber auch via Smartphone durch eine Hangout-App). Voraussetzung ist, dass alle Teilnehmenden über ein (kostenfreies) Google-Konto verfügen. Hangouts sind eine unkomplizierte Art der Zusammenarbeit, bei der es beispielsweise möglich ist, den eigenen Bildschirm für andere freizugeben. Zudem können Hangouts aufgezeichnet und über YouTube asynchron nutzbar gemacht werden.

Mit Vyew kann man beispielsweise in einer Gruppe textbasiert chatten, auf einem Whiteboard gemeinsam Skizzen anfertigen, sich in Audio- und Videokonferenzen treffen oder Online-Präsentationen abhalten.

Neben diesen umfangreicheren und vorwiegend auf Audio- oder Videochats abzielenden Systemen gibt es auch Dienste, die auf das gleichzeitige gemeinsame Anfertigen von Skizzen, Diagrammen und so weiter sowie das Online-Präsentieren von Webseiten oder PowerPoint-Dateien in Arbeitsgruppen ausgerichtet sind, so genannte Online-Whiteboards. Beispiele dafür sind Twiddla oder Scribblar.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

In der Praxis: Kollaborationswerkzeuge im Einsatz

Die Werkzeuge, die wir hier exemplarisch vorstellen, sind zunächst nicht mehr als genau das – Werkzeuge. Es sind allerdings Werk­zeuge, die den Handlungsspielraum von Lehrenden und Lernenden wesentlich erweitern können (Wageneder & Jadin, 2007). Didaktisch kompetente Lehrende haben so ganz neue Möglichkeiten der kreativen Gestaltung von Lehr- und Lern­settings. Lernende können diese Werkzeuge auf vielfältige Art und Weise für ihr Lernen nutzen. Hier wollen wir nun anhand eines Beispiels darstellen, wie diese Werkzeuge in einem praktischen Lehr- und Lernsetting eingesetzt werden können.

Die Lehrveranstaltung ‚eStudy Skills’

Diese Lehrveranstaltung, die an der Universität Salzburg von einem der Autoren angeboten wird, zielt insbesondere auf die Ver­mittlung computerbasierter Lern- und Arbeitstechniken ab (zum Beispiel Recherchetechniken, Kollaborationstechniken und Möglich­keiten der Präsentation von Arbeitsergebnissen). Teil der von den Studierenden zu erbringenden Leistungen ist das ge­meinsame Erstellen webbasierter Tutorials (Selbstlerneinheiten) zu verschiedenen Lerntechnologien.

Aufgabenstellung:

In diesen in Kleingruppen zu erstellenden Tutorials (Kurz-Handbücher mit beschreibendem und erklärendem Charakter) soll ein Thema aus dem Bereich ‚Lerntechnologien’ nach eigener Wahl gemeinschaftlich aufbereitet und für die Ziel­gruppe ‚interessierte Ein­steiger/innen’ ausgearbeitet werden. Der Umfang der Aufgabe umfasst den gesamten Produktions­prozess einer solchen Anleitung – von der Themenfindung über Recherche, Textproduktion, Einbindung von selbst erstellten sowie Fremd-Materialien bis hin zur Überprüfung des Gesamtwerkes auf inhaltliche und rechtliche Aspekte. Die Tutorials sollen mit multimedialen Elementen angereichert werden und die Möglichkeiten für die Integration von Fremdmaterialien in eigene Sei­ten („Einbetten”; siehe unten) nutzen. Die Zusammenarbeit der Studierenden soll wegen der intensiveren Auseinanderset­zung mit den Möglichkeiten und Restriktionen der verwendeten Werkzeuge vollständig online, das heißt ohne persönliche Treffen der Gruppenmitglieder, erfolgen.

Einführung:

Die Gruppen erhalten vor der Umsetzung einen Überblick über Social Media-Quellen, eine Einführung in Recherche­möglichkeiten mit Social Media, Grundlagen des Arbeitens mit Wiki-Systemen, Grundzüge des Urheberrechts, Creative Commons und eine kurze Wiederholung zitatrechtlicher Basiskenntnisse.

Umsetzung:

Für die Suche und Integration von Fremdmaterialien (Fotos, Videos, etc.), v. a. von ‚User Generated Content’ (Bei­spiele siehe Einschub auf der nächsten Seite) stehen sämtliche Social Media-Plattformen (zum Beispiel YouTube oder Slideshare), aber auch Open-Content-Archive und -Suchmaschinen (Archive.org, Creative-Commons-Metasuche etc.) zur Verfü­gung.

Die Medienintegration (‚Widgets’) erfolgt über die Publikationssoftware, aber auch über Verlinken und Hochladen auf den Wiki-eigenen Spei­cherplatz.

In Hinblick auf rechtliche Aspekte wird empfohlen, auf Creative Commons-lizensierte Materialien zurückzugreifen oder auf die Original­quelle zu verlinken. Das Hochladen von Fremdmaterialien ist ausschließlich nach Abklärung der entsprechenden Rechte zu empfehlen, beim Einbetten von Fremdmaterialien via Widgets herrscht noch rechtliche Un­sicherheit in Bezug auf die be­denkenlose Verwendbarkeit. Von der Verwendung von einbettbaren Materialien, die eindeutig unter Verletzung geltender Urhe­berrechte veröffentlicht wurden (zum Beispiel kommerzielle Filmproduktionen, die nicht vom Rechteeigentümer auf YouTube hoch­geladen wurden) muss deshalb abgeraten werden.

Als Werkzeug zur Erstellung von Tutorials eignen sich Text­editoren wie beispielsweise Google Drive oder Wiki-Systeme. Auf­grund der einfachen Integrierbarkeit von Medieninhalten (vor allem Social Media-Inhalte aus Videoportalen wie YouTube) hat sich der Wiki-Dienst Wikispaces speziell für Lernende mit geringem technischen Vorwissen bewährt.

Für die interne Kollaboration entscheiden sich die meisten Arbeitsgruppen aus eigener Initiative für eine Kombination aus einem synchron zu verwendenden Texteditor (zum Beispiel Etherpad) für das Brainstorming bzw. eine erste Materialien­sammlung und einem asynchronen Wiki-Werkzeug für die Ausarbeitung und Gestaltung der Tutorials. Da die meisten Wiki-Sys­teme im Gegensatz zu Etherpad keine zeitgleiche Änderung an Textpassagen durch mehrere Autorinnen und Autoren ohne Gefahr von Text­verlust oder versehentlicher doppelter Änderung erlauben, ist die Kombination aus diesen beiden Werkzeugen in der Praxis empfehlenswert. Bei der Arbeit im Wiki werden dennoch gelegentlich Probleme durch gleichzeitiges Editieren berichtet – zur Vermeidung ist eine zeitliche Koordinierung oder eine Aufteilung der Bearbeitung in Form von Unterseiten des Wikis zu empfehlen. Zur Abstimmung und Koordination innerhalb der Teams können sämtliche – synchrone und asynchrone – Kommuni­kationskanäle verwendet werden.

Für die abschließende Überprüfung und Veröffentlichung verlinken die Arbeitsgruppen die erstellten Tutorials selbst in einem dafür eingerichteten Tumblelog (in einer nicht-öffentlichen Friendfeed-Gruppe) und die Mitglieder der anderen Teams geben dazu ebendort detaillierte Rückmeldung und Verbesserungstipps (nach vorher definierten Kriterien wie Verständlichkeit, Vollstän­digkeit und Gestaltung). In einem weiteren Überarbeitungsdurchgang werden die Verbesserungsvorschläge von den Teams in die Tutorials eingepflegt. Die Tutorials werden anschließend auf einer Webseite verlinkt und stehen damit einer größeren Öffentlich­keit als Nachschlagewerke zur Verfügung.

!

Werkzeuge für synchrone Zusammenarbeit:

Weiterführende Links finden Sie in der L3T-Gruppe bei Diigo unter Verwendung der Hashtags #l3t #kollaboration #synchron

Einsatz kollaborativer Werkzeuge

Dokumentieren und Kommunizieren von Gruppenprozessen

Arbeitet eine Gruppe örtlich verteilt an einem gemeinsamen Projekt, so wird mit recht großer Wahrscheinlichkeit auch der Bedarf nach Metakommunikation entstehen (zum Beispiel zum Abklären von Fragen oder dem Austausch von Informationen). Dafür können manche der schon beschriebenen Werkzeuge genutzt werden (zum Beispiel ein Etherpad-Dokument für Notizen, eine Ad-Hoc-Videokonferenz mit Tiny­chat). Um bestehende Online-Aktivitäten einer Arbeitsgruppe übersichtlich zu dokumentieren und auf einfache Art und Weise Informationen, Fragen, Kommentare und so weiter dazu austauschen zu können, eignen sich Tumblelogs wie zum Beispiel Soup oder Tumblr.

Hier lassen sich die verschiedenen Online-Aktivitäten der Mitglieder einer Arbeitsgruppe (durch den Import von Blogbeiträgen, Social Bookmarks und so weiter) in einem nach Aktualität geordneten Informationsstrom anzeigen, kommentieren und durch neue Text- oder Bildbeiträge ergänzen – vergleichbar mit der Darstellung in Weblogs oder von Neuigkeiten in sozialen Netzwerken wie zum Beispiel Facebook. Friendfeed ist ein Tumblelog-Dienst, der durch die Möglichkeit, auch private (also nach außen geschlossene) Gruppen einzurichten, besonders für kollaborative Projekte geeignet ist.

!

Auf Tumblelogs können digitale Inhalte jeglicher Art (wie Texte, Links, Bilder, Videos, Audiodateien) gesammelt werden; die Einträge werden umgekehrt chronologisch sortiert und können kommentiert werden.

Weiterführende Links finden Sie in der L3T-Gruppe bei Diigo unter Verwendung der Hashtags #l3t #kollaboration #tumblelogs

Einsatz kollaborativer Werkzeuge

Dateiablagedienste mit Kollaborationsfunktionen

Für den Austausch von Dokumenten innerhalb einer Gruppe können Dateiablagedienste zum Einsatz kommen. Dort können Dokumente online abgelegt und anderen Personen via Hyperlink zur Verfügung gestellt oder „geteilte Ordner” kollaborativ mit Dokumenten befüllt werden. Einige Dienste, wie zum Beispiel Box, bieten über diese Basisfunktionen hinaus Funktionen zum Einbetten und Anzeigen von Dokumenten auf anderen Webseiten oder asynchrone Kollaborationsmöglichkeiten (beispielsweise Kommentieren, Editieren).

Viele Dienste, wie zum Beispiel Dropbox oder Google Drive, bieten – über das Veröffentlichen und Teilen von Dateien und Ordnern hinaus – die Möglichkeit, die online abgelegten Dokumente automatisch mit mehreren Rechnern (auch unterschiedlicher Betriebssysteme!) lokal zu synchronisieren. Damit hat man auf allen verbundenen Rechnern den aktuellen Datenbestand und bei Bedarf auch ohne Internetverbindung Zugriff auf die Daten.

Wenn „sensible” Daten online abgelegt oder synchronisiert werden sollen, empfiehlt es sich, die Daten vor dem Hochladen zu verschlüsseln (s. a. Punkt 9) oder einen Dateiablagedienst zu verwenden, bei dem die Dokumente bereits auf dem eigenen Rechner verschlüsselt werden, wie beispielsweise beim Dienst Wuala.

!

Dateiablagedienste mit Kollaborationsfunktionen:

Weiterführende Links finden Sie in der L3T-Gruppe bei Diigo unter Verwendung der Hashtags #l3t #kollaboration #dateien

Einsatz kollaborativer Werkzeuge

Benutzerkonten, Kosten, Rechtliches

Die hier vorgestellten Werkzeuge haben jeweils ihre eigenen Nutzungsbedingungen. Wir wollen dennoch versuchen, auf sechs Punkte hinzuweisen, die bei der Nutzung fast aller Werkzeuge berücksichtigt werden sollten:

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

!

Kollaborative Sammlung von Diensten ohne Notwendigkeit, ein Benutzerkonto zu eröffnen:

Software für die Verschlüsselung von Dokumenten:

Verbot von sozialen Netzwerken an Schulen:

Einsatz kollaborativer Werkzeuge

Zusammenfassung und Ausblick

In diesem Kapitel haben wir Werkzeuge vorgestellt, die kollaborative Lehr- und Lernprozesse unterstützen sollen. Selbstverständlich ist das Verfügbarhaben praktischer Werkzeuge alleine kein Garant für erfolgreiches Lernen. Vielmehr müssen Ge­stal­ter/innen von Lehr- und Lernprozessen über entsprechendes Hintergrundwissen, praktische Theorien und didaktische Strategien verfügen. Entsprechende Informationen werden in diesem Lehrbuch an anderer Stelle angeboten:

!

Im Rahmen des geschilderten Praxisbeispiels entstandene Tutorials:

Weitere Beispiele für den Einsatz webbasierter kollaborativer Werkzeuge für Lehre und Lernen werden in Wageneder und Jadin (2007) vorgestellt.

!

Einige Beispiele für die im Praxisbeispiel erwähnten Social Media-Dienste für ‚User Generated Content’ (von den Nutzerinnen und Nutzern erstellte Medieninhalte):

?

Sie wollen in einer Gruppe mit mindestens vier Mitgliedern gemeinsam an einer größeren Seminararbeit schreiben.

Die Arbeit wird länger dauern. Sie werden viele Informationen austauschen müssen. Es wird viel Koordinations- und Abstimmungsbedarf geben. Wie gehen Sie vor? Welche Werkzeuge könnten Sie dafür in welcher Kombination nutzen? In welcher Arbeitsphase kommt welches Werkzeug verstärkt zum Einsatz? Entwickeln Sie ein entsprechendes Ablaufmodell!

Einsatz kollaborativer Werkzeuge

Literatur

Offene und partizipative Lernkonzepte

E-Portfolios, MOOCs und Flipped Classrooms

In diesem Kapitel werden mit den Lernarrangements E-Portfolio, ‚MOOC’ und ‚Flipped Classroom’ drei Konzepte behandelt, welche in unterschiedlicher Form die Offenheit des Lernsettings und die Partizipation der Lernenden in den Mittelpunkt stellen.

Offene und partizipative Lernkonzepte

Charakteristik von offenen und partizipativen Lernarrangements

Durch die wachsende Verbreitung mediengestützter Lehr- und Lernansätze sind auch offene und partizipative Lernarrangements ein wichtiges Thema im Bildungsdiskurs. „Lernende werden in ihrer Rolle als aktive Akteurinnen und Akteure, die ihren Lernprozess selbstgesteuert, eigenverantwortlich und kompetent im Einsatz der Technologien bestimmen, in den Mittelpunkt gestellt“, führen Zauchner et. al (2008, 11) für Web 2.0 und Social Media in der Lehre aus. Damit bewegen sich diese Lernarrangements konsequent im hochschuldidaktischen Paradigma des „shift from teaching to learning“ (Barr & Tagg, 1995, 13). Ein zentrales Element ist nach Reinmann und Jenert (2011) die Studierendenorientierung, wobei sie für eine „Orientierung am Studierenden als Teilnehmenden“ (S. 110) plädieren, das heißt, Studierende sollen an inhaltlichen und methodischen Entscheidungen in der Lehre partizipieren und damit teilweise auch die Lehre mitgestalten können.

Eine hohe Partizipation der Lernenden sowie eine schrittweise Öffnung von Lernplattformen – wie sie beispielsweise Kerres (2006) gefordert hat – ist durch den Einsatz von E-Portfolios möglich. E-Portfolios können zunächst unsichtbar für andere gestaltet und in geschlossenen Lerngruppen ausgetauscht werden, ehe sie teilweise oder ganz einer breiteren Öffentlichkeit zugänglich gemacht werden. Sie dienen der Reflexion des eigenen Lernens und der Kompetenzentwicklung und bieten den Lernenden wertvolle Rückmeldungen, wenn sie in ein formatives Assessment-Konzept eingebunden sind. Die Bedeutung von E-Portfolios wird insbesondere an den Schnittstellen zwischen den Bildungsinstitutionen sowie beruflichen und informellen Lernwelten diskutiert. Durch eine noch radikalere Offenheit zeichnen sich MOOCs aus, die sie schon im Namen tragen (‚Massive Open Online Courses’). Die Spannbreite reicht von einem offenen Zugang über frei verfügbare Lernmaterialien (zum Beispiel offene Bildungsressourcen, engl. ‚open educational resources’, OER) bis hin zu den von den Lernenden selbst eingebrachten Tools und Inhalten (van Treeck, 2012). Ebenso wie bei den E-Portfolios können bei MOOCs die Grenzen zwischen informellen und formellen Bildungswegen verschwimmen. Diesen beiden Initiativen wird deshalb auch eine hohe bildungspolitische Bedeutung zugeschrieben: Durch Verbreitung und Offenheit soll mehr Menschen die Partizipation an Bildung ermöglicht werden. Der Flipped Classroom wiederum erlaubt es, in Lehrveranstaltung und Unterricht mehr Zeit für Partizipation und Interaktion der Lernenden zu gewinnen, indem Inputphasen/Vorbereitungsphasen aus dem Präsenzunterricht ausgelagert werden. Dies gibt den Lehrenden und Lernenden bei dem individuell unterschiedlich konstruierten Wissen (Konstruktivisums, #Lerntheorien) mehr Möglichkeiten, Vorgehensweisen und Erfahrungen auch innerhalb einer Großveranstaltung auszutauschen, zu reflektieren und Lehre/Unterricht danach auszurichten. Offene Formen des Flipped Classroom bedienen sich dabei frei im Netz verfügbarer Materialien.

Offene und partizipative Lernkonzepte

E-Portfolios

Das E-Portfolio stellt das elektronische Pendant zur papierbasierten Portfoliomappe dar, einer Form der schulischen Leistungsdarstellung, die auf reformpädagogische Ansätze zurückgeht und im Zuge der alternativen Leistungsbeurteilung (engl. ‚alternative assessment movement’) in den 1980er Jahren in den USA breite Verwendung fand (Elbox & Belanoff, 1986). Ein Portfolio dient als Leistungsschau des persönlichen Lernens. Es stellt eine Sammlung der besten Arbeiten dar und soll gleichzeitig zur Einschätzung beziehungsweise Bewertung von Kompetenzen und deren Weiterentwicklung dienen. In der digitalen Variante wird zur Erstellung des Portfolios meist eine webbasierte Software verwendet, die es dem Besitzer beziehungsweise der Besitzerin erlaubt, anderen durch eine differenzierte Zugriffsregelung über das Internet unterschiedliche Sichten auf das eigene Portfolio zu geben. Durch verschiedene multimediale Ausdrucksformen, insbesondere Audio und Video, sowie die Vernetzungsmöglichkeiten über das Internet erweitert sich in der digitalen Form das Konzept der traditionellen Portfoliomappe in mehreren Dimensionen. Das E-Portfolio zeichnet sich durch seine Vielseitigkeit aus, sowohl individuell als auch organisational: Es kann zur Steuerung des persönlichen Lernens genutzt werden, in Lerngruppen begleitend zum Unterricht zum Einsatz kommen oder auf Organisationsebene zur Unterstützung des Kompetenz- und Wissensmanagements verwendet werden. In intensiv genutzter Form kann es auch Ausdruck der persönlichen, digitalen Identität werden (Buzinkay, 2010).

!

„[Ein] E-Portfolio ist eine digitale Sammlung von 'mit Geschick gemachten Arbeiten' (= lat. Artefakte) einer Person, die dadurch das Produkt (Lernergebnisse) und den Prozess (Lernpfad/Wachstum) ihrer Kompetenzentwicklung in einer bestimmten Zeitspanne und für bestimmte Zwecke dokumentieren und veranschaulichen möchte. Die betreffende Person hat die Auswahl der Artefakte selbstständig getroffen, und diese in Bezug auf das Lernziel selbst organisiert. Sie (Er) hat als Eigentümer(in) die komplette Kontrolle darüber, wer, wann und wie viel Information aus dem Portfolio einsehen darf.“ (Hornung-Prähauser et al., 2007, 14)

Arten, Zweck und Funktionen von E-Portfolios

Die Vielfältigkeit des Konzepts kann gleichzeitig zum Problem werden, wenn es darum geht, mit der E-Portfolio-Arbeit zu beginnen – so unterscheidet beispielsweise Häcker (2007, 132) etwa 30 Portfoliobegriffe allein für die papierbasierten Varianten. Im Entwurf zu einer Taxonomie von E-Portfolios schlagen Baumgartner, Himpsl und Zauchner (2009) deshalb vor, nach dem Hauptzweck des Portfolioeinsatzes zunächst drei Grundtypen zu unterscheiden:

Entsprechend der Taxonomie kann jeder konkrete Portfoliozweck als Untertyp oder bestimmte Kombination dieser drei Basistypen definiert werden. Am weitesten verbreitet ist der Einsatz als Lern- und Assessmentportfolio innerhalb von Bildungsinstitutionen, vorwiegend an Schulen und Hochschulen, wobei dem Portfolio ein Reformpotential für eine Verbesserung der Lern- und Leistungsbeurteilungskultur zugeschrieben wird (Häcker, 2007): Wenn das ursprüngliche pädagogische Konzept ernst genommen wird, sind den Lernenden in allen Phasen – Festlegung der Ziele, Gestaltung des Portfolios, Auswahl der Artefakte, Beurteilung – Mitbestimmungsrechte einzuräumen sowie Bewertungskriterien offenzulegen.

Die Integration der Portfolioarbeit in den Unterricht kann in unterschiedlicher Form und Intensität stattfinden – so unterscheidet beispielsweise Inglin (2006) vier Modelle: vom Parallelmodell, bei dem die E-Portfolioarbeit völlig selbstorganisiert nebenher läuft, bis hin zum Einheitsmodell, bei dem das E-Portfolio komplett in den Unterricht integriert ist. Als typische Prozesskomponenten für papierbasierte Portfolioarbeit nennt Häcker (2007, 145) sechs Aktivitäten: „Context Definition“, „Collection“, „Selection“, „Reflection“, „Projection“, „Presentation“. Diese sind laut der Studie von Himpsl-Gutermann (2012, 262) auch für das elektronische Portfolio passend, wobei er in seinem Modell einige Modifikationen gegenüber Häcker vornimmt (siehe Abb. 1). Beim E-Portfolio spielt die Gestaltung des Portfolios selbst eine größere Rolle als bei einer Portfoliomappe, und die Selbstbewertung der Artefakte wird zusätzlich zur Reflexion als eigener Punkt „Evaluation“ aufgeführt.

!

Das kostenlos downloadbare E-Book von Mark Buzinkay (www.buzinkay.net/eportfolio.html) bietet einen ebenso fundierten wie praxisorientierten Überblick zu den verschiedenen Facetten des E-Portfolios.

?

Überlegen Sie sich, zu welchem Zweck Sie persönlich ein E-Portfolio erstellen könnten? Gibt es einen potenziellen konkreten Anlass? Wie könnte die Grundstruktur dieses Portfolios aussehen? Welche Artefakte würden Sie unbedingt aufnehmen? Erstellen Sie eine Mind-Map zum Überblick über Ihr Portfolio, beispielsweise mit dem Online-Mindmapping-Tool Mindmeister (www.mindmeister.com).

Abb. 1: Der prototypische E-Portfolio-Prozess in Bereichen formalen Lernens nach Himpsl-Gutermann (2012, 262)
Abb. 1: Der prototypische E-Portfolio-Prozess in Bereichen formalen Lernens nach Himpsl-Gutermann (2012, 262)

Die Qual der Wahl: E-Portfolio-Software

Die simple Frage „Was ist eine E-Portfolio-Software?“ ist durchaus nicht leicht zu beantworten, wie Himpsl & Baumgartner (2009) im Rahmen einer Software-Evaluation festgestellt haben. Soll von einer Einzelperson ein E-Portfolio erstellt werden, so könnte beispielsweise auf eine Kombination freier, in der Regel kostenloser Web-2.0-Anwendungen zurückgegriffen werden: ein digitales Repository für die Sammlung und Verwaltung der Artefakte, eine Blogging-Software für die Dokumentation, Reflexion und Planung der Lernprozesse sowie ein Personal-Homepage-Tool für die Gestaltung des E-Portfolios. Neben vielen Vorteilen haben diese Lösungen zwei wesentliche Nachteile: Das E-Portfolio ist vom Fortbestehen mehrerer, einzelner Anbieter abhängig und ermöglicht keine differenzierte Zugriffsregelung, sondern nur die Grundeinstellungen „geschlossen“ oder „offen im Internet zugänglich“. Bildungsinstitutionen greifen deshalb häufig auf Lösungen zurück, die als Redaktionssystem (engl. ‚content management system’, CMS) mit speziellen E-Portfolio-Funktionen auf institutionseigenen Webservern installiert und verwaltet werden. Häufig werden diese Funktionen mit einem bestehenden Lernmanagementsystem (engl. ‚learning management system’, LMS) kombiniert oder integriert. Im deutschsprachigen Raum ist seit einigen Jahren die in Neuseeland entwickelte Open-Source-Software ‚Mahara’ weit verbreitet, die mit dem LMS ‚Moodle’ in Kombination eingesetzt werden kann. Im Sinne des lebenslangen Lernens (engl. ‚lifelong learning’) ist an diesen Lösungen zu kritisieren, dass sie den Lernenden von der Institution meist nur über einen begrenzten Zeitraum zur Verfügung gestellt werden und die Lernenden nicht die Hoheit über die eigenen Daten haben. Auch wenn durch die Entwicklung von Standards wie beispielsweise Leap2A (Smart, 2010) ein Export und Weiterführen des E-Portfolios möglich ist, fordern Expertinnen und Experten wie Ravet (2009) die Entwicklung einer interoperablen E-Portfolio-Software-Architektur mit einem differenzierten digitalen Rechtemanagement für alle Artefakte, die von einem Individuum, einer Gruppe oder einer Organisation erstellt werden. In einer solchen Architektur könnten E-Portfolios auch mit dem noch jungen Konzept der „Open Badges“ kombiniert werden (Europortfolio, 2013).

!

Unter www.himpsl.at findet sich ein öffentliches Präsentationsportfolio, das die Gestaltungsmöglichkeiten von Mahara aufzeigt und Referenzen zu E-Portfolios von Studierenden eines berufsbegleitenden Masterstudiums bereitstellt.

E-Portfolio als Wegbegleiter des Lifelong Learning – Chancen und Risiken

E-Portfolios wird in verschiedenen Bildungssektoren ein hohes Potenzial zugeschrieben. Neben den oben bereits genannten positiven Auswirkungen auf die Lern- und Assessmentkultur innerhalb der Bildungseinrichtung wird mit deren Einsatz insbesondere an Hochschulen die Hoffnung verbunden, den Wechsel vom Lehren zum Lernen (engl. ‚shift from teaching to learning’) im Zuge des Bolognaprozesses zu unterstützen und die Kompetenzorientierung an der Schnittstelle von Lehren, Lernen und Prüfen zu fördern (Arnold, 2011). Durch eine Verankerung in der Lehrer/innenbildung könnten Lehrportfolios (engl. ‚teaching portfolios’) nicht nur in allen Phasen einer Lehrer/innenlaufbahn verschiedene Zwecke erfüllen, sondern auch einen wichtigen Beitrag zur systematischen Verankerung von Medienbildung im Schulsystem leisten (Himpsl-Gutermann & Bauer, 2011). Auch im Hochschulkontext werden solche Lehrportfolios zunehmend für die Dokumentation, Reflexion und Entwicklung von Lehrkompetenz eingesetzt (Merkt & Trautwein, 2012), wobei die elektronische Variante zunehmend an Bedeutung gewinnt (van Treeck & Hannemann, 2012; Busch-Karrenberg et al., 2013).

Im deutschsprachigen Raum dominiert bislang der Einsatz in formalen Bildungssettings. Jedoch könnte das noch größere Potential darin liegen, mithilfe von E-Portfolios informell erworbene Kompetenzen sichtbar zu machen und anerkennen zu lassen (Perry, 2009). E-Portfolios könnten auch in der Personalbeschaffung zum Einsatz kommen, meist sind die Bewerber/innen jedoch gezwungen, ihre Daten immer wieder neu auf den Portalen der Arbeitgeber bereitzustellen. Das Fehlen von elaborierten Standards zum Austausch von E-Portfolios und die Unmöglichkeit, die eigenen Daten hundertprozentig zu schützen, sind wesentliche Nachteile. Im Spannungsfeld von Kontrolle und Selbstkontrolle zeigt sich die Ambivalenz von E-Portfolios in Bildungsprozessen (Münte-Goussar et al., 2011). Die eher positiv konnotierte Selbstkontrolle im Sinne einer Verbesserung der Fähigkeiten, sein Lernen selbst zu organisieren, bekommt durch die Kontrolle von außen den Beigeschmack des Überwachens. In der Frage „Wie ehrlich gehe ich mit der Selbstreflexion um, wenn mein Portfolio gleichzeitig einem Assessment von außen unterzogen wird?“, drückt sich ein wesentliches Dilemma aus, in dem die Lernenden stehen (Himpsl-Gutermann, 2012, 279). Und vor dem Hintergrund einer zunehmenden Ökonomisierung der Bildung und des Selbst könnte der Portfolioansatz durchaus sogar dafür missbraucht werden, „Lernende in neoliberale Sicht- und Denkweisen einzusozialisieren“ (Häcker, 2011, 173).

!

Sind Sie an E-Portfolios interessiert? Planen Sie, eventuell E-Portfolios an Ihrer Institution einzuführen? Unter www.europortfolio.org haben Sie die Möglichkeit, einem Netzwerk von E-Portfolio-Interessierten beizutreten und von den Erfahrungen und Materialien zu profitieren, die im Rahmen einer EU-Initiative auf dem Portal zur Verfügung gestellt werden.

Offene und partizipative Lernkonzepte

MOOCs (‚Massive Open Online Courses’)

In jüngster Zeit sind ‚Massive Open Online Courses’, abgekürzt MOOCs, in das Zentrum vieler bildungspolitischer und mediendidaktischer Diskussionen gerückt. Je nach Perspektive und Standort des Betrachters beziehungsweise der Betrachterin ist die Rede von der ‚Globalisierung der Lehre‘, der ‚Demokratisierung der Bildung‘, der ‚Krise der Hochschulen‘ oder einfach ‚neuen Welten des Online-Lernens‘. Wesentliche Charakteristika von MOOCs drückt bereits der Begriff aus:

Entwicklungslinien und MOOC-Formate

Der Online-Kurs, in dessen Umfeld der Begriff „MOOC“ geprägt wurde, hatte den Titel „Connectivism and Connective Knowledge“ und wurde im Herbst 2008 von George Siemens und Stephen Downes angeboten. Dieser Kurs, der unter dem Kürzel „CCK08“ bekannt wurde, dauerte zwölf Wochen (siehe: http://wwwapps.cc.umanitoba.ca/moodle/course/view.php?id=20). Grundlage bildete eine Agenda mit wöchentlich wechselnden Themen, regelmäßigen Live-Events mit Gastreferentinnen und Gastreferenten, Lektüreempfehlungen sowie konkreten Aufgaben und Aktivitäten, die den Lernenden Anlässe boten, sich mit dem jeweiligen Thema der Woche auseinanderzusetzen. Die Gastgeber verzichteten jedoch auf die Vorgabe von Lernzielen, auf die eigene Entwicklung von Lerninhalten, auf Tests und Prüfungen sowie eigene Formen der Zertifizierung. Im Mittelpunkt sollten Lernende stehen, die sich selbstorganisiert mit dem Thema des MOOCs auseinandersetzen, eigene Ziele formulieren, eigene Diskussionsbeiträge entwickeln, sich mit anderen Lernenden vernetzen und dafür die Plattformen und Instrumente des Internets nutzen, die ihnen vertraut sind (Robes, 2012).

Der CCK08 wurde zum ersten Modell für das neue MOOC-Format. Da sich George Siemens und Stephen Downes bei der Entwicklung und Umsetzung ihrer Kurse an der Idee des Konnektivismus (Siemens, 2004) orientierten, werden MOOCs, die diesem Modell folgen, als ‚cMOOCs’ bezeichnet (Wedekind, 2013, 48ff.).

Populär wurden MOOCs, als im Herbst 2011 im Umfeld von Stanford drei offene Online-Kurse angeboten wurden. Für einen dieser Kurse, „Introduction to Artificial Intelligence (AI)“, durchgeführt von Sebastian Thrun und Peter Norvig, meldeten sich allein 160.000 Teilnehmende an. Zum Vergleich: Der Kurs „CCK08” hatte 2200 Teilnehmende. Im Unterschied zu den dezentralen cMOOCs hatte der AI-Kurs eine zentrale Lernplattform und eine klare Struktur und Führung der Lernenden: Auf kurze Videobausteine, in denen die Lerninhalte präsentiert wurden, folgten regelmäßige Quizzes und Lernaufgaben sowie ein Abschlusstest. Für die Kommunikation der Teilnehmer/innen und Lehrenden standen Foren zur Verfügung.

Die hohe Zahl der Teilnehmer/innen und eine breite Berichterstattung führten dazu, dass sich unmittelbar nach Abschluss des AI-Kurses 2012 eine Reihe von MOOC-Anbietern formierten: ‚Udacity’ (www.udacity.com, gegründet von Sebastian Thrun), „Coursera” (www.coursera.org) und „edX” (www.edx.org). Hinter diesen Unternehmen stehen verschiedene Partnerschaften mit amerikanischen, aber auch europäischen Hochschulen oder Hochschullehrende. Auf der Grundlage des Kapitals von Stiftungen und Finanzinvestoren haben diese Anbieter in kurzer Zeit eine stetig wachsende Zahl von Kursen entwickelt und durchgeführt. Das Angebot von ‚Coursera’, der weltweit größten MOOC-Plattform, umfasst zum Beispiel 423 Kurse, die mit 83 Partnern entwickelt wurden und für die sich über 4,34 Millionen Teilnehmende angemeldet haben (Stand 12. August 2013). Im Mittelpunkt der im Anschluss an den AI-Kurs entwickelten MOOCs steht die strukturierte Vermittlung von Lerninhalten. In Anlehnung an einen der genannten MOOC-Anbieter, edX, hat sich für dieses MOOC-Format die Bezeichnung ‚xMOOCs’ durchgesetzt (Wedekind, 2013).

Mittlerweile gibt es auch im deutschsprachigen Raum eine Reihe von MOOC-Initiativen. Dazu gehören regelmäßig durchgeführte cMOOCs, aber auch erste xMOOC-Plattformen, die sich als Anlaufstelle für Hochschulen und ihre MOOC-Angebote etablieren wollen (Dillenbourg, 2013; Bremer, 2013).

!

Während cMOOCs vor allem auf die Vernetzung der Teilnehmenden und Informationen sowie das Entwickeln eigener Beiträge zum Kursthema setzen, führen xMOOCs die Lernenden durch strukturierte Lerninhalte, regelmäßige Wissensabfragen und Prüfungen.

Abb. 2: Vernetzungen und vernetztes Lernen am Beispiel des CCK08. Quelle: Matthias Melcher ([http://www.flickr.com/photos/37794987@N00/2843707657/](http://www.flickr.com/photos/37794987@N00/2843707657/)) \[2013-08-24]
Abb. 2: Vernetzungen und vernetztes Lernen am Beispiel des CCK08. Quelle: Matthias Melcher ([http://www.flickr.com/photos/37794987@N00/2843707657/](http://www.flickr.com/photos/37794987@N00/2843707657/)) \[2013-08-24]

MOOCs als partizipative Lernformate

MOOCs sind entstanden, um die vielfältigen Möglichkeiten des Internets und der Social-Media-Instrumente und Plattformen für die gemeinsame Auseinandersetzung mit einem Thema zu nutzen. Deshalb wird vor allem im Rahmen von cMOOCs versucht, den Teilnehmenden nicht nur eine Kursstruktur und Lernmaterialien zur Verfügung zu stellen, sondern ihnen vielfältige Möglichkeiten der aktiven Teilnahme zu eröffnen.

Wie der gemeinsame Austausch im Rahmen eines MOOCs aussehen kann, soll kurz am Beispiel des ersten deutschsprachigen offenen Online-Kurses gezeigt werden, der sich mit der ‚Zukunft des Lernens’ beschäftigte und im Mai 2011 startete. Ein zentrales Element des Kurses war der Hashtag ‚#opco11’. Er ermöglichte es den fast 900 Teilnehmenden, ihre Beiträge auf Twitter und in anderen sozialen Netzwerken zu verfolgen und zu vernetzen. Und er erlaubte es den Gastgeberinnen und Gastgebern, die so gekennzeichneten Beiträge der Teilnehmenden, also zum Beispiel Blogposts und Tweets, auf dem Kursblog und als wöchentlichen Newsletter zusammenzufassen.

Wer sich aktiv am Kurs ‚Zukunft des Lernens’ beteiligte, tat dies vor allem über Twitter, eigene Blogbeiträge oder Kommentare. Darüber hinaus wurde die breite Palette an Social-Media-Tools genutzt, beispielsweise Etherpad, ein webbasierter Editor zur gemeinsamen Bearbeitung von Texten. Des Weiteren wurden Gruppen auf Facebook, Flickr, der Foto-Online-Plattform, und Diigo, einem Social-Bookmarking-Tool, gebildet. Einzelne Teilnehmende reflektierten ihre Eindrücke sogar in Form kurzer Audiobeiträge. Und mit Kursbeginn wurde täglich die ‚opco11-Zeitung’ publiziert, die automatisch aus Beiträgen verschiedener Social-Media-Plattformen wie zum Beispiel Twitter erstellt wurde und von allen Teilnehmenden abonniert werden konnte.

?

Wie verändert sich die Rolle des Lehrenden im Rahmen eines MOOCs? Welche Aufgaben entfallen im Vergleich zur Durchführung eines mehrwöchigen Präsenzkurses, welche verändern sich und welche kommen hinzu?

MOOCs in der Diskussion

Vor allem die schnelle Entwicklung und Verbreitung der xMOOCs hat zu einer breiten Diskussion und Kritik der Anbieter und ihrer Kursformate geführt. Dabei geht es um:

Durch die wachsende Aufmerksamkeit und Verbreitung dieses Online-Formats wird darüber hinaus intensiv in weiteren Themenfeldern geforscht und experimentiert. Dabei geht es zum Beispiel um die Auswertung der Aktivitäten der Lernenden zur Verbesserung der Kursangebote (engl. ,learning analytics’), um die Verbesserung der Lernbausteine (Online-Videos), um die Anerkennung von Beiträgen der Lernenden im Kurskontext (Open Badges), um neue Formen des Feedbacks (Peer-to-Peer-Grading) und der Online-Prüfung (’Automated Assessments’).

?

Melden Sie sich auf einer MOOC-Plattform wie Iversity (www.iversity.org) oder Coursera (https://www.coursera.org) für einen Kurs an, und machen Sie sich ein Bild vom Aufbau und Ablauf des Kurses. Beobachten Sie vor allem, welche Möglichkeiten der aktiven Partizipation geboten und wie diese genutzt werden.

Offene und partizipative Lernkonzepte

Flipped Classroom

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Das Prinzip des Flipped Classroom ist es, ‚etwas umzudrehen’ (engl. ,to flip something’). Eine Lehrveranstaltung wird ‚umgedreht’. Das bedeutet, dass in der Präsenzzeit der Lehrveranstaltung die Aktivitäten stattfinden, die die Studierenden sonst zu Hause als Vor- oder Nachbereitung durchführen würden. Der Input der Vorlesung, des Schulunterrichts oder der Weiterbildungsveranstaltung (Vorträge, Material) wird aus dem Hörsaal oder Klassenzimmer ausgelagert. Wozu ist das gut? In Vorlesungen halten Lehrende in der Regel einen (wissenschaftlichen) Vortrag. Gegebenenfalls sind Rückfragen erlaubt oder es werden kurze Arbeitsphasen für Studierende eingebaut. Meist erfolgt die vertiefende Auseinandersetzung mit dem Stoff der Vorlesung aber in der Selbstlernphase, wenn Lehrende nicht direkt für Rückfragen verfügbar sind.

Abb. 1: Cartoon:
Abb. 1: Cartoon: "Das ist Hochschulunterricht"

Doch bei diesen vertiefenden Auseinandersetzungen, bei der Arbeit an den Inhalten mit Bezug zu konkreten Aufgaben oder beim Transfer des in der Vorlesung Gehörten auf die Praxis tauchen die meisten Fragen auf. Diese müssen dann allein bewältigt werden. Studierende müssen Durchhaltevermögen beweisen, wenn sie nicht weiterkommen, und sie müssen Unsicherheiten aushalten, bei denen sie keine Unterstützung erhalten. So können Lernende weder Höchstleistungen erzielen noch ihre Lernprozesse verbessern.

!

Die Umkehrung der Arbeits- und Rezeptionsphase ist das Kernprinzip des Flipped Classroom, der auch als Inverted Classroom bezeichnet wird.

Ist das wirklich so neu? Klassische Seminare lagern häufig Textlektüre aus, damit im Seminar – aufbauend auf der Kenntnis des Textes – vertiefend diskutiert werden kann (Sams, 2012, 19). Neu ist das Prinzip aber für Vorlesungen. Durch die zunehmend einfacher werdende Erstellung und Bereitstellung von Videomitschnitten zur Vorlesung ist auch hier eine Auslagerung des Inputs möglich. Die Vorträge werden aufgezeichnet oder es wird (Video-)Material bereitgestellt, und Lernende erhalten die Aufgabe, die Vorträge und/oder das Material in der Selbstlernzeit zu rezipieren. Die Selbstlernzeit wird mit konkreten Aufgaben/Reflexionsfragen verbunden, sodass die Studierenden wissen, warum und mit welchem Fokus sie vorgehen. In der Vorlesung und im Unterricht kann dann auf der Grundlage der Inhalte miteinander gearbeitet werden. Der aufgezeichnete Vortrag bietet den Studierenden weitere Vorteile gegenüber einer klassischen Vorlesung: Inhalte können mehrmals rezipiert werden, bei noch nicht verstandenen Stellen springen die Studierenden zurück oder ‚spulen’ bei bekannten Stellen ‚vor’.

!

Stellen Sie sich für die Umsetzung einer Lehrveranstaltung die Frage, wann die Lernenden die Lehrenden am meisten benötigen, damit sie die formulierten Lernziele erreichen können (Sams, 2012, 19). Flippen Sie nicht die ganze Veranstaltung und nutzen sie nicht alle Möglichkeiten auf einmal.

?

Erinnern Sie sich an die Zeit, als Sie selbst Vorträge oder Vorlesungen besucht haben. Wie haben Sie danach oder währenddessen gelernt? Was hätten Sie mit Lehrenden sowie Kommilitoninnen und Kommilitonen gemeinsam besser erarbeiten können? Wann ist Ihnen Austausch wichtig? Erstellen Sie zur letzten Frage eine Gegenüberstellung in einer Tabelle (Austausch wichtig/weniger wichtig/Begründung).

Missverständnisse beim Flipped Classroom

Achtung Verwechslungsgefahr! Das Konzept des Flipped Classroom dreht sich im Kern nicht um „Video-Lernen“ (Fischer & Spannagel, 2012, 227; Handke, 2012, 39). In manchen journalistischen Artikeln (zum Beispiel Drösser & Heuser, 2013) wird die Bereitstellung von Lernvideos wie in der Khan Academy (https://www.khanacademy.org/) oder das Konzept der MOOCs (siehe oben) mit dem Konzept des Flipped Classrooms verwechselt. Im Flipped Classroom kann die Rezeption von Videovorträgen ein Element sein, muss es aber nicht, die Online-Phase kann auch mit anderem Material und Interaktionen gestaltet werden. Wichtiger ist die „Wertschätzung der Präsenzzeit“ (van Treeck et al., 2013, 70; auch Sams, 2012, 21): Lernen während des face-to-face-Kontakts steht hier im Mittelpunkt (vgl. zum Unterschied zwischen Flipped Classroom und MOOCs auch das Videointerview von Claudia Bremer und Christian Spannagel unter http://www.youtube.com/watch?v=gvWuzL_yKak). Mit der starken konzeptionellen Verbindung der Online- und der Offline-Phase bewegt sich das Konzept des Flipped Classroom also in der Diskussion um Blended Learning (#Grundlagen – Barbecue-Typologie). Bremer (o. J.) systematisiert dazu Möglichkeiten der Online-Vor- oder Nachbereitung.

Alternativen/Ausprägungen

Betrachtet man neben der Vorlesung andere Lehrformate (Modul mit Vorlesung, Praktikum, Übung), stellt sich die Frage, wie sich eine Übung vom Präsenzteil einer geflippten Vorlesung unterscheidet. So ist es mitunter üblich, dass die Übung nicht von Professorinnen oder Professoren durchgeführt wird und Studierende ausschließlich in der umgedrehten Vorlesung die Möglichkeit haben, mit den Hochschullehrenden in direkten Austausch zu treten. Die Übung wird dazu genutzt, zusätzliche Aufgaben zur Wiederholung und zur Elaboration der Themen zu bearbeiten. Ein curricular eingebundenes Modell – mit starker Online-Begleitung sowie ausgebauten Praxisphasen und „auf die digitalen Lerneinheiten abgestimmten E-Tests“ (Handke, 2012, 49) – haben Bonnet, Hansmeier und Kämper (2013) vorgestellt.

Motivation

Grundlage dafür, dass die Vorlesung auch geflipped werden kann, ist die Vorbereitung der Studierenden. Ohne diese kann in der Präsenzveranstaltung nicht vertiefend gearbeitet werden. Unterbleibt die Vorbereitung oder wird sie nicht durch die Vertiefung/den Transfer in der Präsenzveranstaltung ergänzt, bleiben also Studierende der Veranstaltung fern, erhalten Lehrende weniger Einblicke in die Lernprozesse dieser Studierenden als bei einer klassischen Veranstaltung und können dann ihrer Aufgabe zur Lernbegleitung kaum gerecht werden. Dem können Grundprinzipien der Lehrgestaltung sowie der Gestaltungsprinzipien für die bereitgestellten Videos/Materialien (siehe unten) entgegenwirken – neben einer Beachtung der Arbeitsbelastung (engl. ‚workload’). Prenzel (1996) nennt folgende motivationsförderliche Faktoren:

Umfang/Gestaltung von Vortragsvideos

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Vortragsvideos sollten nicht mehr als 10-20 Minuten umfassen. Nach Möglichkeit sollte das Gesichtsfeld der Vortragenden eingeblendet sein: Dies ermöglicht es den Lehrenden, ihre Persönlichkeit einzubringen, und die Begeisterung für das Thema wird auch den Studierenden sichtbar. Da auch die Interpretation der Mimik beziehungsweise genauer des Mundbereichs der Vortragenden wichtig für das Hörverstehen ist (Leonhardt, 2002, 170-171), erleichtert die Einblendung es außerdem, dem Vortrag zu folgen. Die Untertitelung der Videos verschafft zusätzlich einer weiteren Studierendengruppe (zum Beispiel Hörgeschädigten) einen leichteren Zugang und unterstützt die mehrfache Codierung der Inhalte.

!

Auf der Plattform ‚YouTube’ eingestellte Videos werden automatisch mit einem Untertitel versehen, der aus der Tonspur erstellt wird und angepasst werden kann.

Gestaltung der Präsenzphase

Die Auslagerung des Inputs aus der Kontaktzeit innerhalb der Vorlesung ermöglicht es, die Präsenzzeit stärker für Aufgaben, Interaktionen, Fragen und Ähnliches zu nutzen (Schäfer, 2012, 3). „Die nachgestellte Präsenzphase bedarf einer neuen Qualität.“ (Handke, 2012, 39). Hier können verschiedene Großgruppenmethoden zum Einsatz kommen, die die Studierenden dabei unterstützen, sich untereinander Sicherheit zu geben. Ohne das Risiko, sich in einer anonymen Großgruppe zu verlieren, ist eine weitere Durchdringung und der Transfer des Stoffes möglich. Beispiele für solche Methoden sind Think-Pair-Share, Buzz-Group oder Snowballing.

!

Methoden können nur dann funktionieren, wenn sie mit Blick auf die Lernziele und die Zielgruppe ausgewählt werden sowie außerdem zu den eigenen Lehr-Lern-Überzeugungen passen. Sonst laufen sie schnell ins Leere. Über Erfahrungen mit dem Flipped Classroom berichten Lehrende im Blog „Inverted Classroom in Deutschland“ (http://invertedclassroom.wordpress.com/). Ideen zur Gestaltung der Präsenzphase mit Hörsaalspielen werden für die PH Heidelberg im ZUM-Wiki (http://wiki.zum.de/PH_Heidelberg/H%C3%B6rsaalspiele) gesammelt und können dort auch ergänzt werden.

Technische Umsetzung

Wird beim Flipped Classroom mit Videoaufzeichnungen gearbeitet, gibt es verschiedene Möglichkeiten, diese zu erstellen: Einzelne Sitzungen können nach und nach aufgezeichnet und im nächsten Semester für den Flipped Classroom verwendet werden. Alternativ können Vortragsvideos am Schreibtisch oder in einem Studio (ohne Beisein der Studierenden) produziert werden.

Die reine Videoaufzeichnung ist die pragmatischste Vorgehensweise. Tafelanschriebe sollten gegebenenfalls mit aufgezeichnet werden. Wenn Vortragende und Präsentation aufgezeichnet werden, stehen drei verschiedene Ansätze zur Wahl: Mittels Screencasting können alle Bildschirminhalte des Präsentationsnotebooks erfasst und mit einem Videobild (Webcam des Notebooks oder externe Kamera) sowie dem Vortragston kombiniert werden. Speziell für die Vorlesungsaufzeichnung entwickelte Software erfasst den Inhalt von Folien (meist als Plugin der Präsentationssoftware) sowie Video und Ton der Vortragenden.

Die Videos können frei im Netz (zum Beispiel auf ‚YouTube’ oder auf den eigenen Organisationsseiten und Streamingservern) zur Verfügung stehen oder in geschlossenen Lernplattformen eingestellt werden. Einen Überblick zu Aufzeichnungsmöglichkeiten gibt Loviscach (2012).

Forschung zum Flipped Classroom

Es finden sich einige Untersuchungen zum Einsatz von Vorlesungsaufzeichnungen in der Lehre (beispielsweise Witt et al., 2010; Breuer & Breitner, 2008). Der Einsatz von Flipped Classroom ist bislang vor allem durch Evaluationen untersucht worden (zum Beispiel Handke, 2012; Loviscach, 2012) mit Bezug auf die Nutzung der Materialien und zur Teilnahme an der Präsenzveranstaltung. Studien zur durchweg positiven Aufnahme des Flipped Classroom durch die Studierenden sowie zu deren Nutzungsverhalten haben Fischer und Spannagel (2012, 226-227) zusammengefasst.

Loviscach schlussfolgert aus seinen Ergebnissen, dass das Konzept des Flipped Classroom dabei hilft, genau das aufzudecken, was „in der normalen Vorlesung unentdeckt bliebe, und darauf zu reagieren“ (2012, 35). Beim richtigen Einsatz kann der Flipped Classroom also dazu beitragen, näher am Lernen der Studierenden zu agieren und unterschiedliche Lernprozesse mit passenden Methoden zu beeinflussen.

Offene und partizipative Lernkonzepte

Fazit

Aus einer konstruktivistischen Perspektive auf das Lernen sind eine hohe Partizipation der Lernenden und – je nach Ausrichtung – eine Öffnung des Unterrichts wünschenswert. Bei der Verwendung traditioneller Lernplattformen, die in der Regel eher lehrendenzentriert und geschlossen sind, sind diesen beiden Prinzipien gewisse Grenzen gesetzt. In diesem Kapitel wurden mit E-Portfolios, MOOCs und Flipped Classrooms drei ganz unterschiedliche Varianten vorgestellt, die sich durch eine hohe Lernendenaktivität und Offenheit in den didaktischen Konzepten auszeichnen. Hierdurch können neben den intendierten auch überraschende Lernerfahrungen gemacht werden und wichtige (Medien-)Bildungsprozesse stattfinden.

Offene und partizipative Lernkonzepte

Literatur

Qualitätssicherung im E-Learning

Veränderungen durch derzeitige Technologien und Konzepte

E-Learning 2.0 führt zu einer neuen Lernkultur. Diese ist gekennzeichnet durch eine stärkere Autonomie der Lernenden, die wegführt von einem Wissenstransfermodell, wie es in vielen Bildungskontexten vorherrscht, hin zu einem Modell der gemeinsamen Wissenskonstruktion und Kompetenzentwicklung. Lernende für eine ungewisse Zukunft fit zu machen steht im Vordergrund, sie bei ihrer Entwicklung zu ‚reflektierten Praktikerinnen und Praktikern‘ zu unterstützen und sie mit einem Portfolio von Handlungskompetenzen auszustatten, mit dem sie ihre jeweiligen Arbeits- und Lebenswelten gestalten und innovativ weiterentwickeln können. Eine neue Kultur des Lehrens und Lernens, wie im Beitrag beschrieben, stellt auch die Auffassungen davon in Frage, wie Qualität beurteilt, entwickelt und gesichert wird. Verfahren, die auf Beteiligung der Lernenden und den Lernprozess direkt abzielen, stehen dabei im Vordergrund und weniger organisationszentrierte Prozesse. Eine Qualitätskultur für E-Learning, die Verfahren und Methoden für E-Learning 2.0 beisteuern möchte, zielt auf beteiligungsorientierte Verfahren ab, schafft Räume und Möglichkeiten zur Reflexion und bindet Lernende in Feedback-Prozesse ein.

Qualitätssicherung im E-Learning

Qualität für digitale Lernwelten: Von der Kontrolle zur Partizipation und Reflexion

Qualitätsentwicklung für E-Learning sowie für Bildung allgemein wird zunehmend wichtiger. Dabei werden Lerninhalte und Lernprozesse evaluiert und Programme und Institutionen zertifiziert und akkreditiert. Qualitätsmanagement sieht vor, umfassende Organisationsprozesse in einer Bildungseinrichtung zu definieren und Indikatoren für deren Güte festzulegen. Qualitätssicherung untersucht, ob eine zuvor versprochene Qualität tatsächlich erreicht wird. Qualitätskontrolle soll Fehler aufspüren und verhindern. Was aber passiert in E-Learning-2.0-Lernszenarien? Was passiert in diesen Fällen, wo Lernmaterialien nicht von vornherein feststehen, Lernprozesse hochgradig unterschiedlich und uneinheitlich beschaffen sein können und individuellen Lernwegen folgen? Und was ist mit denjenigen Bildungsprozessen, die außerhalb von Programmen und jenseits von formalen Bildungsinstitutionen stattfinden? Wer bestimmt die Qualität solcher Lernszenarien, was kann überhaupt noch qualitativ bewertet werden und welche Methoden können herangezogen werden, um Qualität zu verbessern?

!

Die Sicherung und Entwicklung von Qualität in Lernszenarien muss sich vor allem auf die individuellen Lernprozesse und die gezeigten Leistungen konzentrieren.

Traditionelle Lernwelten Neue/zukünftige Lernwelten
Qualität wird durch Expertinnen und Experten beurteilt Qualität wird von Lernenden und Peers beurteilt
Lernplattform Personal Learning Environment
Von Expertinnen und Experten erstellte Lerninhalte Von Lernenden erstellte Inhalte
Curricularer Aufbau Portfolios (Lerntagebücher)
Fokus auf Kursstruktur und Content Fokus auf Kommunikation und Interaktion
Verfügbarkeit von Tutorinnen und Tutoren Interaktion zwischen allen Beteiligten
Multimedia (Interaktivität) Austausch durch Soziale Netzwerke und Communities of Practice
Aneignungsprozesse Beteiligungsprozesse

Tab.1: Unterschiedliche Bedingungen und Gegenstände der Qualitätsbeurteilung

Voraussetzung von und Ziel für E-Learning 2.0 ist die Autonomie der Lernenden. Der/Die Lernende ist dabei hochgradig selbstgesteuert. Lernen findet nicht ausschließlich in Institutionen statt, sondern überall, ein Leben lang und multiepisodisch, in Lerngemeinschaften und sozialen Netzwerken, unter Nutzung von Social Software und individuell zusammengestellten Inhalten. Die Sicherung und Entwicklung von Qualität in solchen Lernszenarien muss sich demnach vor allem auf die individuellen Lernprozesse und die gezeigten Leistungen (Performanz) konzentrieren. Es geht um die Perspektive des/der Lernenden, weniger um organisationale Prozesse und/oder so genannte Input-Faktoren. Qualitätsbeurteilung findet weniger mittels klassischer Methoden des experten- und standardbasierten Qualitätsmanagements, der Qualitätssicherung oder -kontrolle statt, sondern bedient sich partizipativer Methoden und responsiver Designs. Ziel ist es, zu einer individualisierten und lernprozessbezogenen Beurteilung zu kommen. Tabelle 1 zeigt die unterschiedlichen Gegenstände, auf die sich Qualitätsbeurteilung für E-Learning 2.0 bezieht.

Schaut man in die relevante Literatur über Qualität im Bildungsbereich, so wird schnell deutlich, dass Qualitätssicherung durchaus mehr als ‚Überprüfung anhand von Standards‘ sein kann: Harvey und Green sehen für den Bildungsbereich nicht einen, sondern fünf grundsätzlich unterschiedliche pädagogische Qualitätsverständnisse und kommen zu dem Schluss, dass Qualität ein philosophischer Begriff sei (Harvey & Green, 2000, 36). Ähnlich weisen auch Posch und Altrichter darauf hin, dass Qualität ein Begriff ist, der nun im Hinblick auf die Werte der verschiedenen Interessengruppen näher zu bestimmen sei (Posch & Altrichter, 1997, 28). Als Folge davon sprechen sie von Qualität als einem relativen Begriff, der im Verhältnis zwischen den Stakeholdern als Aushandlungsprozess zu organisieren sei (ebenda; ähnlich auch: Harvey & Green, 2000, 17). Heid hebt hervor, dass Qualität keine generelle, beobachtbare Eigenschaft eines Bildungsprozesses sei, sondern vielmehr das Resultat einer Bewertung (Heid, 2000, 41). Qualität in der Bildung kann somit nicht als eine pauschale Klassifizierung guter Schulen, Programme oder Lernszenarien verstanden werden, sondern muss sich als Resultat eines transparenten Aushandlungsprozesses von Werthaltungen, Anforderungen und Ergebnissen verstehen (Ditton, 2000, 73). Posch und Altrichter (1997, 130) kommen zu dem Schluss, dass man nicht mehr erreichen kann als „jene Kriterien, die jeder Stakeholder bei seinen Qualitätseinschätzungen benutzt, so klar als möglich zu definieren und diese – zueinander in Wettbewerb stehenden – Sichtweisen zu berücksichtigen, wenn Qualitätsbeurteilungen vorgenommen werden“.

!

Für Qualität von Bildungsprozessen heißt das, zunächst einmal zu fragen, welche Stakeholder mit welchen Interessen wie am Bildungsszenario beteiligt sind.

In dieser Frage zeigt sich bereits ein deutlicher Unterschied zwischen dem broadcasting-orientierten E-Learning-1.0-Verständnis und dem eher beteiligungsorientierten E-Learning-2.0-Verständnis. E-Learning 2.0 rückt die Lernenden nicht nur als Empfänger/innen in den Mittelpunkt, sondern auch als aktive Akteure, die selbst an der Definition und Evaluation der Qualität der Lernressourcen und der Lernprozesse beteiligt sind. Während nach der Konzeption von E-Learning 1.0 Lernmaterialien vielfach von Expertinnen und Experten erstellt und bewertet werden, Lernplattformen durch Institutionen sowie Expertinnen und Experten qualitätsgesichert werden, stellen Lernende sich in E-Learning-2.0-Szenarien ihre eigenen persönlichen Lernumgebungen (PLE) zusammen, kreieren eigene Inhalte und lernen zusammen mit und von anderen (vgl. Kapitel #systeme). Lernmaterialien werden gegenseitig durch die Peers bewertet.

In E-Learning-2.0-Lernszenarien fällt den Lernenden als aktive Konstrukteure und Kontrukteurinnen von Lernmaterialien (Co-Creator), Lernumgebungen (PLE) und Impulsgeber/innen für eigene Lernprozesse eine wichtige Rolle bei der Definition von Erfolgs- und Qualitätskriterien zu. Dies ist übrigens eine Eigenschaft, die oftmals als Barriere für die Integration von E-Learning 2.0 in formale Bildungsprozesse empfunden wird. Denn die Konkurrenz von Lernenden und Lehrenden und/oder anderen institutionellen Akteuren bei der Qualitätseinschätzung scheint oft unüberwindbar und nur über einen Machtverlust auf Institutionsseite auflösbar.

Die Rolle der Qualitätsentwicklung ändert sich. Ist sie vielfach in traditionelleren Lernszenarien noch die einer Prüfung und Kontrolle von Qualität, so wird sie in E-Learning-2.0-Szenarien mehr zur Rolle eines Ermöglichers von Lernfortschritten. Lernmethoden und Qualitätsentwicklung rücken eng zusammen. Methoden wie Feedback, Reflexion und Empfehlungsmechanismen rücken in den Vordergrund. Charakteristische Rahmenbedingungen, die in der Qualitätsentwicklung für E-Learning-2.0-Szenarien beachtet werden müssen, sind im Folgenden aufgeführt:

Von Rezeption zu Partizipation

Die Metapher für Lernen ändert sich. Im E-Learning 2.0 macht sich Qualität nicht so sehr an der Evaluation einer vorgefertigten Lernumgebung oder eines von Expertinnen und Experten produzierten Lerninhaltes fest. Nicht die Rezeption, sondern die aktive Beteiligung steht im Vordergrund, also die Frage, inwieweit ein Lernszenario dazu anregt, individuelle, persönliche Lernumgebungen zu kreieren, eigene Lerninhalte zusammenzustellen und mit anderen zu teilen.

Von Kontrolle zu Reflexion

Qualitätsentwicklung für E-Learning-2.0-Szenarien verlagert den Fokus von einem Konformitätsfokus hin zu einer Reflexion des Lernprozesses. Lernende werden dabei unterstützt, eigene Lernfortschritte, Bildungsstrategien, Bedarfe und so weiter zu reflektieren, zu erkennen und umzusetzen sowie den Beitrag von Bildungsmedien dazu kritisch zu reflektieren. Ziel ist dabei, eine persönlich ideale Konfiguration von Bildungsmedien und -strategien zu erlangen, die durch selbstständige Reflexion weiterentwickelt wird.

Von der Produktorientierung über die Prozessorientierung hin zur Performanz- und Kompetenzorientierung

Weniger die Lernmaterialprodukte, mit denen gelernt wird, stehen im Vordergrund der Qualitätsentwicklung; auch nicht die Prozesse der Anbieter. Qualitätsentwicklung konzentriert sich auf die Performanz der Lernenden, die von ihnen erstellten Lernprodukte, Entwicklungsschritte und Ähnliches (etwa in E-Portfolios), die den Weg zur Handlungskompetenz kennzeichnen.

Von Bildungsplanung für die Lernenden zur Bildungsplanung durch die Lernenden

Qualität von Lernszenarien wird oftmals durch eine sorgfältige Analyse der Bildungsbedarfe, eine umfassende Konzeptionsphase, rückgekoppelte Lernmaterialdesign- und Entwicklungsprozesse und die Evaluierung von Lernprozessen und -ergebnissen angestrebt. In E-Learning-2.0-Szenarien werden viele dieser Prozesse von Anbietern beziehungsweise Anbieterinnen eines Programms auf die Lernenden verlagert. Qualitätskonzepte müssen daher Lernende in ihrer Fähigkeit zur Qualitätsentwicklung durch Reflexion unterstützen, lernendenorientierte Evaluationsformen ermöglichen und Lernenden die notwendigen Werkzeuge zur Qualitätsentwicklung ihrer eigenen persönlichen Lernumgebung an die Hand geben.

Von Empfänger/innen zu Entwickler/innen von Lernmaterialien

Um zu ermitteln, wie die Materialien und Medieneigenschaften optimal auf den Lernprozess wirken, folgt Qualitätsbeurteilung in E-Learning-2.0-Szenarien nicht der Logik einer Wirkungsforschung. Es geht nicht um Lernprozesse, die in einem einheitlichen Lernszenario stattfinden. Vielmehr stehen die Prozesse der Entwicklung, der flexiblen Nutzung und der Validierung über soziale Austauschprozesse mit anderen Lernenden im Mittelpunkt.

Von der „Lernerinsel“ Learningmanagementsystem zum Internet als Lernumgebung

Kerres (2006) weist darauf hin, dass Lernmanagementsysteme (LMS) wie eine Insel funktionieren, die im großen Materialozean des Word Wide Web einen abgeschlossenen Bereich darstellen. E-Learning-2.0-Szenarien verstehen LMS nur als Startpunkt und als Wegweiser für die eigene Suche und Verwendung von Materialien aus dem Internet, ihre Weiterentwicklung und Verknüpfung mit Werkzeugen, die flexibel zu persönlichen Lernportalen arrangiert werden können. Die Qualitätsbeurteilung konzentriert sich daher nicht mehr auf die Materialien innerhalb des LMS, sondern auf die Lernprodukte sowie auf gegebenenfalls in einem E-Portfolio dokumentierte Lernprozesse.

Von Klausuren zur Performanz

Lernfortschritte und Leistungen zeigen sich nicht nur in Prüfungen, sondern sind vor allem in den in Portfolios dokumentierten Lernverläufen (zum Beispiel in Wikis oder Weblogs), Lernprodukten und sozialen Interaktionen nachvollziehbar.

!

Die hier aufgeführten Änderungen führen starke Konfliktpotenziale mit sich, die in Bildungsinstitutionen bei der Einführung einer neuen Qualitäts- und Bewertungskultur auftreten können. Die Einführung einer neuen Bewertungskultur auf Basis von Methoden, wie sie exemplarisch im nächsten Abschnitt beschrieben werden, ist kein automatisch ablaufender Prozess, sondern muss umsichtig und partizipativ geregelt werden.

Qualitätssicherung im E-Learning

Konzepte und Methoden zur Qualitätsentwicklung in digitalen Lernwelten

Die Qualitätsbeurteilung in digitalen Lernwelten fokussiert sich auf den Lernprozess. Nicht externe Maßstäbe und interindividuelle Vergleiche werden herangezogen (etwa über Klausuren, Tests oder Assessments), sondern Verfahren der Selbstbewertung intraindividueller Entwicklungsprozesse stehen im Vordergrund. Die angewandten Mittel bestehen weniger aus Klausuren und Tests als vielmehr aus Reflexion und Begutachtung von Lernprodukten und E-Portfolios. Zwar ist E-Learning 2.0 als Trend eine neue Entwicklung, jedoch gibt es mit den zugrunde liegenden Lernmodellen autonomen Lernens und des Lernens in „Communities of Practice“ bereits substanzielle Erfahrungen und Methoden, wie Beurteilungen und Qualitätsbewertungen von Lernprozessen vorgenommen werden können. Diese Methoden können von Lehrenden genutzt werden, um sie zusammen mit Lernenden dazu einzusetzen, deren Lernfortschritte zu evaluieren und individuelle Lernplanungen zu ermöglichen. Lehrende haben dabei die Rolle von Mentorinnen und Mentoren, die Feedback und Rückmeldung geben, bei der Reflexion von Lernerlebnissen helfen oder E-Portfolio-Einträge beurteilen. Im folgenden Abschnitt werden zwei Methoden zur Qualitätsbeurteilung von Lernprozessen in digitalen Lernwelten exemplarisch vorgestellt.

Selbstevaluation

Eine wichtige Methode, die enorme Potenziale für die Qualitätsbewertung von Lernprozessen in E-Learning-2.0-Szenarien bietet, ist das Konzept der Selbstbewertung. Dabei geht es nicht um eine abschließende (summative) Beurteilung der Lernleistung, sondern vor allem um eine Verbesserung der Lernfähigkeiten.

„Self-evaluation is defined as students judging the quality of their work, based on evidence and explicit criteria, for the purpose of doing better work in the future. When we teach students how to assess their own progress, and when they do so against known and challenging quality standards, we find that there is a lot to gain. Self-evaluation is a potentially powerful technique because of it’s impact on student performance through enhanced self-efficacy and increased intrinsic motivation. Evidence about the positive effect of self-evaluation on student performance is particularly convincing for difficult tasks (Maehr & Stallings, 1972; Arter et al., 1994), especially in academically oriented schools (Hughes et al., 1985) and among high need pupils“ (Henry 1994).

E-Portfolios für summative Beurteilungen E-Portfolios für formative Beurteilungen
Zweck des E-Portfolios wird vorgeschrieben Der Zweck des E-Portfolios wurde mit den Lernenden abgestimmt
Es ist festgelegt, welche Lernartefakte im Portfolio für eine Bewertung vorhanden sein müssen Artefakte werden von den Lernenden ausgewählt, um damit die Geschichte ihres Lernens zu erzählen
E-Portfolios werden üblicherweise am Ende eines Schuljahres, Semesters oder Programms unter Zeitbeschränkung angefertigt E-Portfolios werden laufend gepflegt, über ein Schuljahr, Semester oder Programm hinweg, mit flexibler Zeiteinteilung
Die E-Portfolios und/oder Artefakte werden üblicherweise benotet, basierend auf einer Matrix und quantitativen Daten für ein externes Publikum Die E-Portfolios und Artefakte werden mit den Lernenden begutachtet und benutzt, um Rückmeldung zur Verbesserung des Lernens zu geben
Das E-Portfolio ist üblicherweise durch die vorgegebenen Ergebnisse, Ziele oder Standards strukturiert Die Organisation des E-Portfolios ist durch die Lernenden bestimmt oder mit den Mentorinnen und Mentoren/Beraterinnen und Beratern/Lehrenden/Peers ausgehandelt
Manchmal werden sie benutzt, um wichtige Entscheidungen zu treffen Sie werden kaum genutzt, um wichtige Entscheidungen zu treffen
Summativ: Was wurde bis heute gelernt? (Vergangenheit - Gegenwart) Formativ: Welche Lernbedürfnisse gibt es in der Zukunft? (Gegenwart - Zukunft)
Extrinsische Motivation ist notwendig Intrinsische Motivation mobilisiert die Lernenden
Publikum: extern, geringe Auswahlmöglichkeiten Publikum: Lernende, Familie, Freunde und Freundinnen

Tab.2: Funktionen eines E-Portfolios zur Beurteilung (basiert auf Hornung-Prähäuser et al., 2007)

In der Literatur finden sich positive Effekte für Selbstevaluationsprozesse auf die Lernleistung (Maehr & Stallings, 1972; Arter et al., 1994; Hughes et al., 1985). Studierende können sich dabei mit dem Profil der eigenen Stärken und Schwächen auseinandersetzen. Rolheiser und Ross (2001) führen aus, dass Studierende, die ihre Leistungen positiv evaluieren, sich höhere Ziele stecken, sich persönlich mehr für den Lernprozess einsetzen und mehr persönliche Ressourcen mobilisieren.

Ein Selbstbeurteilungsprozess vollzieht sich in vier Schritten:

Qualitätsbeurteilung mit E-Portfolios

E-Portfolios – netzbasierte Sammelmappen – integrieren verschiedene Medien und Services. Studierende sammeln in ihrem E-Portfolio diejenigen Lernartefakte, die sie im Verlauf einer Veranstaltung oder auch während des gesamten Studiums erstellen. Das elektronische Portfolio können Studierende benutzen, um ihre Kompetenz auszuweisen und ihren Lernprozess zu reflektieren. Es werden Arbeitsergebnisse, verbunden mit Anmerkungen von Tutorinnen/Tutoren, Lehrenden und Kommilitoninnen/Kommilitonen, Feedbacks und persönlichen Reflexionen, gesammelt.

E-Portfolios eignen sich zur Qualitätsbeurteilung: „Sind E-Portfolios ein Assessment des Lernens oder für das Lernen?“ (Ainsworth & Viegut, 2006). E-Portfolios können dabei zur abschließenden Bewertung (summativ) oder zur fortlaufenden Verbesserung (formativ) herangezogen werden (vgl. Kapitel #assessment). Wie in Tabelle 2 ersichtlich, unterscheiden sich Zweck, Ausgestaltung und Inhalte der E-Portfolios zur summativen Bewertung des Lernerfolgs deutlich von denjenigen zur formativen Bewertung der Lernunterstützung.

Hinsichtlich der Qualitätsbeurteilung wird das E-Portfolio als Weg von ausschließlich fremd bestimmter, testorientierter Leistungsfeststellung durch die Lehrenden, hin zu einer stärker selbstbestimmten Leistungsdarstellung durch die Lernenden verstanden. E-Portfolios sind kompetenzorientiert. Es wird dabei nicht betont, was Lernende falsch gemacht haben, sondern was sie können. Portfoliobefürworter/innen betonen „häufig die natürliche Brückenfunktion des Portfolios, das heißt die Verbindung, die es zwischen Lehren, Lernen und Beurteilen herstellt“ (Häcker, 2005, 14). Ein E-Portfolio ist daher eine Methode der Leistungsbeurteilung, die eine Kombination aus Fremd- und Selbstevaluation bietet.

!

Die neue Lernkultur ist gekennzeichnet durch eine stärkere Autonomie der Lernenden, die wegführt von einem Wissenstransfermodell, wie es in vielen Bildungskontexten vorherrscht, hin zu einem Modell der gemeinsamen Wissenskonstruktion und Kompetenzentwicklung.

Qualitätssicherung im E-Learning

„Löcher in der Gartenmauer“: Neue Lern- und Qualitätskultur für E-Learning

Stephen Downes (2007) benutzt bei einem Vortrag auf der Innovations in Learning Conference von Brandon Hall die Metapher der „Walled Gardens“. Er bezieht sich damit darauf, was Kerres (2006) als inselhaftes E-Learning bezeichnet, wenn er das sogenannte E-Learning 1.0 beschreibt. E-Learning 2.0 reißt Löcher in diese Gartenmauern. Es führt zu einer neuen Lernkultur.

Lernende für eine ungewisse Zukunft fit zu machen, steht im Vordergrund, sie bei ihrer Entwicklung zu „reflektierten Praktikern“ (Schön, 1983) zu unterstützen und sie mit einem Portfolio von Handlungskompetenzen auszustatten, mit dem sie ihre jeweiligen Arbeits- und Lebenskontexte gestalten und innovativ weiterentwickeln können. Sicherlich wird Lernen an sich dadurch nicht neu erfunden. Lernen als Grundkonzept bleibt gleich. Wir erkennen vielmehr, wie neue pädagogische Verständnisse und didaktische Formen wie zum Beispiel Lehr- und Lernszenarien gestaltet sein können. Und damit sind wir bei einer neuen Kultur des Lernens angelangt. Sie fordert Bildungsorganisationen dadurch heraus, dass sich das neue Lernen nicht mehr in ‚walled gardens‘ abspielt, sondern über – sowohl physische als auch konzeptuelle – Institutionsgrenzen hinausgeht und viele traditionelle Regelungen und Verständnisse, wie in Stein gemeißelte Curricula, traditionelle Prüfungen oder ein „organisationsweit einzusetzendes Lernmanagementsystem“ in Frage stellt. Eine neue Kultur des Lehrens und Lernens, wie im Beitrag beschrieben, stellt auch die Auffassungen davon in Frage, wie Qualität beurteilt, entwickelt und gesichert wird. Verfahren, die auf Beteiligung der Lernenden und den Lernprozess direkt abzielen, stehen dabei im Vordergrund und weniger organisationszentrierte Prozesse. Eine Qualitätskultur für E-Learning, die Verfahren und Methoden für E-Learning 2.0 beisteuern möchte, zielt auf beteiligungsorientierte Verfahren ab, schafft Räume und Möglichkeiten zur Reflexion und bindet Lernende in Feedback-Prozesse ein.

In der Praxis: Reflexion im Netz

Nachfolgend werden zunächst die Phasen der Kompetenzentwicklung dargestellt. Daran anschließend erfolgt die Beschreibung der Umsetzung dieser Phasen an einem konkreten Praxisbeispiel – der Lehrveranstaltung Projektmanagement (Wirtschaftsinformatik) des Bachelorstudiengangs Wirtschaftsinformatik der Universität Duisburg-Essen. Die Lehrveranstaltung wurde im WS 2007/2008 mit circa 60 Studierenden durchgeführt. Das kompetenzorientierte Design sieht sechs Phasen vor (Abbildung 1, mehr dazu auch in Ehlers et al., 2010).

Abb. 1: Ablauf der Lehrveranstaltung in Phasen
Abb. 1: Ablauf der Lehrveranstaltung in Phasen

Ziel ist es dabei, Studierende, ausgehend von der Themenfindung, in ein kontinuierliches Reflektieren einzubinden, das durch das Schreiben in Weblogs unterstützt wird und sowohl individuelle als auch Gruppen- und Peer-Reflexionsprozesse enthält.

  1. In der ersten Phase (Themenfindung) setzen sich die Studierenden mit dem vorliegenden Thema so auseinander, dass sie zunächst ihre Fragen zum Themenbereich der Veranstaltung formulieren und schließlich komplexe Probleme selbstständig definieren und diskutieren.
  2. Die Vernetzung (Phase 2) erfolgt auf Basis sozialer Interaktionen. Studierende mit gleichen thematischen Interessen schließen sich zu einzelnen Gruppen zusammen und definieren ihr Projekt. Die Gesamtgruppe wird damit in einzelne Gruppen unterteilt, die jeweils komplexe Probleme lösen. Alle weiteren Aktivitäten, wie Diskussionen, Fortschritt, Überlegungen, Erfahrungen und Ergebnisse, werden in Weblogs dokumentiert.
  3. In der dritten Phase (Erarbeitung) werden die Themen von den Gruppen selbstständig erarbeitet und entsprechende Informationen systematisch gesammelt. Reflexionen in den Weblogs sind hier von zentraler Bedeutung. Die erarbeiteten Zwischenergebnisse werden mit dem Mentor/ der Mentorin in einem Feedback-Gespräch reflektiert und diskutiert.
  4. In der vierten Phase (Vernetzung) arbeiten die Gruppen zwar weiterhin für sich alleine an den Aufgaben und der Themenerarbeitung, aber es finden darüber hinaus, durch den Mentor/ die Mentorin organisiert, ein bis zwei Netzwerk-Events statt. Ziel dabei ist es, dass sich die Gruppen untereinander über Vorgehensweise, Probleme, Problemlösungen und Ähnliches austauschen und ihre Erfahrungen teilen. Die Erfahrungen werden weiterhin in den Weblogs dokumentiert.
  5. In der fünften Phase (Präsentation) berichten die Studierenden den jeweils anderen Gruppen ihre Ergebnisse (Lehrfunktion/Lehreinheit). Die anderen Gruppen reflektieren diese Ergebnisse und Inhalte in Bezug auf ihre eigenen Projekte.
  6. In der abschließenden Feedback-Phase (Reflexion) werden Erfahrungen ausgetauscht. Es erfolgen Rückmeldungen sowohl von den Gruppen untereinander als auch von den begleitenden Mentorinnen und Mentoren.

Lerngemeinschaften werden in Review-Prozesse und Bewertungsverfahren für Materialien, Konzepte und Problemstellungen involviert, und Qualitätsbeurteilungen sind zielgruppenbezogen und nicht an externen Standardvorgaben orientiert. Eine solche Konzeption von Qualität, von Qualitätsmethoden und -instrumenten fordert Bildungsinstitutionen auf allen Ebenen heraus: Institutionell müssen neue Rahmenbedingungen festgelegt werden, die es beispielsweise ermöglichen, auf E-Portfolio gestützte Bewertungsprozesse als Prüfungsleistungen zu akzeptieren. Auf Studienprogrammebene ist es wichtig, Lernmethoden und Curricula so zu konstruieren, dass sie Raum für Steuerungen durch Lernende und ihre Feedbacks lassen. Auf der Ebene von Lernaktivitäten müssen Lernende zunehmend mehr mit Reflexions- und Peer-Review-Prozessen vertraut gemacht werden, die ihnen eine Rückmeldung über die Qualität ihrer Lernprozesse ermöglichen. Für Lehrende sind hierbei völlig neue Kompetenzen erforderlich, die es ihnen ermöglichen, Social- Software-Werkzeuge für die beschriebenen Qualitätsentwicklungsprozesse in Lehrveranstaltungen einzusetzen.

?

Nach der Lektüre des Kapitels sollten Sie mit den Eigenschaften von E-Learning 2.0 für Lernprozesse vertraut sein und die besonderen Herausforderungen der Qualitätssicherung kennengelernt haben. Bitte listen Sie einige Methoden der Qualitätssicherung auf, beschreiben Sie diese jeweils kurz und überlegen Sie, wie Sie eine davon in einem eigenen Lehrveranstaltungsdesign einbauen könnten.

Qualitätssicherung im E-Learning

Einleitung

Das E-Learning Portal e-teaching.org zeigt ein Video des beziehungsweise der Studierenden 2.0. Diese/r wird im Video als „Networked Student“ bezeichnet. Anstatt wie bisher brav jeden Tag zur Uni zu gehen, in Vorlesungen mitzuschreiben und für Klausuren zu lernen, sind Studierende 2.0 damit beschäftigt, sich mithilfe von Online-Systemen eigene Lernlandschaften zusammenzubauen. Dies sind individuelle Wissenssammlungen zu studienrelevanten Themen, die sie mit anderen teilen und zusammen mit ihnen entwickeln. In Studiengruppen erarbeiten sie nicht nur mit anderen Studierenden, sondern auch mit Lehrenden und Expertinnen und Experten anderer Universitäten eigenständig Projekte. Prüfungen finden nicht nur am Ende des Semesters als Klausur statt, vielmehr begleiten Lehrende fortlaufend die Portfolios der Lernenden, um anhand der Performanz zu sehen, wie sich der Kompetenzerwerb entwickelt. Für die Studierenden 2.0 ist die Universität ein Wissensraum, der nicht an der Wand des Hochschulgebäudes aufhört, sondern der sich überall dorthin erstreckt, wo sie ihre eigene Wissensgemeinschaft haben – über Gebäudegrenzen hinweg, über Ländergrenzen hinweg, durch unterschiedliche Situationen und Lebensphasen. Die Studierenden 2.0 benutzen E-Learning 2.0, um sich selbstorganisiert und vernetzt zu bilden. Bei einem Vortrag auf der Innovations in Learning Conference 2007 benutzt Stephen Downes (2007) die Metapher der „Walled Gardens“. Er beschreibt E-Learning 1.0 als inselhaftes E-Learning, welches sich innerhalb der Gartenmauern abspielt, während nebenan die Tür zur Welt offen steht. E-Learning der „Ne(x)t Generation“ reißt Löcher in diese Gartenmauern. Es führt zu einer neuen Lernkultur – einer Lernkultur der Netzgeneration (siehe Kapitel #netzgeneration). Diese ist gekennzeichnet durch eine stärkere Autonomie der Lernenden, die wegführt von einem Wissenstransfermodell, wie es in vielen Bildungskontexten vorherrscht, hin zu einem Modell der gemeinsamen Wissenskonstruktion und Kompetenzentwicklung. Dafür bedarf es einer veränderten Konzeption und geeigneter Methoden der Qualitätsentwicklung. Aber was steckt wirklich dahinter? Was macht das neue, innovative Element aus, welches mit Web 2.0 (Tim O’Reilly, 2005) und mit E-Learning 2.0 beschrieben wird? Und vor allem: Hat diese Entwicklung Konsequenzen dafür, wie wir Qualität im E-Learning sichern, managen und entwickeln? Und wenn ja: Brauchen wir neue Methoden und Konzepte, um zukünftig die Qualität von E-Learning 2.0 zu gewährleisten und zu verbessern? Diese Fragen stehen am Anfang vieler Debatten, die rund um den Begriff E-Learning 2.0 geführt werden. War die Qualitätsfrage bereits zurzeit von E-Learning 1.0 heiß diskutiert, so existiert im Bereich E-Learning 2.0 eine noch größere Unsicherheit. Der vorliegende Beitrag geht diesen Fragen nach. Es wird aufgezeigt, welche Konsequenzen sich für die Qualitätsentwicklung des E-Learning ergeben. Des Weiteren werden exemplarisch einige Methoden beschrieben und praktische Anregungen dazu gegeben, wie sich Methoden zur Qualitätsentwicklung im E-Learning weiterentwickeln sollten. In einem Ausblick wird diskutiert, ob eine neue Lernkultur auch zu einer neuen Qualitätskultur führt.

Qualitätssicherung im E-Learning

Literatur

Offene Lehr- und Forschungsressourcen

Open Access und Open Educational Resources

Für Forschende, Lehrende und Studierende hat das Internet weitreichende Auswirkungen auf die Recherche von Materialien und Texten, das Publikationsverhalten sowie auf die Nutzung und den Austausch von Lehr- und Lernressourcen. Vorhandene, tradierte Urheberrechtsregelungen werden durch neuartige Lizenzmodelle modifiziert oder ersetzt. Die Forderungen nach ‚Open Access‘ und ‚Open Educational Resources‘, die sich in zahlreichen Initiativen, Projekten und Aktivitäten niederschlagen, sind wichtig für die Gestaltung eines liberalen, offenen Zugangs zu Forschungs- und Bildungsmaterialien. In diesem Beitrag wird zunächst die Open-Access-Bewegung vorgestellt, deren Forderung nach freiem Zugang zu öffentlich geförderten Forschungsergebnissen inzwischen als forschungspolitisch etabliert betrachtet werden kann. Parallel zu dieser Bewegung, aber wohl durch sie beeinflusst, bilden sich in den letzten zehn Jahren Projekte und Initiativen, die frei verwendbare Bildungsressourcen fordern und unterstützen.

Offene Lehr- und Forschungsressourcen

Einleitung

Neue Technologien, insbesondere das Internet, verändern die Bedingungen für Lehre und Forschung sowie den Zugang zu wissenschaftlichen Ressourcen und Lernmaterialien. Vor allem für Lehrende an Universitäten, aber auch für Studierende sind das Internet und die damit verbundenen Möglichkeiten der Verbreitung und des Zugriffs auf wissenschaftliche Veröffentlichungen und Lernmaterialien wesentlich: Während diese früher in der Regel nur gedruckt in Bibliotheken oder für die Universitäten und deren Mitgliederinnen und Mitglieder in einem eingeschränkten Intranet zur Verfügung standen, sind jetzt immer häufiger Fachpublikationen und Forschungsdaten sowie Bildungsressourcen frei im Internet zugänglich. In diesem Kapitel werden wir uns zum einen dem Publizieren mit freiem Zugang (engl. ‚open access‘) und zum anderen frei zugänglichen und nutzbaren Bildungsmaterialien (engl. ‚open educational resources‘) widmen.

Offene Lehr- und Forschungsressourcen

Traditionelle wissenschaftliche Publikationen und der Einfluss der Digitalisierung

Damit Forschungsarbeiten diskutiert und zitiert werden können, müssen Wissenschaftler/innen diese veröffentlichen und bestmöglich verbreiten. Veröffentlichungsformen unterscheiden sich je nach Disziplin. So werden in den Geisteswissenschaften häufiger als in anderen Bereichen Sammelbände und Monografien genutzt, im Bauwesen und in der Architektur spielen zum Beispiel Tagungsbände eine zentrale Rolle. Über alle Wissenschaftsfelder hinweg sind jedoch Artikel in Fachzeitschriften die am häufigsten genutzte Veröffentlichungsform (Deutsche Forschungsgemeinschaft, 2005).

Der Grundsatz ‚publish or perish‘

Der Aufbau der modernen Wissenschaften, wie wir sie heute kennen, war von Beginn an mit der Gründung von wissenschaftlichen Fachgesellschaften und wissenschaftlichen Fachzeitschriften verbunden. Die beiden ältesten Zeitschriften, das ‚Journal des sçavans‘ und die ‚Philosophical Transactions of the Royal Society‘, starteten 1665 und erfüllten Funktionen, die bis heute für wissenschaftliche Zeitschriften zentral sind – die Sicherung von Priorität durch möglichst schnelle und breite Veröffentlichung von Forschungsergebnissen und die Sicherung von Qualität, letzteres insbesondere durch sogenannte ‚Peer-Review-Verfahren‘: Peers, also Kolleginnen und Kollegen, begutachten die zur Veröffentlichung eingereichte Beiträge (oft anonym, selten als sogenanntes Open-Peer-Review, siehe dazu exemplarisch die neu gegründeten Open-Access-Fachzeitschriften ‚Journal for Innovation and Quality in Learning‘ (http://innoqual.efquel.org/) und die ‚Interdisziplinäre Zeitschrift für Technologie und Lernen‘ (http://www.itel-journal.org/). Durch Peer Review soll gewährleistet werden, dass nur Artikel verbreitet werden, die wissenschaftlichen Standards genügen. Durch Zitationsanalysen veröffentlichter Artikel soll geprüft werden, wie häufig diese durch andere genutzt werden, welchen ‚Impact‘ (engl. für ‚Einfluss‘) sie haben. Da wissenschaftliche Veröffentlichungen für berufliche Karrierewege und universitäre Mittelvergaben von besonderer Bedeutung sind, ist der Druck insbesondere in den Naturwissenschaften sehr hoch, in sogenannten High-Impact-Zeitschriften zu veröffentlichen. Hier gilt der Grundsatz des ‚publish or perish‘, eine englische Redewendung, die in etwa als ‚veröffentliche oder gehe unter‘ ins Deutsche übertragen werden kann. Die Akzeptanz solcher Maße (vor allem deren Berechnungsgrundlage) wird vielfach kritisiert (siehe aktuell die San Francisco Declaration on Research Assessment, http://am.ascb.org/dora/); zudem muss von verschiedenen Arten von Impact im Sinne von Sichtbarkeit ausgegangen werden, der sich nicht allein an Zitationshäufigkeit bemisst (Mruck& Mey, 2002).

Der traditionelle Publikationsprozess

Der traditionelle Publikationsprozess in Printzeitschriften sieht vor, dass Wissenschaftler/innen Artikel schreiben und bei Zeitschriften, in denen sie sichtbar sein wollen, zur Veröffentlichung einreichen. Die Zeitschriftenredaktionen organisieren dann die Begutachtung, indem sie Gutachter/innen um eine Bewertung des eingereichten Artikels bitten, also um eine Einschätzung darüber, ob ein Artikel zur Veröffentlichung angenommen, durch die Autorinnen und Autoren überarbeitet oder abgelehnt werden sollte. Wenn ein solcher Artikel – teilweise nach mehreren Überarbeitungsrunden – für die Veröffentlichung akzeptiert worden ist, organisiert die Redaktion in der Regel das Lektorat und Korrektorat, also die formale Prüfung und Korrektur des Artikels, und gibt den fertigen Artikel an einen kommerziellen Verlag weiter, der für Druck und Verbreitung der Zeitschrift, in dem der Artikel erscheinen soll, zuständig ist. Mit der Veröffentlichung geben die Autorinnen und Autoren zumeist die Nutzungsrechte an ihrer Arbeit an den Verlag weiter.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Bibliotheken können die Zeitschrift dann für die Nutzung durch ihre Mitglieder (zum Beispiel Angehörige einer Universität) wiedererwerben. In diesem Zusammenhang wird auch von einer Mehrfachsubventionierung wissenschaftlicher Veröffentlichungen gesprochen, weil in der Regel der gesamte Prozess von der Forschung über Erstellung, Bearbeitung und Begutachtung eines Textes bis hin zum Rückkauf durch öffentliche Mittel finanziert wird (Mruck et al., 2004).

Einfluss der digitalen Technologien auf das Publikationsverhalten

Mit dem Internet und der Verbreitung digitaler Technologien begannen Wissenschaftler/innen, sich Artikel per E-Mail zuzuschicken. Schnell folgten, als dies technisch machbar war, die ersten Preprint-Server, über die sie ihre Papiere zugänglich machten, noch bevor sie in Zeitschriften veröffentlicht wurden. Ein solches Verfügbarmachen sollte helfen, den Text unter Kolleginnen und Kollegen – öffentlich – zu diskutieren (und so die Güte beziehungsweise Qualität des Textes zu erhöhen, eine Art ‚Vorläufer‘ des Open-Peer-Review) und zu einer Beschleunigung von Forschung beizutragen. Zudem konnten Prioritätsansprüche, zum Beispiel im Falle von Entdeckungen, frühzeitig kenntlich gemacht werden. Ebenfalls in den Naturwissenschaften starteten die ersten elektronischen Zeitschriften, diese gehören mittlerweile aber zum Angebot fast aller Disziplinen (siehe das Directory of Open Access Journals, http://doaj.org). In elektronischen Zeitschriften können neben Text und Bild zusätzliche Dateiformate (zum Beispiel Audio- und Videodateien oder Primärdaten; letztere gerade auch mit Blick auf bessere Nachvollziehbarkeit und Transparenz des Forschungsprozesses) angeboten werden. Einschränkungen wie die Anzahl der Druckseiten entfallen.

Mit der Entwicklung des Internets und von frei nutzbarer Software (z.B. Open Journal System, OJS, http://pkp.sfu.ca/?q=ojs) eröffnete sich für Wissenschaftler/innen zudem die Option, nicht nur als Autor/in, Redaktionsmitglied, Gutachter/in oder Lektor/in ihre in der Regel durch die öffentliche Hand finanzierte Zeit in die Produktion von Artikeln zu investieren, sondern die Zeitschriften selbst zu betreiben. Zum Beispiel über Mailinglisten können Kollegen und Kolleginnen auf ihre Zeitschrift, neue Artikel usw. aufmerksam gemacht werden. Dies steht im Zeichen der Demokratisierung von Wissenschaft und für die zurückgewonnene Autonomie der Wissenschaftler/innen (‚science back to scientists‘).

Offene Lehr- und Forschungsressourcen

Die Open-Access-Bewegung

Zeitgleich mit der breiteren Nutzung des Internet und seiner Medien begann die sogenannte ‚Zeitschriftenkrise‘ um sich zu greifen: Wissenschaftliche Bibliotheken waren angesichts sinkender Budgets bei gleichzeitig teilweise horrend steigenden Zeitschriftenpreisen immer weniger in der Lage, die Arbeiten ihrer Wissenschaftler/innen zurückzukaufen (siehe http://de.wikipedia.org/wiki/Zeitschriftenkrise für eine kurze Zusammenfassung). Vor genau diesem Hintergrund formierte sich eine international immer stärker werdende Open-Access-Bewegung, in deren Kern die Forderung steht, dass die Ergebnisse öffentlich finanzierter Forschung auch öffentlich zugänglich sein müssen (Mruck et al., 2004). Eine frühe und bis heute zentral wichtige Definition von Open Access lautet:

!

„Open Access meint, dass [...] Literatur kostenfrei und öffentlich im Internet zugänglich sein sollte, so dass Interessierte die Volltexte lesen, herunterladen, kopieren, verteilen, drucken, in ihnen suchen, auf sie verweisen und sie auch sonst auf jede denkbare legale Weise benutzen können, ohne finanzielle, gesetzliche oder technische Barrieren jenseits von denen, die mit dem Internet-Zugang selbst verbunden sind.“ (Open Society Foundation, 2010)

Einige ausgewählte Meilensteine der Open-Access-Bewegung sind:

Um die eigene Arbeit frei zugänglich zu machen, lassen sich zwei Hauptstrategien des Open Access unterscheiden: Bei dem sogenannten goldenen Weg veröffentlichen Wissenschaftler/innen direkt in Open-Access-Zeitschriften, bei dem sogenannten grünen Weg werden digitale Kopien von Artikeln, die kostenpflichtig in Print- beziehungsweise Closed-Access-Zeitschriften veröffentlicht werden, parallel oder nachträglich auf Dokumentenservern zugänglich gemacht, die zum Beispiel von Universitäten oder für Fächer beziehungsweise Fachgruppen betrieben werden (siehe hierzu das ‚Directory of Open Access Repositories‘, http://www.opendoar.org).

In der Praxis: Die Zeitschrift ‚Forum Qualitative Sozialforschung / Forum: Qualitative Social Research‘

Qualitative Forschungsmethoden kommen in unterschiedlichsten Disziplinen zum Einsatz. Als 1999 die Idee entstand, ein Journal zu gründen, das helfen sollte, qualitative Forschung transdisziplinär und international sichtbar zu machen und Wissenschaftler/innen aus aller Welt auf diese Weise zu vernetzen, winkten die Verlage ab – eine elektronische Zeitschrift? Die Wissenschaftler/innen nahmen dies daraufhin selbst in die Hand. Heute ist die Zeitschrift ‚Forum Qualitative Sozialforschung / Forum: Qualitative Social Research‘ (FQS) mit über 18.000 registrierten Leserinnen und Lesern die weltweit größte Ressource für qualitative Forschung.

Artikel werden in Deutsch, Englisch oder Spanisch begutachtet und muttersprachlich lektoriert, Redaktion und Beirat kommen aus 10 Disziplinen und 13 Ländern, alle circa 1.600 bisher veröffentlichten Artikel sind frei online zugänglich (Mruck& Mey, 2008). Eine Analyse zu Zeitschriftenpublikationen zu qualitativer Forschung in der Psychologie zeigt, dass FQS-Veröffentlichungen nicht nur maximal sichtbar sind, sondern sich auch durch eine überdurchschnittlich hohe Qualität auszeichnen (Ilg &Boothe, 2010). Eine weitere Vergleichsstudie begutachteter Zeitschriften zu qualitativer Forschung zeigt, dass FQS Frauen im Vergleich zu herkömmlichen gedruckten Closed-Access-Journalen wesentlich höhere Publikationschancen bietet (Tüür-Fröhlich, 2011). Eine Evaluation unter Lesenden und Autor/innen ergab, dass die, die Erfahrungen mit Open-Access-Publizieren haben, nicht nur Wert auf die erhöhte (weltweite) Sichtbarkeit ihrer Forschungsarbeit legten, sondern auch unmittelbare Resonanz (in Form von Kooperationsangeboten, Einladungen zu weiteren Beiträgen oder zu Konferenzen etc.) erfuhren (Koch et al., 2009). URL: http://www.qualitative-research.net/index.php/fqs

Open Access ermöglicht aufgrund des schnellen und freien Zugangs und der daraus folgenden guten Auffindbarkeit wissenschaftlicher Arbeiten über Suchmaschinen und Nachweisdienste die Verbesserung der Informationsversorgung und das Sichtbarmachen (neuer) Themen (besonders wichtig bei Randthemen; Zawacki-Richter et al., 2010). Insgesamt trägt Open Access wesentlich zur Förderung internationaler und interdisziplinärer Zusammenarbeit und von Forschungseffizienz durch die rasche Diskussion von Forschungsergebnissen bei.

Open Access hat sich zunehmend weltweit organisiert: Seit 2009 gibt es die ‚Open Access Week‘ (http://www.openaccessweek.org/), hervorgegangen aus dem ‚National Day of Action for Open Access‘ in den USA, in deren Rahmen weltweit Veranstaltungen und Diskussionen stattfinden. Seit 2007 werden im deutschsprachigen Raum jährlich die ‚Open-Access-Tage‘ (http://open-access.net/de/aktivitaeten/open_access_tage/) ausgerichtet. Die Plattform open-access.net (http://open-access.net/) bündelt Informationen.

Mittlerweile beschränkt sich die Forderung nach Open Access nicht mehr nur auf wissenschaftliche Fachzeitschriften, sondern es geht zunehmend auch um Open Access zu Monografien, zu Daten und prinzipieller zu kulturellem Erbe (Deutsche UNESCO-Kommission, 2007). Mit einigem Recht kann für einige Länder wie Großbritannien, Holland, aber auch die Bundesrepublik Deutschland gesagt werden, dass Open Access wissenschaftspolitisch mehr und mehr zum herrschenden Paradigma geworden ist: die Hochschulrektorenkonferenz, große Forschungseinrichtungen sowie Fördereinrichtungen wie die Volkswagenstiftung und die Deutsche Forschungsgemeinschaft (DFG) unterstützen Open Access. Letztere treiben die Verbreitung von Informationen über Open Access sowie von Open-Access-Publikationsmodellen aktiv voran, indem sie die freie Verfügbarkeit in ihre Förderrichtlinien aufnehmen oder sich um ein wissenschaftsfreundlicheres Urheberrecht bemühen.

Diese Bemühungen haben zwischenzeitlich auch positive Resonanz bei allen Bundestagsfraktionen gefunden. Und auch zum Beispiel in Österreich und der Schweiz haben die nationalen Fördereinrichtungen Open Access in ihre Richtlinien aufgenommen (siehe http://www.dfg.de/dfg_magazin/forschungspolitik_standpunkte_perspektiven/open_access/ für die DFG, http://www.fwf.ac.at/de/public_relations/oai/ für den österreichischen FWF und http://www.snf.ch/D/Aktuell/Dossiers/Seiten/open-access.aspx für den schweizerischen SNF).

Offene Lehr- und Forschungsressourcen

Bildungsressourcen und der Einfluss von Internet und Digitalisierung

Lehrbücher und gedruckte oder auf andere Weise erstellte schriftliche Lernmaterialien und Lehrunterlagen sind tradierte Bildungsressourcen des Lernens und Lehrens. Lehrmaterialien unterliegen einem starken Wandel, sowohl inhaltlich als auch in ihrer Erstellung, in ihrer Form und ihrem Format (vgl. Ebner & Schön, 2012). Das Internet, insbesondere die Möglichkeiten des Mitmachwebs, führen dazu, dass immer mehr Bildungsressourcen, auch von Lernenden erstellt, im Internet kostenfrei zur Verfügung stehen. Gleichzeitig machen es neue technische Hilfsmittel in den Klassenzimmern, beispielsweise Lehrerlaptops und Beamer, notwendig, dass Lehrmaterialien digitalisiert werden oder digitale Varianten genutzt werden können.

Die neuen Möglichkeiten führen jedoch aus urheberrechtlicher Perspektive zu neuen Herausforderungen und Regelungen: So war Ende 2012 unklar, in welcher Weise und in welchem Umfang die Verwendung digitaler Kopien von Schulbüchern in deutschen Klassenzimmern zukünftig erlaubt sein soll. So eine ‚digitale Kopie‘ ist beispielsweise ein Foto eines Fotos aus einem Lehrbuch, das per Beamer gezeigt wird. Für ältere Schulbücher (vor 2004) ist eine Verwendung digitaler Kopien im Unterricht, auch auszugsweise, weiterhin verboten, für jüngere (ab 2005) auszugsweise erlaubt. Dieses Beispiel ist nur eines für viele unterschiedliche Regelungen, die es im deutschsprachigen Europa beziehungsweise den unterschiedlichen Bildungssektoren gibt und welche häufig unbekannt sind. Gemeinsam ist ihnen, dass es in aller Regel nicht gestattet und ein Verstoß gegen das Urheberrecht ist, Materialien aus dem Web, beispielsweise hilfreiche Bilder oder Arbeitsblätter, für den Unterricht zu nutzen.

Offene Lehr- und Forschungsressourcen

Open Educational Resources: Frei verwendbare Lern- und Lehrmaterialien

Auch wenn viele Materialien kostenfrei verfügbar sind, bedeutet es also nicht, dass sie ohne Weiteres auch für den Unterricht verwendet werden können. Sogenannte ‚offene‘ Bildungsressourcen, die eben auch ausdrücklich zur Nutzung freigeben wurden, werden auch in der deutschsprachigen Diskussion häufig als ‚Open Educational Resources‘ oder kurz ‚OER‘ bezeichnet.

‚Offen‘ heißt vor allem ‚offen lizenziert‘

Sogenannte ‚offene‘ Web-Materialien zeichnen sich nicht allein dadurch aus, dass sie frei im Web zu finden sind, sondern dass ihre Verwendung für das Lernen, den Unterricht, die Lehre und Seminare dezidiert durch die Urheber/innen erlaubt ist. Dazu ergänzen einige Urheber/innen ihre Web-Materialien um entsprechende Formulierungen (‚für den Unterricht nutzbar‘). Eindeutig geregelt ist die Nutzung der Materialien jedoch nur dann, wenn Lizenzen verwendet werden. Es liegen unterschiedliche Lizenzmodelle vor, die es ermöglichen, eindeutig zu regeln, unter welchen Voraussetzungen Bildungsressourcen oder auch andere Materialien weiterverwendet werden dürfen. Im deutschsprachigen Raum ist der Einsatz der ‚Creative-Commons-Lizenzen‘ verbreitet. Dabei stehen Lizenzformulierungen für viele europäische Länder zur Verfügung, die von Juristinnen und Juristen geprüft wurden, aber auch in einfacher, klarer Sprache Rechte von Autorinnen und Autoren sowie Benutzerinnen und Benutzern beschreiben. Urheber/innen können mit diesen Creative-Commons-Lizenzen beispielsweise festlegen, ob (a) der Name des Urhebers bzw. der Urheberin genannt werden muss, ob (b) das Werk modifiziert werden darf oder ob (c) alle Werke, die auf den Inhalten aufbauen, unter der gleichen Lizenz veröffentlich werden müssen (als ‚Copyleft‘ bezeichnet). In einigen Sammlungen von OER werden entsprechende Lizenzierungen als Standard vorgegeben, das heißt Nutzer/innen müssen ihre Materialien unter einer solchen liberalen Lizenz veröffentlichen.

!

Dieses Kapitel ist wie alle Materialien von L3T unter der Lizenz CC BY-SA zur Verfügung gestellt, das heißt, alles kann, gerne auch modifiziert, verwendet und wiederveröffentlicht werden, wobei neue Materialien, beispielsweise Lehrunterlagen, wieder unter der gleichen Lizenz veröffentlicht werden müssen (SA steht für ‚sharealike‘) und die Urheber/innen genannt werden müssen.

OER-Angebote

Die Angebote von offenen Bildungsressourcen sind zahlreich und vielfältig, und es ist schwierig und herausfordernd, sich einen Überblick über sie zu verschaffen. Für deutschsprachige Lernmaterialien ist beispielsweise für den Schulsektor das ZUM-Wiki (wiki.zum.de) ein guter Start, bei dem dank der Wiki-Technik auch gleich mitgearbeitet werden kann. Der Service Edutags.de und das OER-Wiki (oer.tugraz.at) stellen Versuche dar, einen Einstieg und Überblick über deutschsprachige Materialien zu verschaffen, zahlreiche fachbezogene Angebote versuchen dies für ihre jeweilige Disziplin. Suchmaschinen und Suchfunktionen bei Portalen für Videos oder Fotos erlauben häufig eine eingeschränkte Suche nach Materialien, die mit entsprechen Lizenzen (in der Regel Creative Commons) versehen wurden. Ein guter Start für Recherchen von OER stellt das Angebot Wikieducator.org dar, bei ihm dreht sich vieles um OER selbst, beispielsweise gibt es dort auch Tutorials zu OER.

Meilensteine der OER-Bewegung

Die OER-Bewegung formierte sich Anfang des 21. Jahrhunderts unabhängig von der Open-Access-Bewegung und Open-Source-Entwicklung, wurde aber wohl von deren Erfolgen beeinflusst. Zunächst stand dabei vor allem die Verfügbarmachung von Materialien im Internet im Vordergrund, so entstand 1996 die Zentrale für Unterrichtsmedien im Internet (ZUM.de). Auch gab es zunächst mehrere Bezeichnungen für frei verwendbare Bildungsmaterialien, beispielsweise auch ‚open educationalcontent‘ oder auch ‚freeeducationalcontent‘. Während wir OER in diesem Beitrag einführend als Lösung von urheberrechtlichen Herausforderungen dargestellt haben, dreht sich das Hauptmotiv dabei vor allem um die Erreichbarmachung und den freien Zugang zu Bildung. Ausgewählte Meilensteine der Open-Educational-Resources-Bewegung sind:

Als ausgewählte Höhepunkte aus dem deutschsprachigen Raum können unter anderem die Durchführung der ersten OER-Konferenz im deutschsprachigen Europa (2007 in Salzburg), die Gründung der Arbeitsgruppe OER bei Eduhub in der Schweiz und der erste deutschsprachige offene Onlinekurs zu OER – mit mehr als 1.000 Lernenden – betrachtet werden (COER13.de). Ende Juli 2013 wurde das erste komplette deutschsprachige OER-Schulbuch (im Fach Biologie) veröffentlicht. Bildungspolitisch zu ergänzen ist, dass es in einigen Bildungsministerien Anhörungen zu OER gab und OER erstmals in Parteiprogrammen auftauchen (Stand: Mitte 2013).

Argumente für offene Bildungsressourcen

Argumente, die für die Einführung von OER sprechen, sind (Geser, 2007): OER ermöglichen potenziell einfacheren und kostengünstigeren Zugang zu Ressourcen, die einigen Lernenden sonst nicht zugänglich wären. Auch werden Steuergelder rentabler eingesetzt, da Ressourcen wiederverwendet werden können. Auch für Lehrende werden Möglichkeiten der effektiveren Erstellung von Materialien beziehungsweise Gestaltung des Unterrichts als Vorteile genannt. Oft steht dabei auch die Kooperation und Kollaboration von Lehrenden und Lernenden im Vordergrund, beispielsweise bei der Open University im Vereinigten Königreich (Lane, 2008). Hochschulen wie das Massachusetts Institute of Technology, die OER-Strategien einführen, führen darüber beispielsweise auch offen Argumente wie die Möglichkeit positiver Public Relations oder Neukundengewinnung an (Schaffert, 2010).

?

Es gibt mehrere englischsprachige, aber auch deutschsprachige Hinweise, wie man OER findet, erstellt oder aus existierenden Materialien eigene Remixes generiert. Unter folgendem Link finden Sie Informationen, Anleitungen, Ressourcen sowie einsetzbare Module: http://l3t.oncampus.de/

?

Für Fortgeschrittene ist folgende Aufgabe: Bitte stellen Sie für Lernende und Lehrende Ihres Fachgebiets hilfreiche Hinweise zur Recherche nach OER, beispielsweise Sammlungen, und zum Erstellen und Veröffentlichen zusammen. Dazu können Sie natürlich auf die zur Verfügung gestellten Materialien zurückgreifen, achten Sie aber bitte auf die Lizenzbedingungen.Bitte teilen Sie Ihre Ergebnisse bei diigo unter #aufgabe

Offene Lehr- und Forschungsressourcen

Offenheit von Lehr- und Forschungsressourcen: nur ein Trend oder ein neues Paradigma?

Dieser Beitrag befasst sich mit Open Access und mit Open Educational Resources, weil frei zugängliche Quellen, Veröffentlichungen und Daten nicht nur neue Impulse und Möglichkeiten der Zusammenarbeit für die Forschung bedeuten, sondern auch neue Lehr- und Lernaktivitäten ermöglichen. Dabei geht die OER-Bewegung – was die Wiederverwendung und Modifikation von Materialien angeht –noch über die auf stabile und zitationsfähige Dokumentversionen angewiesene Position des freien Zugangs zu Veröffentlichungen hinaus.

Der freie Zugang zu Veröffentlichungen hat sich in der Wissenschaft zunehmend etabliert und ist wissenschaftspolitisch international zum leitenden Paradigma geworden. Vermehrt werden in diesem Zusammenhang auch Fragen der freien Verfügbarmachung und Wiederverwendung von Forschungsdaten und Möglichkeiten offener Begutachtungsverfahren diskutiert. Für OER hat über die bloße Bereitstellung und Verfügbarkeit von Materialien hinaus die Forderung nach ‚offenen Lern- und Lehrmethoden‘ (siehe. Kapitel #offeneslernen) eine zentrale Bedeutung gewonnen, bei der die Lernsteuerung und/oder die Zielsetzung des Lernens in die Hand der Lernenden gelegt werden soll. Hier sind die seit 2012 initiierten ‚offenen Online-Kurse‘ ein Hinweis dafür, dass ‚Offenheit‘ beginnt, Teil der Alltagspraxis von Lehrenden und Lernenden zu werden: Zwar bezieht sich das Attribut ‚offen‘ hier im Regelfall nur auf einen Zugang ohne Beschränkungen, das heißt, die Kurse sind kostenfrei und ohne Voraussetzungen (wie etwa die Hochschulreife), aber zumeist nicht als OER verfügbar. „Offene Bildungsinitiativen“ an den Universitäten versuchen jedoch grundsätzlicher, in studentischen Projekten Beteiligungs- und Innovationsprozesse zu initiieren, indem Studierende zu „aktiven Gestaltern ihres Lernraums werden“ (Dürnberger, Hofhues & Sporer, 2011, 7).

Über den freien Zugang zu Materialien und damit verbunden eine bessere Transparenz und Anschlussfähigkeit hinaus eröffnet das Internet mit seinen Medien insoweit zunehmend Beteiligungs- und Gestaltungsmöglichkeiten (Waldrop, 2008) und eine ganze Reihe an „‘Öffnungen‘ und Erweiterungen des tradierten Lernens, Lehrens und Forschens, die prinzipiell einer Demokratisierung von Wissenschaftzugute kommen.

Abb. 1: Offenheit scheint an vielen Stellen auf Interesse zu stoßen
Abb. 1: Offenheit scheint an vielen Stellen auf Interesse zu stoßen
Offene Lehr- und Forschungsressourcen

Literatur

Lernen mit Videokonferenzen

Szenarien, Anwendungen und Praxistipps

Ziel des Kapitels ist es, Ihnen einen Einblick in die Thematik des Lernens in Videokonferenzen zu geben. Sie erfahren, wann Videokonferenzen besonders sinnvoll für das Lernen eingesetzt werden können, welche Lern- und Kommunikationsprozesse dabei ablaufen und wie sich das Lernen in Videokonferenzen unterstützen lässt. Im Kapitel werden Szenarien von Videokonferenzen im Kontext des Lernens und Lehrens vorgestellt, und es wird erläutert, welchen spezifischen Beitrag Videokonferenzen zu diesen Szenarien leisten. Dabei liegt der Schwerpunkt auf Desktop-Videokonferenzen, in denen zwei oder mehr Individuen kooperativ lernen. Auf dieser Grundlage analysiert das Kapitel Lern- und Kommunikationsprozesse in Videokonferenzen. Das Kapitel schließt mit einem Übungsbeispiel für gemeinsames Lernen und Arbeiten in Videokonferenzen, Entscheidungshilfen für die Auswahl von geeigneten Videokonferenztechnologien und Leitfäden für eine gelungene Vorbereitung von Videokonferenzen.

Lernen mit Videokonferenzen

Entwicklung von Videokonferenzen

Seit der Verbreitung des Telefons gab es immer wieder die Vision und den Wunsch, das Gegenüber nicht nur zu hören, sondern auch zu sehen. Bereits in der 30er Jahren des letzten Jahrhunderts gab es mit der Einführung der Fernsehsprechzelle erste Versuche, Bild- und Tonübertragungen vorzunehmen, die dann in den späten 1960er Jahren mit der Einführung des Picturephones fortgeführt wurden – wirklich erfolgreich waren beide Ansätze nicht. Erst mit der Verbreitung des Internets Ende der 1990er Jahre erlebt die Videokonferenz einen neuen Aufschwung – insbesondere seitdem die Übertragung von Bild und Ton auch über die Web-Standards möglich geworden ist und ausreichend Bandbreiten zur Verfügung stehen (Flessner, 2000).

!

„Eine Videokonferenz ist eine Besprechung mehrerer Personen an unterschiedlichen Orten, die per Videokamera oder Webcam und Datenleitungen mit hoher Bandbreite, beispielsweise über das Internet, übertragen wird, wobei sich alle Teilnehmenden über Monitor sowie Sprachein- und -ausgabegeräte sehen und hören können.“ (Definition von „Videokonferenz“ im Glossar von e-teaching.org)

Lernen mit Videokonferenzen

Szenarien des Lernens in Videokonferenzen

Betrachtet man Lernszenarien in Videokonferenzen, dann stellt sich die Frage, inwieweit sich diese vom Lernen Face-to-Face (das heißt, Lernende und Lehrende befinden sich an einem gemeinsamen Ort) oder von anderen Formen des E-Learnings unterscheiden. Diese Frage lässt sich sowohl auf einer technischen als auch auf einer didaktischen Ebene beantworten. Technisch fokussiert diese Frage auf Aspekte wie den Aufwand, mit dem sich Lernen in Videokonferenzen realisieren lässt, und wie einfach der Zugang der Lernenden zu solchen Lernszenarien ist. Die Beantwortung dieser Frage ist von der verwendeten Infrastruktur abhängig und kann daher erst in der konkreten Anwendung berücksichtigt werden (Hinweise dazu finden Sie am Ende des Kapitels). An dieser Stelle liegt der Fokus auf dem didaktischen Aspekt, das heißt, wie sich charakteristische Eigenschaften von Videokonferenzen so einsetzen lassen, dass die Lernenden davon besonders profitieren: Synchrone sprachliche Kommunikation, durch die elaborierte Erklärungen und interaktive Diskussionen ermöglicht werden, und Application-Sharing, wodurch die Lernenden gleichzeitig auf einen gemeinsam sichtbaren Arbeitsbereich zugreifen können. Dadurch eignen sich Videokonferenzen besonders für kooperative Lernszenarien, die von interaktiver Kommunikation wie Tutoring oder Coaching profitieren, und für Szenarien, die eine gemeinsame Lösungs- oder Entscheidungsfindung beinhalten. Aspekte beider Szenarien sollen im Folgenden kurz charakterisiert werden:

Tutoring- und Coaching-Szenarien zeichnen sich durch unterschiedlich hohe Expertise der Teilnehmer/innen aus. Dabei leitet eine Person mit hoher Expertise eine oder mehrere Personen mit geringerer Expertise über Videokonferenz an. Der besondere Beitrag der Videokonferenz in solchen Situationen besteht in der Möglichkeit, zusätzliche Anwendungen oder Werkzeuge in den Lernprozess zu integrieren und dadurch gemeinsame Referenzpunkte zu schaffen (Ertl, 2007).

Bei der kooperativen Lösungs- oder Entscheidungsfindung diskutieren Lernende mit vergleichbarer Expertise gemeinsam Fragestellungen oder erarbeiten gemeinsam eine Problemlösung. Hier stehen die gemeinsame Diskussion und Problemreflexion im Vordergrund. Der spezifische Beitrag der Videokonferenz besteht in solchen Szenarien aus dem Bereitstellen eines hoch interaktiven Kommunikationsmediums und gemeinsamer Arbeitsdokumente für die Lerngruppe (Paechter, Kreisler & Maier, 2010).

Weitere didaktische Szenarien können Vorlesungen über Videokonferenzen umfassen. Die Übertragung von Vorlesungen erfolgt in speziellen, technisch entsprechend ausgestatteten Hörsälen. Interaktive Whiteboards (die technisierte Form der Wandtafel), spezielle Softwareprogramme und eine ausreichend hohe Übertragungsrate der Netzwerke sind dafür hilfreich. Die Lerninhalte werden zudem meist archiviert. Vorlesungen werden aufgezeichnet und ins Netz gestellt oder Dozierende erstellen Präsentationen ausschließlich für das Netz (vgl. VCC, siehe Literaturverzeichnis). Ergänzend dazu gibt es Ansätze, dass sich die einzelnen Teilnehmer/innen vom eigenen Computer aus an einem Videokonferenz-Seminar beteiligen; Gestaltungsvorschläge für das Design solcher Seminare und konkrete Anforderungen an Tutorinnen und Tutoren von Videokonferenz-Seminaren finden sich unter anderem bei Keller (2009). Er beschreibt auch Spezifika der Seminarsituation Videokonferenz. Insgesamt ist die Kommunikation beim Lernen mit Hilfe von Videokonferenzen der Face-to-Face-Kommunikation eher ähnlich; dennoch gibt es Unterschiede. Diese sollen im Folgenden näher betrachtet werden.

Lernen mit Videokonferenzen

Kommunikation in Videokonferenzen

Kommunikation kann man als einen fortlaufenden Prozess der gemeinsamen Verständigung von zwei oder mehreren Personen beschreiben (Clark & Brennan, 1996), in dem unterschiedliche Ziele erfüllt werden: Personen entwickeln zum Beispiel einen Eindruck voneinander, tauschen sachbezogene oder emotionale Information aus, koordinieren Arbeitstätigkeiten. Man kann Kommunikation als gemeinsames Handeln beschreiben, in dem die Kommunikationspartner/innen die Gesprächsinhalte und den Gesprächsverlauf koordinieren. Sie versuchen kontinuierlich, eine gemeinsame Verständigungsbasis, einen „Common Ground“, zu gewährleisten (Clark & Brennan, 1996). Dazu müssen sie sich an die Besonderheiten des jeweils verwendeten Kommunikationsmediums (zum Beispiel Telefon, E-Mail, Videokonferenz) anpassen, sofern ein solches zum Einsatz kommt.

Kommunikation in einer Videokonferenz und Face-to-Face-Kommunikation haben zunächst einige Gemeinsamkeiten: Sichtbarkeit, Hörbarkeit, Synchronizität (das heißt, ein Beitrag wird zur selben Zeit produziert, zu der er von den Kommunikationspartnerinnen und -partnern empfangen wird; dies trifft zum Beispiel auf E-Mail nicht zu), Sequenzialität (das heißt, es bleibt die von den Sprechenden intendierte Abfolge der Beiträge erhalten; dies trifft zum Beispiel auf Chats nicht zu, in denen auch gleichzeitig „geredet“ werden kann). Dennoch unterscheidet sich die Videokonferenz- von der Face-to-Face-Kommunikation: So fehlt die Kopräsenz, da sich die Kommunikationspartner/innen nicht denselben Raum teilen. Gerade dieses Merkmal ist jedoch wesentlich für das Erfahren von emotionaler Nähe und sozialer Präsenz. Videokonferenzen schränken zudem die Sichtbarkeit von Personen ein, wenn zum Beispiel in Desktop-Videokonferenzen nur ein Porträtausschnitt der Kommunikationspartner/innen auf dem Monitor angezeigt wird. Eine wesentliche Einschränkung der Sichtbarkeit betrifft die fehlende Möglichkeit, Blickkontakt herzustellen. Damit fehlt ein wichtiges Mittel für die non-verbale Koordination der Abfolge von Gesprächsbeiträgen (Paechter, Kreisler & Maier, 2010).

Diese Besonderheiten machen es notwendig, dass die Kommunikationspartner/innen ihr Verhalten an das Setting „Videokonferenz“ anpassen. Dazu ein Beispiel: In einer Studie von Paechter, Kreisler und Maier (2010) wurden über mehrere Teamtreffen hinweg die Kommunikation und die Leistung von Gruppen in Videokonferenz- und Face-to-Face-Kommunikation untersucht. Achtundvierzig Teams zu je vier Personen trafen sich dreimal entweder Face-to-Face oder in einer Videokonferenz und bearbeiteten komplexe Aufgaben. Alle Gruppenmitglieder sollten ihr Wissen austauschen, einen gemeinsamen Lösungsvorschlag entwickeln und sich auf diesen Vorschlag einigen. Bei der Analyse der Leistung zeigten sich keine Unterschiede zwischen den Videokonferenz- und den Face-to-Face-Gruppen. Allerdings kommunizierten die Gruppenmitglieder in den beiden Settings unterschiedlich: Videokonferenzteams verbalisierten wesentlich häufiger die Koordination der gemeinsamen Arbeit und die Ausführung der Aufgaben. Sie machten häufiger Äußerungen dazu, welches Gruppenmitglied eine (Teil-)Aufgabe durchführt, über welches Wissen oder über welche zeitlichen Ressourcen bestimmte Gruppenmitglieder verfügen. Dieses Ergebnis kann dadurch erklärt werden, dass in der Videokonferenz Mittel zur Gesprächskoordination, wie der Blickkontakt, nicht zur Verfügung stehen, und eine verbale Rückversicherung über das gemeinsame Verständnis erforderlich ist.

Die Bedeutung der Koordination in Videokonferenzen wird durch weitere Studien bestätigt: In einer Studie von Paechter, Maier und Macher (2010) wurde ein Training für das gemeinsame Arbeiten in Videokonferenzen entwickelt und untersucht. Arbeitsgruppen lernten, die Koordination der gemeinsamen Arbeit explizit zu verbalisieren, aufgabenbezogene Informationen im Gespräch wieder aufzugreifen und mit der Aufgabe in Bezug zu setzen. In einer empirischen Untersuchung wurden Gruppen, die dieses Training erhalten hatten, mit Gruppen verglichen, die kein Training erhalten hatten. Es zeigte sich, dass die Trainingsgruppen bessere Leistungen bei der Aufgabenbearbeitung erzielten.

Lernen mit Videokonferenzen

Unterstützung des Lernens in Videokonferenzen

Auch wenn sich durch gezielte Trainings die Kommunikation in Videokonferenzen verbessern lässt, bleibt die Frage offen, inwieweit die Kooperationspartner/innen über die notwendigen Fähigkeiten zur erfolgreichen Bearbeitung kooperativer Lernaufgaben verfügen. Da dies oft nicht in ausreichendem Maße der Fall ist, ist didaktische Unterstützung für das Lernen in Videokonferenzen notwendig. Es lassen sich verschiedene Arten der didaktischen Unterstützung des Lernens in Videokonferenzen klassifizieren, deren Anwendung entweder vor oder während der Videokonferenz stattfindet und deren Fokus auf der Verbesserung der Kooperation oder auf der Unterstützung der Inhaltsbearbeitung liegt.

Unterstützungsmöglichkeiten vor der Kooperation zielen darauf ab, die Lernenden besser auf die Kooperation in der Videokonferenz vorzubereiten. Hierunter fallen die schon beschriebenen Trainings für den Umgang mit der spezifischen Kommunikationssituation „Videokonferenz“, Kooperationstrainings und das Zirkulieren von Agenden oder von Unterlagen zur individuellen inhaltlichen Vorbereitung (siehe dazu auch den Teil „Leitfäden für erfolgreiche Videokonferenzen“).

Während der Kooperation kann die Unterstützung durch kooperationsspezifische und inhaltliche Strukturvorgaben umgesetzt werden. Kooperationsspezifische Unterstützung unterteilt den Kooperationsprozess in spezifische Phasen, die unterschiedliche Aspekte der Aufgabenbearbeitung hervorheben. So lassen sich zum Beispiel der Austausch von Informationen, das Sammeln von Aspekten und die Diskussion der Lösung fokussieren (siehe auch das Anwendungsbeispiel am Ende des Kapitels). Auf inhaltlicher Ebene können Wissensschemata und Mapping-Methoden die Teilnehmenden auf spezifische Inhaltsbereiche aufmerksam machen und Zusammenhänge visualisieren. Studien haben gezeigt, dass Lernende von einer Kombination beider Unterstützungsmethoden am meisten profitieren (Ertl et al., 2006).

Fokus
Inhalt
Inhalt vor der Kooperation Agenden
während der Kooperation Wissensschemata Kooperationsskripts

Tab. 1: Unterstützungsmöglichkeiten für Lernen und Kooperation in Videokonferenzen

In der nun folgenden Übungsaufgabe werden Sie die Gelegenheit haben, die Methoden des Kooperationsskripts und des Wissensschemas selbst in einer Videokonferenz zu erproben.

Lernen mit Videokonferenzen

Anwendung von Videokonferenzen

Es gibt eine Vielzahl an frei und kostenlos verfügbaren sowie kommerziellen, internetbasierten Anwendungen und Software für die Einrichtung einer Videokonferenz, mit und ohne Application-Sharing-Funktionalität. Auch die gängigen Instant-Messaging-Anwendungen bieten zusätzlich zur Chat-Funktion häufig die Möglichkeit zur Kommunikation über einen Audio- und Videokanal.

?

In diesem Abschnitt werden Sie eine Videokonferenz einrichten und in einem Lernkontext anwenden. Auf Basis der eigenen Erfahrungen reflektieren Sie dabei den Einsatz dieser Technologie und die didaktischen Implikationen, die sich daraus ergeben.

Hinweise zur Technologieentscheidung

Videokonferenz-Endgeräte können in Desktopsysteme, Kompaktsysteme oder Raumsysteme klassifiziert werden. Sie unterscheiden sich hinsichtlich Leistungsspektrum und Einsatzgebiet.

Bei einer Point-to-Point-Desktop-Videokonferenz werden Bild und Ton von einem PC auf einen anderen übertragen. Dazu benötigt man eine Videokamera oder Webcam und ein Mikrofon. Die Verbindung kann über Internet oder mindestens zwei ISDN-Telefonleitungen hergestellt werden.

Wenn mehrere Personen gleichzeitig miteinander verbunden sind, spricht man von einer Multipoint-Desktop-Konferenz. Für die Organisation einer solchen Konferenz werden eine Multipoint-Control-Unit (MCU) oder ein Videokonferenz-Server benötigt. Diese verbinden drei und mehr PC-Arbeitsplätze gleichzeitig. In der Regel nutzen ISDN-basierte MCUs den international etablierten Videokonferenzstandard H.320 oder wenn es sich um eine IP-basierte Übertragung handelt, wird das Protokoll H.323 verwendet. Die Basisfunktion von H.323 bzw. H.320 ist die Übertragung von Audio, Video und Daten von einem Standort zum anderen.

Für den Einsatz von Videokonferenzen in großen Räumen, zum Beispiel um eine Vortragende oder einen Vortragenden aus Übersee in die Vorlesung per Videokonferenzübertragung einzuladen, empfiehlt sich die Anschaffung von eigens dafür konzipierten Raumsystemen. Dazu gehören eine hochwertige Kamera, ein Beamer für die Projektion des Bildes auf eine größere Fläche, eventuell eine Dokumentenkamera sowie ein PC. Üblicherweise sind Raumsysteme fix installiert.

Schließlich gibt es auch portable Systeme. Laptops und Netbooks verfügen heute standardmäßig über Webcams. Auch die mobile Telefonie bietet Geräte, in die Webcams integriert sind. Webportale, die Schnittstellen zu mobilen Endgeräten wie Handys, Smartphones und Handheld-Geräten anbieten, ermöglichen unabhängig von Zeit und Ort die audio-visuelle Kommunikation zwischen Personen und damit kooperatives Lernen.

In der Praxis: Leitfäden für erfolgreiche Videokonferenzen

Im folgenden Abschnitt werden praxisnahe Ratschläge für den Einsatz von Videokonferenzsystemen in der alltäglichen Lern- sowie Lehrpraxis angeführt. Die Verwendung der Videokonferenztechnologie bringt in der Regel einen gewissen Mehraufwand für die Lehrenden mit sich. Dieser wird jedoch mit einer Bereicherung der Lernerfahrung sowie erhöhtem Motivationspotenzial der Lernenden belohnt. Die nachfolgenden praxisorientierten Empfehlungen gliedern sich in unterschiedliche Punkte und sollen als Anleitung oder als Checkliste für eine effektive Nutzung dienen (vgl. Gyorke, 2006; publicare; Rakoczi et al., 2010; Salmon, 2010).

Technologie

Im Rahmen der Technologieentscheidung sind plattformunabhängige Lösungen zu präferieren, um optimale Konnektivität der unterschiedlichen (Betriebs-)Systeme gewähren zu können. Weiter ist die Bandbreite der Netzwerkverbindung zu beachten, da die Übertragung von Videokanälen mitunter sehr datenintensiv ausfallen kann. Bei der Internetverbindung sollte der Kabelzugang gegenüber dem Einstieg über WLAN bevorzugt werden, da dieser in der Regel stabilere Übertragungen garantiert. Es ist auf eine optimale Belichtung beim Videobild zu achten, um bestmögliche Videoqualität zu ermöglichen. Den Lernenden sollten für das Üben im Vorhinein Testzugänge zur Verfügung gestellt werden. In diesem Zusammenhang ist es sinnvoll, für ungeübte Teilnehmerinnen und Teilnehmer kurze Anleitungen oder Checklisten anzufertigen.

Tipps für die didaktische Organisation

Lehrende sollten auf ihre Zielgruppe achten und überlegen, in welcher Form Videokonferenzen optimal eingesetzt werden können (als Präsentationstool, als diskursives Werkzeug etc.). Zahlreiche Videokonferenzlösungen bieten erweiterte (in das System integrierte) Kommunikationswerkzeuge (Whiteboards, Chat, File-Sharing) an – diese können für erweiterte didaktische Aktivitäten genutzt werden. Lehrende sollten die Beteiligung fördern und belohnen, zum Beispiel mit einem Preis für die aktivsten Teilnehmer/innen. Lehrende sollten auch den Perspektivenwechsel einplanen, indem sie Lernende durch Vergabe von Moderationsrechten als Lehrende einsetzen! Es sind etwaige Hemmschwellen der Teilnehmer/innen zu beachten – erste Konferenzsitzungen sollten daher im universitären Rahmen (Campus) durchgeführt werden, und es sollte erst im Anschluss eine Mitwirkung von unterschiedlichen Settings aus ermöglicht werden (zu Hause, Büro, unterwegs).

Kommunikation

Ganz besonders ist die Bedeutung von definierten Kommunikationsregeln zu betonen. Ein rechtzeitiger Hinweis auf etwaige Netiquette-Regeln ist zu empfehlen. Bei der Bildübertragung sollte auf die Körpersprache geachtet werden – die Lehrenden sollen ihren Blick direkt in die Kamera richten und sich dem Zweck entsprechend kleiden! Untersuchungen zeigen zudem, dass die Begeisterung der Lehrenden wichtig ist, um Lernende zu motivieren (Paechter, Maier & Macher, 2010). Auch dies wird über die Körpersprache vermittelt! Wesentlich ist, dass gegen Ende einer Videokonferenzsitzung die besprochenen Inhalte zusammengefasst werden und den Teilnehmenden Feedback gegeben wird. Bei Konferenzen auf dem Campus sind persönlich und unmittelbar nach der Sitzung durchgeführte Treffen mit den Lernenden überaus hilfreich. Essenziell ist im Rahmen der Kommunikation, dass fortlaufend auf Verständlichkeit geachtet wird – daher sollten wesentliche Aussagen der Konferenz wiederholt werden! Körperbewegungen sollten stets langsam ausgeführt werden, da schnelle Bewegungen ruckartige Artefakte im Videobild erzeugen können.

Zeitmanagement

Videokonferenzen sind anspruchsvoll und ermüdend – Moderatorinnen und Moderatoren sollten daher regelmäßig Pausen einplanen! Gegebenenfalls ist zudem zu Beginn der Sitzungen Zeit für die Einrichtung der technischen Infrastruktur vorzusehen. In der Einleitung sollte stets eine kurze zeitliche Strukturierung bekanntgegeben und auf ihre Einhaltung geachtet werden. Abschließend sei darauf verwiesen, dass eine klare Adressierung der Kommunikationsteilnehmer/innen Zeit spart!

Technische Anforderungen und Umsetzungen

Für erfolgreiche Videokonferenzen werden höchste Anforderungen an die Netzanbindung und die Datenübertragung gelegt. Die für Videokonferenzen benötigte Bandbreite beginnt bei 128 kbps für eine geringe Videoqualität und endet bei 4 Mbps. Üblicherweise werden Bandbreiten zwischen 384 und 1920 kbps benutzt, welche für eine gute bis sehr gute Videoqualität ausreichen.

Die zur Übertragung eingesetzten Videokomprimierungen (H.263, H.264) sind sehr effektiv und werden sowohl für ruhende Teile als auch für den Bewegtanteil im Video genutzt. Nicht nur um sicherzustellen, dass ausreichend Bandbereite gewährleistet ist, ist unbedingt die IT-Abteilung bei der Auswahl und Installation der VC-Anlage einzubinden. Mit dieser ist auch zu klären, wie Sicherheitsfragen und Integration in die Firewall gelöst werden können, da das H.323-Protokoll nicht von allen Firewalls unterstützt wird.

Optimal ist es, wenn alle Konferenzteilnehmer/innen das gleiche System verwenden. Bei der Auswahl ist jedenfalls darauf zu achten, welche Kompatibilitäten die Hersteller/innen für das jeweilige Produkt garantieren.

Die Auswahl einer Video- oder Webkonferenz-Anwendung für den Einsatz in einem Lehr-Lernkontext muss mit den spezifischen didaktischen Zielsetzungen abgestimmt werden und ist zusätzlich von technischen und organisatorischen Rahmenbedingungen abhängig. Insbesondere ist bei der Auswahl von Videokonferenz-Equipment (Hard- und Software) neben der Abklärung, wie viel Budget zur Verfügung steht, zu klären, ob und in welcher Qualität die Rahmenbedingungen für eine erfolgreiche Videokonferenz vorhanden sind oder geschaffen werden müssen.

!

Tools in der Praxis

Beispiele für Werkzeuge, mit denen sich Videokonferenzen abhalten lassen, sind unter anderem: kommerzielle webbasierte Konferenzsysteme:

Kostenlose webbasierte Konferenzsystem:

Video- und Webkonferenz-Software erfordert in der Regel die Installation eines Programms auf dem Computer. Es gibt jedoch auch Online-Applikationen, bei denen lediglich die Anmeldung und Einrichtung eines Accounts erforderlich ist. Die Ausstattung des Computers mit einer Webcam und Lautsprecher/Mikrofon (Headset) ist in jedem Fall erforderlich; Breitbandinternetverbindung wird empfohlen.

Lernen mit Videokonferenzen

Fazit

Videokonferenzen sind eine vielversprechende Möglichkeit, kooperativ und hoch interaktiv über Entfernungen hinweg zu lernen. Allerdings, auch wenn Videokonferenzen der Face-to-Face Kommunikation sehr ähnlich sind, gibt es Unterschiede in den Kommunikations- und Kooperationsprozessen. Deswegen, und auch weil den Lernenden oft wichtige Fertigkeiten zur Kooperation fehlen, kann didaktische Unterstützung in Videokonferenzen hilfreich
sein, zum Beispiel durch Skripts und Wissensschemata. Für den Einsatz von Videokonferenzen
beim Lernen gilt es, neben den pädagogischen Aspekten, technische, organisatorische und finanzielle
Rahmenbedingungen zu beachten, um die Videokonferenz für alle Beteiligten erfolgreich zu gestalten.

!

Die häufigsten Fehler, die bei Videokonferenzen auftreten können, werden im Video der University of Washington "The Videoconferencing Zone" auf humorvolle Weise dargestellt. Verfügbar auf

http://youtu.be/ccMZ_NWhkf4

?

Wir haben Ihnen eine umfangreiche Übungsaufgabe (für zwei Personen) vorbereitet, die Ihnen die Möglichkeit gibt, Ihre Kompetenz im Umgang mit Web- und Videokonferenzen praktisch zu entwickeln und zu reflektieren. Die Übungsaufgabe ist als ZIP-Datei unter http://l3t.eu bei diesem Kapitel zugänglich (#videokonferenz). Sollten Sie keine Kooperationspartnerin oder keinen Kooperationspartner finden oder sollten technische Probleme die Einrichtung der Videokonferenz verhindern, können Sie die Aufgabenstellung auch eigenständig bearbeiten.

Lernen mit Videokonferenzen

Literatur

Simulationen und simulierte Welten

Lernen in immersiven Lernumgebungen

Wir lernen gut und gerne in unserer natürlichen Umgebung, denn dort können wir miteinander

interagieren, unseren Handlungen folgen, meist klare Konsequenzen ziehen und wir finden uns darin

wieder. Doch wie lernt man mit Dingen umzugehen, die unsichtbar sind? Wie werden Szenarien trainiert, in denen Fehlverhalten mit gesundheitlichen Schäden oder schlimmstenfalls dem eigenen Tod beziehungsweise dem Tod anderer Menschen einhergeht? Wie wird das richtige Verhalten für Situationen gelernt, die fast nie auftreten und dennoch möglich sind? Als Antwort auf diese und viele weitere Fragen wird in diesem Kapitel das Lernen mit Simulationen und simulierten Welten vorgestellt. Dieses Kapitel vermittelt grundlegende Kenntnisse zum Lernen mit Simulationen und simulierten Welten. Dazu werden zunächst die Begriffe ,Serious Gaming‘ sowie ,immersive Lernumgebungen‘ eingeführt. Anschließend stehen sowohl pädagogische und psychologische als auch technische Prinzipien des Lernens mit Simulationen thematisch im Mittelpunkt. Am Ende des Kapitels soll verständlich sein, was von professionellen Entwicklerinnen und Entwicklern getan wird, damit virtuelle Welten der Realität so nah wie möglich kommen, und auf welche Art und Weise diese Methode in Lernprozesse einbezogen wird.

Simulationen und simulierte Welten

Einführung

Simulationen können als Abstraktion der Wirklichkeit durch Schaffen von Modellen verstanden werden. Der Grad der Abstraktion und die Detailtiefe des Modells bestimmen die Nähe zur Realität. Simulationen werden vielfältig und in unterschiedlichen Bereichen eingesetzt (Fahr- und Flugsimulationen, Simulation von Zukunftsereignissen, Simulation von langsamen und schnellen Abläufen in schnellerem bzw. langsameren Tempo und vieles mehr) und sind heute ein wesentlicher Bestandteil vieler Ausbildungsbereiche.

Virtuelle Welten können eine spezielle Art sozialer Netzwerke sein und als Simulationen dienen, in denen die Benutzer/innen als so genannte ,Avatare‘ in einer virtuellen, meist dreidimensionalen Umgebung dargestellt werden. Mittels Chat oder Voice-Chat kommunizieren Menschen über diese Avatare in Echtzeit miteinander. Sie können mit der virtuellen Umgebung interagieren (zum Beispiel einen Raum betreten oder sich auf einen Stuhl setzen) und in manchen Systemen auch die Umgebung modifizieren (zum Beispiel Geräte bedienen).

Im Gegensatz zu den meisten anderen sozialen Netzwerken bleiben die Nutzer/innen hinter den Avataren üblicherweise anonym. Von den sogenannten ,MMOG‘ (Massively Multiplayer Online Games), die eine ähnliche Technologie verwenden, unterscheiden sich virtuelle Welten darin, dass sie offener im Verwendungszweck sind und einen gewissen Fokus auf Interaktion und Kreativität legen. Sie sind also kein Spiel mit vordefinierten Zielen, man kann nicht gewinnen oder verlieren. Dadurch wird es möglich, sie als Lernumgebung zu verwenden.

Kommerziell betriebene virtuelle Welten erfreuen sich vor allem bei jungen Menschen großer Beliebtheit. Im zweiten Quartal 2011 waren 214 Millionen Neuregistrierungen in virtuellen Welten zu verzeichnen. Damit kann man circa von 1,4 Milliarden Accounts ausgehen (KZero, 2011) die meisten davon haben Kinder und Jugendliche als Zielgruppe, aber es gibt auch virtuelle Welten mit einem Zielpublikum über 30 Jahren (zum Beispiel Second Life).

Es existieren Open-Source-Software-Projekte, mit denen man selbst eine virtuelle Welt erstellen kann. Für den Fall einer virtuellen Lernumgebung ist dies natürlich von Vorteil, weil man die volle Kontrolle über das System hat und die Kosten geringer sind. Das bekannteste dieser Projekte ist das OpenSimulator-Projekt, welches im Wesentlichen die Funktionalität von Second Life nachbildet. ,Unity3D‘ und die ,Cry‘-Engine finden Anwendung bei der Umsetzung detailreicherer virtueller Welten.

?

Reflektieren Sie vor dem Hintergrund der zunehmenden Digitalisierung in vielen Bereichen die Vor-und Nachteile bei der Verwendung von Avataren in virtuellen Lernszenarien!

Simulationen und simulierte Welten

Grundlage des Lernens mit Simulationen und simulierten Welten

Begrifflichkeiten

Der Begriff ,Serious Games‘, dessen deutsche Übersetzungen (zum Beispiel ,Digitales Lernspiel‘) zumeist nicht seinen vollen Bedeutungsumfang erfassen, bezeichnet Anwendungen, bei denen sich Menschen ernsthaften Themen widmen und darüber Lerninhalte aneignen. Dazu bedienen sie sich der unterhaltenden Elemente und gängigen Mechanismen von Computerspielen. Anwendungstypen wie Simulationen, ,Edutainment‘ (unterhaltsames Lernen) und ,Advergames‘ (Werbespiele) können als ,Serious Games‘ zusammengefasst werden.

Der Begriff ,Serious‘ bezieht sich auf den inhaltlichen Schwerpunkt, das heißt die Ernsthaftigkeit einer Simulationsumgebung. Diese Spiele und die darin enthaltenen Mechanismen werden nach Gee (2003, 13ff.) als „erlernbare semiotische Domänen, in denen Wissen vermittelt werden kann“ beschrieben. Das bedeutet nicht, dass nicht auch ein kommerzielles Spiel einen ernsthaften Zweck verfolgen kann. Hier ist jedoch der Effekt gemeint, der bei den Lernenden erzeugt werden soll, die Intention, die hinter der Spielidee liegt (Ritterfeld et al., 2009). Dabei ist davon auszugehen, dass ihnen bekannt ist, dass sie sich in einem Serious-Gaming-Kontext befinden, was somit Auswirkungen auf die Erwartungshaltung an die Applikation hat.

Der Begriff ,Games‘ bezieht sich auf den gestalterischen Schwerpunkt. Die Lernenden befinden sich in einem Szenario, das von ihnen als spielerisch empfunden wird. Im Laufe des Spiels (oder der als Spiel empfundenen Handlung) werden die Inhalte der Anwendung auf unterhaltsame und intensive Art und Weise erarbeitet. Der Vorteil daran ist, dass dieses Nutzungsszenario über Interaktionen andere Zugänge zu den Nutzerinnen und Nutzern zulässt, als es zum Beispiel bei einem Buch oder einem Film möglich ist.

!

Mit Serious Games erarbeiten sich Lernende in Szenarien, die sie als spielerisch empfinden, ernsthafte Themen beziehungsweise Lerninhalte.

!

Weiterführende Literatur:

Konzepte für immersive Lernumgebungen und Lernen in 3D (,drei Dimensionen‘) werden seit Ende der 1990er Jahre experimentell erprobt. Die Anwendung virtueller Welten in sozialen Interaktionsprozessen wurde zunächst in ,ActiveWorlds‘ beziehungsweise ,Edu-Worlds‘ und ab circa 2005 in ,Second Life‘ erforscht. Im Bereich der Forschung zur Effektivität von Serious Games war die Studie zum Einsatz des Spiels ,Re-Mission‘ von Kato et al. (2008) beeindruckend. Hier wurde unter anderem ein Nachweis für die Wirksamkeit bei Heilungsprozessen von krebskranken Nutzerinnen und Nutzern beim Spielen gefunden.

Eine These bei der Verwendung dreidimensionaler virtueller Welten ist die mögliche unterstützende Wirkung der Immersion auf Lernprozesse. Immersionseffekte hängen mit Flow (Csikszentmihalyi, 2010) und Präsenz-Erleben (Pietschmann,2009) zusammen, werden aber auch im Zusammenhang mit Computerspielsucht genannt (Grunewald, 2009).

Immersion bezeichnet den Grad, in dem Individuen wahrnehmen, dass sie mehr mit ihrer virtuellen als mit ihrer realen Umgebung interagieren (Guadagno et al., 2007, 3) und beschreibt somit das individuelle Gefühl des „Sense-of-being-there“. Bezüglich einer virtuellen Realität scheint Immersion durch den Grad der Repräsentation der Lernenden und ihrer Präsenz (Presence) bestimmt zu sein (Davis et al., 2009; Bredl & Herz, 2010; Bredl & Groß, 2012, 2). Ihre Repräsentation ist dabei geprägt von den Zuständen und dem Erscheinungsbild ihrer virtuellen Repräsentantinnen und Repräsentanten sowie ihrer Interaktionsmöglichkeiten (Bouras et al., 2001).

?

Das Präsenzerleben der Lernenden in 3D-Umgebungen hängt im Wesentlichen mit der Wahrnehmung ihrer eigenen virtuellen Präsenz zusammen. Heeter (1992) spricht unter anderem von einer sozialen Präsenz, welche sich auf das Vorhandensein anderer Personen in der virtuellen Umgebung bezieht. Dieses Phänomen kann auch in Lern-, Beratungs- und Coachingsituationen eingesetzt werden (Bredl et al. 2012).

Pädagogische und psychologische Grundlagen

Ausschlaggebend beim Lernen mit Simulationen und simulierten Welten ist die stete Interaktion mit dem Lernstoff, aber auch mit anderen Nutzerinnen und Nutzer, Subjekten, Inhalten und Kontexten. Gelernt wird in realitätsgetreu nachgebildeten Umgebungen und oft mit realen Eingabegeräten. Burdea und Coiffet (2003, 3) sprechen von den ,drei I‘ des Lernens mit virtuellen Realitäten: Imagination, Immersion und Interaktion. Imagination beschreibt die Vorstellungskraft und das Einbildungsvermögen der Lernenden, sich in eine Simulation hineinzuversetzen. Durch Echtzeitvisualisierungen und -reaktionen des Systems erhalten die Nutzenden sofortiges Feedback auf ihre Eingaben (Interaktion). Die Informationsaufnahme erfolgt zudem multimodal (siehe Abbildung 1), das heißt, mit mehreren Sinnen. Dadurch wird ein Gefühl der Immersion erzeugt, also des direkten Einbezogenseins in der simulierten Welt.

Abb. 1: Multimediale Informationsaufnahme
Abb. 1: Multimediale Informationsaufnahme

Wissen wird in diesen Lernumgebungen nicht vorgegeben, sondern explorativ erarbeitet. Dieses entdeckende Lernen führt zu einer Erweiterung des persönlichen Erfahrungsraumes sowie der Generierung und Überprüfung von Hypothesen. Allerdings können nach Hofmann (2002, 2) die Erkenntnisse aus diesen Lernprozessen nur dann auf die Realität übertragen werden, wenn die eingebauten Komponenten so wahrheitsgetreu wie möglich simuliert und wahrgenommen werden. Studien zeigen, dass das Lernen mit Simulationen motivierender und lernförderlicher ist als rein textorientierte Lernformen. Diese Lernweise resultiert jedoch nicht per se in einer höheren Qualität beziehungsweise Quantität der kognitiven Verarbeitung und des Fertigkeitserwerbs. Vielmehr fühlen sich Nutzer/innen ohne Anleitung leichter überfordert als bei textorientierten Lernformen und verlieren die Lust am Lernen mit der Simulation. Um dies zu vermeiden sind unterstützende Maßnahmen notwendig:

Diese Techniken in Verbindung mit situierten Lernansätzen (Mandl et al., 2002) sind empirisch überprüft und haben einen positiven Einfluss auf die Lernmotivation, die Tiefe der Informationsverarbeitung und den Lernerfolg (weitere Techniken und Verweise auf Studien zum Beispiel bei De Jong & van Joolingen, 1998).

?

Technische Grundlagen

Zur Erzeugung eines Gefühls der Immersion werden häufig dreidimensionale Darstellungen auf eigentlich zweidimensionalen Monitoranzeigen genutzt. Doch auch stereoskopisches Sehen ist mit ,Head Mounted Displays‘ (HMD) bereits möglich. Dadurch entsteht bei den Lernenden der Eindruck einer virtuellen Welt, in der sie sich bewegen können. Den Grad der Einbindung in das Spielgeschehen wird weiterhin durch verschiedene Stimuli beeinflusst. Neuere Entwicklungen sind mit speziellen Brillen verbunden. Neben visuellen Eindrücken nutzen Hersteller/innen beispielsweise auch auditive und taktile Elemente oder Gamecontroller (Joysticks, Tastatur, Maus, Touchscreen etc.). Bei der Erstellung von Simulationen und simulierten Welten sind zudem verschiedene Parameter zu erzeugen. Dazu gehören

Soll die Lernumgebung durch mehrere Personen gemeinsam genutzt werden, müssen außerdem die Interaktion und die Kommunikation von Avataren sichergestellt werden.

Zur technischen Realisierung, auch der der Interaktion und Kommunikation, werden sogenannte ,Game Engines‘ genutzt, also Software-Pakete, die die beschriebenen Funktionalitäten als Programmschnittstelle (engl. ,application programming interface‘, API) bereitstellen. Game Engines gehen über reine 3D-Engines hinaus, da sie neben der grafischen Darstellung beispielsweise auch Module für Sound, Physik, Steuerung und Netzwerk beinhalten. Um den Realisierungsprozess zu vereinfachen, stellen Hersteller/innen von Game Engines darüber hinaus integrierte Entwicklungsumgebungen (engl. ,integrated development environments‘, IDE) zur Verfügung. Mit diesen können auf intuitive Weise Inhalte (,media assets‘) und Skriptcode bearbeitet werden (zum Beispiel in der Sandbox der CryEngine). Weitere bekannte Beispiele neben der CryEngine der deutschen Firma Crytek sind die Physik-Software-Development-Kit ,Havok‘, die ,Source‘-Engine von Valve, die ,Quake‘-Engine von iD Software und die ,Unreal‘-Engine von Epic Games. Es ist möglich, die Bestandteile verschiedener Engines individuell zu kombinieren, indem beispielsweise eine 3D-Engine (zum Beispiel Ogre, Irrlicht) mit einer Physik-Engine (zum Beispiel Havok, Bullet oder ODE) und einer Sound-Engine (zum Beispiel OpenAL) verknüpft werden.

Das OpenSimulator-Projekt ist das bekannteste Werkzeug, um eigene virtuelle Welten zu erzeugen. Im Gegensatz zu Second Life stellt es eine eigenständige und offene Lösung dar. Mit ihr lassen sich Objekte erzeugen, die dann über ein Netzwerk serialisiert, das heißt in einer bestimmten Form erhalten oder transportiert werden können. Eine Neuerung stellt das auf WebGl basierende ,CloudParty‘, das mit einem herkömmlichen Web-Browser genutzt werden kann.

?

In der Praxis: Virtuelles Teamtraining

Fahrzeuge und Maschinen sind oftmals von mehreren Personen zu bedienen. Doch auch Teamarbeit kann in simulierten Welten gelernt und geübt werden. Vorgestellt wird hier eine Methode zum virtuellen Teamtraining (Virtual-Reality-Team-Training-System), die die Bremer ,szenaris GmbH‘ entwickelt hat und mit der eine Gruppe von Lernenden in einer simulierten Welt vorkonfigurierte Übungen ausführen kann. Im virtuellen Teamtrainingssystem sind dazu mehrere Arbeitsplätze in einem Netzwerk miteinander verbunden, was den Lernenden das gleichzeitige Handeln innerhalb eines gemeinsamen virtuellen Szenarios ermöglicht. Abbildung 2 zeigt eine Version des Teamtrainers für vier Lernende und einen Hörsaal mit dieser Ausstattung – ein Ausbau um weitere Arbeitsplätze ist problemlos möglich.

Abb. 2: Systemübersicht eines virtuellen Teamtrainingssystems und Hörsaal
Abb. 2: Systemübersicht eines virtuellen Teamtrainingssystems und Hörsaal

Die erste Anwendung, die auf dem Teamtrainer installiert wurde, ist das Brücken- und Fährensystem ,Amphibie M3‘ der Bundeswehr. Dieses muss aus mindestens zwei Fahrzeugen bestehen, um Fahrzeuge über ein Gewässer überzusetzen. Dabei ist das Zusammenkuppeln von zwei oder mehr Fahrzeugen zum Beispiel stark von Strömungsverhältnissen und dem Wetter (Windrichtung und -stärke, Regen, Schnee, Tag, Nacht etc.) abhängig. Diese Parameter werden in der Simulation nachgebildet, so dass alle auch in der Realität vorkommenden Situationen geübt werden können. In welchem Szenario sich die Lerngruppe befindet, wird vom Trainer gesteuert, der alle Parameter selbst verändern kann. Lernende sehen dabei alle Brückensysteme jeweils aus ihrer eigenen Perspektive (siehe Abbildung 3).

Abb. 3: Blick auf die Amphibie in der virtuellen Welt
Abb. 3: Blick auf die Amphibie in der virtuellen Welt

Neben der Sicht in die virtuelle Welt verfügt jeder Arbeitsplatz über den originalen Wasserfahrstand mit allen dazugehörigen Bedienelementen, so dass auch die haptische Wahrnehmung der Realität nahezu entspricht. Eine der Lernstationen ist mit Datenhandschuhen ausgerüstet – so werden Handbewegungen der Lernenden an diesem Arbeitsplatz direkt in das virtuelle Szenario übertragen. Dieses Teamtrainingssystem wird seit 2003 für die Ausbildung an der Amphibie eingesetzt und trägt dazu bei, dass die realen Fahrzeuge in weitaus geringerem Maße defekt sind als vor dem simulierten Einsatz. Dies und die jährlichen Einsparungen machen diese Methode somit zu einem sehr erfolgreichen Simulationssystem. 2008 wurde auf derselben Hardwarekonfiguration ein zweites Brückenlegesystem installiert, die Faltschwimmbrücke (FSB). 2011 folgte die Integration des dritten Brückenlegesystems, die Faltfestbrücke (FFB). Das Umkonfigurieren von einem Brückenlegesystem auf ein anderes dauert dabei nur wenige Minuten.

Simulationen und simulierte Welten

Der Einsatz von Simulationen und simulierten Welten als Lernumgebung

Lernen mit Simulationen und simulierten Welten ist immer dann besonders gut anzuwenden, wenn Prozesse trainiert werden sollen, in denen Fehlverhalten riskante und lebensbedrohliche Auswirkungen haben kann. In einer Simulation trainiert es sich gefahrlos. Lernende können also problemlos verschiedene Verhaltensweisen ausprobieren, ohne sich Sorgen über mögliche Konsequenzen machen zu müssen.

Ein weiterer wichtiger Aspekt für den Einsatz von Simulationen ist die Tatsache, dass Fahrzeuge (zu Land, zu Wasser oder in der Luft), Maschinen und Geräte oft nicht in ausreichender Anzahl für Ausbildungszwecke zur Verfügung stehen. Um also den richtigen Umgang mit ihnen realitätsnah zu trainieren, kann daher eine Simulation sogar zwingend notwendig werden.

Im Gegensatz zur Realität können simulierte Welten bestimmte Dinge sichtbar und damit begreifbar machen. Ebenso werden sehr unwahrscheinliche (dennoch mögliche) Szenarien trainierbar. So ergibt sich aus der Simulation selbst ein Nutzen, der den des Lernens in der Realität übersteigen kann.

Simulationen zeichnen sich durch ihre Kosteneffizienz aus. Ihre Anschaffungskosten können sich in einigen Fällen bereits nach zwei bis drei Jahren amortisieren, in anderen Fällen erst nach weit mehr Jahren der Nutzung. Schnelle Amortisierungen ergeben sich häufig bei Simulationen von Hardware (zum Beispiel Fahrzeuge), deren Bedienung sehr oft geschult werden muss. Längere Amortisierungszeiten ergeben sich meist dann, wenn der Erfolg der Simulation nicht direkt messbar ist, beispielsweise bei der Simulation von menschlichem Verhalten. Hier ist der Lernerfolg erst in der realen, meist lange nach der Schulung auftretenden Situation, sichtbar. Weitere Vorteile beim Einsatz von Simulationen sind unter anderem:

Die möglichen Nachteile beim Einsatz von Simulationen sollen nicht unerwähnt bleiben. So können beispielsweise Schwindelgefühle auftreten, wenn sichtbare Bewegungen nicht den wahrgenommenen entsprechen (die so genannte ,Simulatorkrankheit‘). Da die Technik aber inzwischen so weit fortgeschritten ist, dass neben Sehen und Hören auch die haptische Wahrnehmung angesprochen wird, findet man sich noch realer in das virtuelle Geschehen hinein. So wird dieses ,spürbar‘ und das Risiko physischer Einschränkungen noch weiter minimiert. Weil Lernen in virtuellen Welten immer in einer ,ästhetischen Distanz‘ zur Realität stattfindet, können auch in dieser Hinsicht Probleme entstehen. Je größer die ästhetische Distanz ist, desto schwieriger wird der Transfer des Gelernten in die Praxis. Zum Beispiel könnten angehende Pilotinnen und Piloten, die bisher nur am Simulator trainiert haben, beim ersten Praxiseinsatz aufgrund der veränderten Verantwortung unter enormem Druck stehen und alleine deshalb Fehler machen.

!

Durch Simulationen werden gefährliche oder sehr selten auftretende Situationen praxisnah und realistisch trainierbar.

?

Nennen Sie mindestens drei Gründe, warum Simulationen eingesetzt werden! Recherchieren Sie jeweils drei Beispiele für Einsatzbereiche von Simulationen als Lernumgebung außerhalb des militärischen Bereichs!

Simulationen und simulierte Welten

Zentrale Erkenntnisse

Grundlage des Lernens mit Simulation und simulierten Welten ist das Handeln in virtuellen, meist dreidimensionalen Umgebungen in Echtzeit. Mit Hilfe verschiedener technischer Komponenten, sogenannten Game-Controllern, steuern Lernende ihren Avatar beziehungsweise virtuelle Fahrzeuge, Maschinen oder Geräte. Tastatur und Maus, aber auch Joysticks, Touchscreens sowie Original-Bediengeräte kommen dabei zum Einsatz. In der jüngsten Vergangenheit kamen weitere Eingabegeräte wie z.B. die ,Kinect‘ von Microsoft hinzu. Zentral in der technischen Umsetzung von Simulationen ist nicht nur der Einbezug visueller und auditiver Elemente, sondern vielmehr die exakte physische Nachbildung realistischer Prozesse mit Hilfe von Game Engines oder dem Einbau hydraulischer Komponenten. Diese technischen Gestaltungsprinzipien sind es, die ein Gefühl des direkten Einbezogenseins in der virtuellen Welt erzeugen und somit positiv auf Lernprozesse wirken. Der Fokus dieses Lernwegs liegt dabei stets auf der Interaktion mit dem Lernstoff, denn dieser wird in der virtuellen Umgebung spielerisch entdeckt und erforscht. Lernende können also problemlos Verhaltensweisen ausprobieren, Fehler haben keine gravierenden Konsequenzen. Obwohl die präsentierten Szenarien als spielerisch empfunden werden, sind es ernsthafte Inhalte, die zu erarbeiten sind. Denn trainiert werden beispielsweise das Steuern von Fahr- und Flugzeugen, bis hin zu medizinischen Operationstechniken oder Managementprozessen. Aus diesem Grund wird das entdeckende Lernen in virtuellen Welten häufig auch als Serious Gaming bezeichnet. Die große Chance dieses didaktischen Ansatzes liegt in seiner äußerst positiven Wirkung auf Lernprozesse. Die Lernenden werden besser motiviert, die Lernprozesse zu realisieren als in rein textorientierten Lernformen. Allerdings sind auch beim Lernen mit virtuellen Welten unterstützende Maßnahmen in Form von klaren Lehr- und Lernzielen sowie Hintergrundinformationen und erreichbaren Ansprechpartnerinnen und -partnern nicht zu vernachlässigen. Simulationen und simulierte Welten ermöglichen somit aufgrund ihrer technischen und didaktischen Prinzipien ein realistisches und gleichzeitig ungefährliches Training. Verschiedenste Prozesse und Verhaltensweisen können mit dieser Methode gelernt und geübt werden. Dadurch ist sie unverzichtbar in der heutigen Aus-, Fort- und Weiterbildung.

Simulationen und simulierte Welten

Literatur

Die Akteur-Netzwerk-Theorie

Eine Techniktheorie für das Lernen und Lehren mit Technologien

Zwischen den entgegengesetzten Entwürfen von Technik- und Sozialdeterminismus stellt die Akteur-Netzwerk-Theorie (ANT) einen Mittelweg des Verständnisses der Beziehung von Mensch und Technik dar. Technik ist für die ANT weder bloßes Instrument noch eine Determinante, die das soziale Leben und damit auch die didaktische Kommunikation von Lehren und Lernen bestimmt. Vielmehr bilden Mensch und Technik hybride Akteur/innen-Netzwerke. Diese Akteur-Netzwerke sind Formen des Zusammenschlusses von Menschen, Technologien, Organisationen, Regeln, Infrastrukturen und vielem mehr, mit dem Ziel, relativ stabile Gefüge von Wissen, Kommunikation und Handeln ins Leben zu rufen. Alle Akteure – Menschen, Medien, Maschinen oder sonstige Artefakte – sind gleichermaßen in der Lage, Beziehungen und Verhalten der Akteure in einem Netzwerk zu beeinflussen. Im Bildungskontext bietet die ANT Erklärungen und mögliche Herangehensweisen bei der Analyse und Beschreibung komplexer Bildungsprozesse und Innovationen im technologiegestützten Unterricht. Wenn Menschen und Technologien gleichermaßen als Akteure im technologiebasierten Unterricht verstanden und in ihrem Zusammenspiel betrachtet werden, gelingt es uns, die Realitäten des Unterrichts- und Lernverhaltens zu verstehen und in didaktischen Einsatzszenarien zu berücksichtigen. Die Akteur-Netzwerk-Theorie kann dazu beitragen, die soziale Wirklichkeit des Lernens besser zu verstehen.

Die Akteur-Netzwerk-Theorie

Einleitung

Seit sich das Internet als bestimmendes Medium für die meisten Formen von Kommunikation durchgesetzt hat, gilt der Netzwerkbegriff als Schlüssel zum Verständnis vieler verschiedener Phänomene. So spricht man etwa von einer Netzwerkgesellschaft und Sozialen Netzwerken. Im Kontext eines in vielen Disziplinen entstehenden Netzwerkparadigmas bietet die in den 1980er-Jahren entwickelte Akteur-Netzwerk-Theorie (ANT) eine vielversprechende Grundlagentheorie für ein zukunftsweisendes Verständnis von Lehren und Lernen, da sie als eine der wenigen Theorien die Technik als gleichberechtigte Akteurin in sozialer Kommunikation beschreibt. Im ersten Teil dieses Kapitels wird die Akteur-Netzwerk-Theorie in groben Zügen skizziert. Im zweiten Teil wird das Prinzip der ANT am Beispiel des Schulunterrichts näher erläutert. Als konkretes Szenario ziehen wir den Unterricht mit Netbooks heran. Es wird der Frage nachgegangen, welche Rolle menschliche und nicht-menschliche Akteure beim Unterricht mit Netbooks spielen, wie das Zusammenspiel dieser Akteure die Gestaltung von Lehr-Lern-Aktivitäten beeinflusst und wie die Entwicklungen von Akteur-Netzwerk-Konstellationen beobachtet werden können.

Die Akteur-Netzwerk-Theorie

Techniktheorien in Bildungsprozessen

Trotz der enormen Fülle an Literatur zu Themen wie Mediendidaktik, E-Learning und Computer im Unterricht sucht man fast vergebens nach tiefer greifenden theoretischen Überlegungen zur Rolle der Technik in Lernprozessen. Wirft man einen Blick auf andere Bereiche und Disziplinen wie etwa die Wissenschafts- und Technikforschung oder die Kommunikationswissenschaft, fällt hingegen unweigerlich die rege Tätigkeit und differenzierte Fülle an neuen Ideen auf. Schon allein aus diesem Grund lohnt es sich für Forscherinnen und Forscher, aber auch Anwenderinnen und Anwender von E-Learning, in diesen Bereichen nach neuen, innovativen Theorien Ausschau zu halten.

Viele Diskussionen über den Einsatz und die Anwendung digitaler Medien in Lernprozessen sind Grundlagendiskussionen über die Art und Weise, wie Menschen mit Technik umgehen und wie Technik soziale Prozesse bestimmt beziehungsweise bestimmen sollte. Aus diesem Grund ist die Frage nach adäquaten Techniktheorien für alle Verantwortlichen im Bildungssystem von Bedeutung. Theorien sind für Transformationen sozialer Prozesse wichtig und die Diskussion über sie ist Bestandteil jeder verantwortungsvollen Auseinandersetzung mit der Praxis und der Zukunft von Bildung. Wie die Rolle der Technik in Bildung konzeptualisiert wird, ist entscheidend, da je nach Verständnis dieser Rolle unterschiedliche Handlungsprogramme und Strategien auf Seite der sozialen Akteure resultieren: Ziele werden anders gesetzt, menschliche, technische und finanzielle Ressourcen zugesprochen oder nicht, künftige Entwicklungen durch strategische Entscheidungen initiiert, Rahmenbedingungen für gesellschaftliche Änderungen gesetzt und entsprechende Forderungen an alle Beteiligten im Bildungssystem gestellt. Schliesslich geht es auch darum, wie die Akteure im Bildungssystem sich selbst und ihre Rollen verstehen, denn je nachdem, wie sie Gesellschaft, Bildung und Technik sehen, ist ihr Denken und Handeln anders.

Die Akteur-Netzwerk-Theorie, kurz ANT, wurde vor allem von Bruno Latour und Michel Callon während der 1970er und 1980er Jahre in Frankreich entwickelt. Die beiden Soziologen untersuchten in einer Reihe wegweisender Studien, wie Wissen im Labor entsteht und Wissenschaftler/innen tatsächlich in der Praxis arbeiten. Wie Ethnologinnen und Ethnologen, die genauestens alles dokumentieren, was ein fremdes Volk tut und sagt, untersuchten sie, wie wissenschaftliche Erkenntnisse entstehen und wie Technologien genutzt werden. Aufgrund dieser so genannten Laborstudien entwickelten Latour und Callon eine umfassende Theorie von Gesellschaft, Kultur und Kommunikation (Latour, 1998, 2000), welche nicht nur für ein neues Verständnis von Wissenschaft und Technik von Bedeutung ist, sondern auch für ein neues Verständnis von Politik, Religion, Wirtschaft und Bildung.

!

Die Hauptaussage der Akteur-Netzwerk-Theorie lautet: Technik ist eine gleichberechtigte Partnerin in allen sozialen Interaktionen.

Die Laborstudien von Latour, Callon und anderen zeigten, dass die Technik weder den Menschen bestimmt, noch ein völlig neutrales Werkzeug ist, das keinen Einfluss auf die Gesellschaft hat. In der Realität interagieren Menschen mit Technik so, dass die Produktion von Wissen im Labor, Entscheidungen in der Politik, wirtschaftliche Tätigkeiten, Medizin und Bildung von den jeweiligen sozio-technischen Netzwerken bestimmt werden. Dies sind hybride und heterogene Assoziationen von menschlichen und nicht-menschlichen Akteuren. Einer der Gründe für die wachsende Akzeptanz dieser Ansicht liegt in der Verwissenschaftlichung und Technisierung der Gesellschaft.

Die globale Wissensgesellschaft ist bis in die meisten Lebensbereiche hinein von Wissenschaft und Technik geprägt. Die neuen Informations- und Kommunikationstechnologien haben alle gesellschaftlichen Subsysteme, das Bildungssystem eingeschlossen, verändert. Alles weist darauf hin, dass es an der Zeit wäre, neu über die Beziehung von Menschen und Technik zu denken. Trotzdem werden die meisten Diskussionen über die Rolle von Technik in Bildung auf Grund der nicht mehr aktuellen Theorien eines Technikdeterminismus einerseits oder eines Sozialdeterminismus andererseits geführt. Weil diese Theorien immer noch einflussreich sind, lohnt es sich, sie kurz zu erläutern.

Der Technikdeterminismus geht davon aus, dass die Gesellschaft durch technologische Entwicklungen bestimmt ist. Die Technik beeinflusst menschliches Verhalten und soziale Kommunikation. So behauptet der Technikdeterminismus beispielsweise, dass Steinwerkzeuge, die Schrift, die Dreifelderwirtschaft, Massenmedien und vergleichbare Schlüsseltechnologien soziale und kulturelle Anpassungen hervorgerufen und ganze Epochen geprägt haben (White, 1962; Innis, 1972). Aus technikdeterministischer Sicht wird Technik oft als „Sachzwang“ oder als sich verselbstständigende Entäußerung beziehungsweise Erweiterung des Menschen betrachtet (Schelsky, 1965; Gehlen, 1986). Modelle technischer Rationalität wie zum Beispiel die Kybernetik und Künstliche Intelligenz (du Boulay & Mizoguchi, 1997), welche etwa die Entwicklung von Lernmaschinen maßgeblich beeinflussten (Pask, 1975; Pask, 1976), verstehen kognitive Prozesse und Lernen als etwas, das technisch nachgebaut und optimiert werden kann. Aus der Perspektive des Technikdeterminismus gibt es keinen Grund, Technik als etwas Fremdartiges oder den Bildungszielen der Schule Entgegengesetztes zu betrachten. Wie in allen anderen Bereichen der Gesellschaft hat die Technik eine entscheidende Rolle zu spielen und jeder Versuch, ohne Technik durchzukommen, ist vergeblich und rückwärtsschauend.

!

Der Technikdeterminismus erachtet es als unvermeidlich, die Interaktion mit Systemen wie etwa Lernprogrammen, Tutoring-Systemen oder Lernumgebungen in Bildungsprozesse einzubinden, da Technik soziale Prozesse bestimmt.

Im Gegensatz dazu setzt der Sozialdeterminismus den Menschen in den Mittelpunkt. Der Mensch bestimmt, wie Technik entwickelt und eingesetzt wird. Wissenschaft und Technik haben kein Eigenleben, sie sind bloße Werkzeuge, deren Gebrauch von gesellschaftlichen Entscheidungen abhängt. Neuere soziologische und erziehungswissenschaftliche Studien über Technik in Bildung (Luhmann & Schorr, 1986, 1990, 1992; Luhmann, 2002) warnen davor, eine technologische Rationalität und Instrumentalisierung des Menschen durch Technik im Bildungssystem zu institutionalisieren. Aus der sozialdeterministischen Perspektive gibt es gute Gründe, den Einsatz von Technik in der Bildung zu misstrauen. Obwohl das Bildungssystem die Aufgabe hat, aus Nicht-Wissenden Wissende, aus Nicht-Kompetenten Kompetente zu „machen“, sollte im Sinne des kategorischen Imperativs der Mensch immer als Selbstzweck behandelt werden. Dies verlangt, dass didaktische Instrumente oder erzieherische „Techniken“ in Frage gestellt werden und deren Wirkung und Einfluss auf Bildungsprozesse Grenzen gesetzt werden sollen. Technik ist keine Partnerin im System Bildung, sondern ein bloßes Instrument, das nur dann eingesetzt werden sollte, wenn es die zwischenmenschliche Kommunikation nicht hindert oder gar ersetzt.

!

Dem Sozialdeterminismus zufolge ist Bildung grundsätzlich nicht von Technik abhängig; wenn Technik eingesetzt wird, dann nur unter der Bedingung, dass Menschen nicht dabei instrumentalisiert werden. Technik ist ein neutrales Instrument, das je nach Zielsetzung eingesetzt werden kann.

Die Akteur-Netzwerk-Theorie

Die Akteur-Netzwerk-Theorie

Zwischen diesen entgegengesetzten Alternativen stellt die Akteur-Netzwerk-Theorie einen Mittelweg des Verständnisses der Beziehung zwischen Mensch und Technik dar. Die Technik ist weder ein bloßes Instrument, noch eine Determinante, die das soziale Leben bestimmt. Vielmehr bilden Mensch und Technik zusammen Akteur-Netzwerke. Personen, Gruppen, Organisation, Institutionen, aber auch Artefakte, Bücher, Infrastrukturen, Gebäude, Maschinen und vieles mehr gelten als „Akteure“, die sich zu Netzwerken zusammenschliessen. Eine wichtige theoretische Innovation der ANT liegt in der Akzeptanz nicht-menschlicher Akteure in die Gesellschaft. Als Akteur gilt grundsätzlich alles, was in der Lage ist, das Verhalten und die Ziele eines Netzwerkes zu beeinflussen. Jeder Akteur, ob Mensch oder Maschine, hat eigene Ziele, ein eigenes „Handlungsprogramm“. Er versucht, die Handlungsprogramme anderer Akteure in sein Programm zu „übersetzen“, um diese Akteure in ein Netzwerk einzubinden, das seinen Zielen entspricht.

Ein Akteur, welcher erfolgreich in ein Netzwerk eingebunden wird, übernimmt eine bestimmte Rolle im Netzwerk und wird zu dem, was die ANT eine „Black Box“ nennt, das heißt er übernimmt eine fixierte Funktion im Ganzen. Je mehr Akteure in ein Netzwerk eingebunden werden können, desto stärker wird das Netzwerk.

!

Akteur-Netzwerke werden als hybrid bezeichnet, da sie immer aus menschlichen und nicht-menschlichen Akteuren bestehen. Sie sind skalierbar, da sie so klein wie ein einzelner Lernender oder so groß wie das ganze Bildungssystem sein können.

Im Kontext von Bildung bedeutet dies: Lernende können nicht als Individuen betrachtet werden, die entweder mittels Lerntechnologien oder bewusst ohne solche in institutionalisierte und formalisierte Lernprozesse integriert werden müssen, Lernende sind vielmehr immer schon in größeren oder kleineren Netzwerken eingebunden, die bereits aus vielen verschiedenen Akteuren wie Büchern, Schulhäusern, Lehrpersonen, Eltern, Mitschülerinnen und Mitschülern, Smartphones, Lehrplänen, Bibliotheken, Medien, bildungspolitischen Instanzen, Reglementen, Wandtafeln, Computern und Budgets bestehen. Es gäbe keine Schülerinnen und Schüler und kein Bildungssystem, wäre da nicht bereits ein Netzwerk aus verschiedenen heterogenen Akteuren. Alle diese Akteure haben einen Einfluss auf die Lernprozesse, ob fördernd oder hemmend. Das Lernen ist also, durchaus im Sinne des Konnektivismus, etwas, das dem Netzwerk zugeschrieben werden soll und nicht einem Individuum.

Aus der Perspektive der Akteur-Netzwerk-Theorie besteht die Aufgabe von Bildung also nicht darin, einzelnen Personen Wissen und Kompetenzen zu vermitteln und diese zu zertifizieren, sondern vor allem darin, diese kleinen und großen Netzwerke optimal miteinander zu verbinden. Lehren und Lernen sind Formen von Akteur-Netzwerken und Bildung, könnte man sagen, ist Netzwerkarbeit.

Kommunikationsprozesse, die entweder zum Erfolg oder Scheitern dieser Netzwerkarbeit führen, werden von der ANT detailliert analysiert und beschrieben. Die ANT geht dabei empirisch vor und legt großes Gewicht auf die vorurteilslose Beschreibung reeller Kommunikationsabläufe der verschiedenen Akteure. Kommunikation wird dabei als Handlung betrachtet, die etwas bewirkt. Akteure handeln durch Beeinflussung, Suggestion, Disposition und Forderungen, die von ihnen ausgehen. Ein Beispiel: Printmedien erfordern helle Umgebungen, digitale Medien hingegen zwingen Schulen dazu, Dimmer, Vorhänge oder Sonnenstoren in den Schulzimmern einzubauen. Printmedien erzwingen, dass Interaktionen, Feedback, die Beantwortung von Fragen und so weiter durch face-to-face Kommunikation ablaufen, wogegen digitale Medien Interaktion von den Einschränkungen durch Raum und Zeit befreien. Der einfache Zugang zu den fast unendlichen Informationsressourcen des Internets durch mobile Geräte zum Beispiel bewirkt, dass die traditionelle Rollenverteilung zwischen Lehrperson und Lernenden sich verändert. Die Lehrperson kann nicht mehr als alleinige Autorität in Bezug auf Information und Wissen auftreten. Es gibt viele Beispiele dieser Art, die zeigen, wie sehr Mensch und Technik – quasi symbiotisch – verbunden sind. Es wäre aus Sicht der ANT grundsätzlich falsch, nur auf einen individuellen Akteur in einem komplexen sozio-technischen Netzwerk zu schauen und zu versuchen, das Lernen alleine vom Verhalten dieses Akteurs her zu verstehen oder zu bestimmen. Es ist immer das Netzwerk als Ganzes, das zugleich lehrt und lernt. Lernprozesse sind Netzwerkprozesse. Um nicht der Versuchung zu verfallen, entweder den Menschen oder die Technik in den Vordergrund zu stellen, sondern immer die komplexe Interaktion und die Interdependenzen zwischen beiden im Blick zu haben, folgt die ANT dem Prinzip der „methodischen Symmetrie“ in der Beschreibung von menschlichen und nicht-menschlichen Akteuren. Es spielt also keine Rolle, ob Menschen, Medien, Maschinen oder sonstige Artefakte die Beziehungen und das Verhalten der Akteure in einem Netzwerk zu beeinflussen versuchen. Das Endresultat ist immer eine hybride und heterogene Assoziation verschiedener Akteure.

Akteur-Netzwerke sind also Formen des Zusammenschlusses von Menschen, Technologien, Organisationen, Regeln, Infrastrukturen und vielem mehr, mit dem Ziel, relativ stabile Gefüge von Wissen, Kommunikation und Handeln ins Leben zu rufen. Ein Beispiel, wie die Interaktion von Menschen mit digitalen Medien das Verhalten und die Einstellungen von Menschen bestimmen kann, zeigt sich am Phänomen Web 2.0. Während traditionelle Methoden und organisationale Strukturen in Wirtschaft, Wissenschaft und Bildung oft nicht in der Lage sind, eine Kultur des Vertrauens, der Offenheit und der Zuverlässigkeit im Austausch und der Nutzung von Wissen zu schaffen, wirken Web-2.0-Technologien ganz anders. Auf Basis dieser Technologien entstehen, jenseits formeller Informationssysteme, Communities und Wissensnetzwerke, in denen Freiheit im Umgang mit Information, Individualisierung in der Gestaltung von Wissen, Überprüfbarkeit und Integrität als anerkannte Verpflichtungen, Flexibilität bei Problemlösungen, multiple Identitäten und gleichzeitiges Verfolgen diverser Zielsetzungen sowie Geschwindigkeit bei Entscheidungen und Innovationsoffenheit prägende Merkmale sind.

Diese Eigenschaften sind weder ausschließlich den darin involvierten menschlichen, noch den technischen Akteuren zuzuschreiben. Sie sind vielmehr Netzwerkeigenschaften, die nur aus dem Zusammenschluss heterogener Akteure entstehen können. Die Akteur-Netzwerk-Theorie beschreibt heutige Entwicklungen wie das Web 2.0 als das Entstehen von hybriden, heterogenen Konstellationen menschlicher und nicht-menschlicher Akteure und erklärt damit die heutigen gesellschaftlichen Entwicklungen, ohne dabei einem Technikenthusiasmus oder einem Misstrauen aller Technik gegenüber zu verfallen.

?

Überlegen Sie, welche Akteur-Netzwerke im Sinne der ANT Sie aus Ihrem Unterrichtsalltag kennen, und versuchen Sie zu beschreiben, welche Akteure das Verhalten des Netzwerkes bestimmen und wie sie dies tun. Achten Sie dabei insbesondere auf die Rolle der Technologie (technologische und Akteure).

Die Akteur-Netzwerk-Theorie

Die Akteur-Netzwerk-Theorie am Beispiel von Netbooks im Unterricht

Einen Praxisbezug im Bildungskontext bekommt die Akteur-Netzwerk-Theorie beim Einsatz mobiler Lerntechnologien im Schulunterricht. Als konkretes Szenario kann man den Unterricht mit Netbooks heranziehen.

Akteur-Netzwerke beim Unterricht mit Netbooks

Die Vernetzung der Lehrenden und Lernenden über die digitalen Medien, Web-2.0-Anwendungen und sozialen Netzwerke, die durch den Einsatz von Netbooks erzielt wird, erweitert die didaktischen Möglichkeiten im Unterricht, beispielsweise indem Lehrende und Lernende Inhalte mit Blogs, Wikis oder Online-Werkzeugen gemeinsam entwickeln (Herzig et al., 2010). Die dabei neu entstehenden kollektiven Wissensbasen im Web 2.0 sind wichtige Handlungsträger (Akteure) im Sinne der ANT, die maßgeblich beeinflussen, wann, wo und wie Wissen erworben, verfügbar gestellt und verarbeitet wird. Dabei betrachtet die ANT als Akteure nicht mehr nur die einzelnen Lernenden oder Lehrenden selbst, sondern das komplexe Umfeld, in dem der Unterricht mit Netbooks stattfindet. Indem Lernende die didaktischen Möglichkeiten nutzen, die ihnen diese Wissensbasen zur Verfügung stellen, nehmen sie sie als Akteur in ihr Akteur-Netzwerk auf. Diese neu entstandenen Wissensbasen stellen ein Beispiel für Akteure dar, die den Zusammenschluss von Mensch und Technologie im Akteur-Netzwerk eines Netbook-Unterrichts bilden.

Betrachtet man Mensch und Technologie, aber auch andere Artefakte aus dem Umfeld, im Sinne der ANT als handlungstragende Akteure im Netzwerk der Lehrenden und Lernenden, so bedeutet das am Beispiel des Netbook-Unterrichts, folgende wichtige Akteure zu erkennen und in den Unterricht zu integrieren:

Die didaktischen Möglichkeiten im Unterricht erweitern sich, wenn institutionelle Rahmenbedingungen existieren, die ein offenes Zusammenwirken der Akteure zulassen (zum Beispiel flexible Raum- und Unterrichtsgestaltung, Möglichkeiten zur Computernutzung außerhalb des Unterrichts, Zieldefinitionen mit der Schulleitung, Nutzungsvereinbarungen mit Schülerinnen und Schülern) (Schaumburg et al., 2007).

Indem Technologie selbst als Akteur agiert und den Lehrenden und Lernenden gewisse Handlungsprogramme aufgrund ihrer Eigenschaften anbietet, übernimmt sie bei der Stabilisierung der Akteur-Netzwerke eine wichtige Funktion. Beispielsweise nimmt auch die Prozessor- und Akkuleistung eines Netbooks Einfluss darauf, wie gerne, wie intensiv, oder für welche Lern- und Unterrichtszwecke das Netbook verwendet wird. Die Verfügbarkeit eines Beamers und die Abdunkelungsmöglichkeit im Klassenraum bestimmen, ob und in welchem Ausmaß Arbeitsaufträge elektronisch bearbeitet und präsentiert werden können. Schließlich beeinflusst auch die Netzwerkgestaltung in und außerhalb der Schule, in welchen Formen kollaborative oder webbasierte Arbeitsaufträge im Unterricht sinnvoll bearbeitet werden können. Technische Artefakte wie Netbook, Beamer oder Schulnetzwerke werden somit zu entscheidenden Akteuren im technologiebasierten Unterricht, die die didaktischen Einsatzszenarien der Lehrenden und Lernenden beeinflussen beziehungsweise mitbestimmen.

Handlungsspielräume nutzen

Die ANT geht davon aus, dass sich Lehrende und Lernende laufend in ihren Akteur-Netzwerken bewegen und die Handlungsprogramme anderer Akteure nutzen, um ihr Lehr- und Lerninteresse zu verfolgen.

Auf den Unterricht mit Netbooks umgelegt bedeutet das, dass beispielsweise Lehrende, Lernende oder Mitschülerinnen und Mitschüler kontinuierlich Akteure in ihr Netzwerk einbringen (zum Beispiel neue Web-2.0-Anwendungen, Communities) und die Handlungsprogramme im Unterricht dadurch neu gestalten. Es entstehen neue didaktische Szenarien im Unterricht (zum Beispiel Internetrecherchen, Bildungsexkursionen), neue schulische und außerschulische Lernorte (zum Beispiel Bibliothek, Pausenräume, schulexterne Orte) können für das Unterrichten und Lernen mit Netbooks nutzbar gemacht werden, und kollaboratives Lernen kann über das Klassenzimmer hinaus mittels Web 2.0 (zum Beispiel Wikis, Blogs, Microblogs) verwirklicht werden. Es kommt zu Synergien und Phänomen, die zu neuen sozialen und mediendidaktischen Auseinandersetzungen im Unterricht führen und neue Chancen sowie Herausforderungen im Unterricht mit mobilen Lerntechnologien bedingen können.

Der Unterricht mit Netbooks bedeutet somit kontinuierliche Netzwerkarbeit. Es ist wichtige Aufgabe der Lehrenden und Lernenden, Akteure und ihre potenziellen Möglichkeiten im Unterricht zu erkennen und diese in ihr Akteur-Netzwerk aufzunehmen, das heißt sie in den Unterricht zu integrieren. In der Komplexität von Akteur-Netzwerken besteht zugleich aber auch eine Unsicherheit in Form der Unkontrollierbarkeit von Entwicklungen und Innovationen im Unterricht, da nicht mehr der einzelne Akteur (zum Beispiel die/der Lehrende, die/der Lernende) entscheidet, wie der Unterricht gestaltet wird, sondern die Summe an Eigenschaften und Handlungen aller Akteure Einfluss nimmt (zum Beispiel der Netbooks, der Lehrenden, der Lernenden, der jeweiligen Raum- oder Technologieausstattung, der Service Provider, Internetverfügbarkeit).

Wichtig ist es daher zu verstehen, wie diese Handlungsprogramme tatsächlich genutzt werden. Es stellt sich unter anderem die Frage, welche Qualitäten im Sinne von Handlungsmöglichkeiten der Akteur Netbook (auf Grund seiner technischen Gegebenheiten wie der geringen Größe, des geringen Gewichts und der eingebauten UMTS-Karte für mobilen Internetzugang) für das inner- und außerschulische Lernen tatsächlich bietet. Für den Unterricht in der Schule ist auch von Bedeutung, in welcher Form Lernende Netbooks als dafür geeignet empfinden, ihre Lerninteressen in der unterrichtsfreien Zeit weiter zu verfolgen. Mit diesem Wissen können Unterrichtsszenarien und Lernprozesse entwickelt werden, die in der Schule begonnen und mit dem Gerät in der unterrichtsfreien Zeit zu Hause oder unterwegs sinnvoll fortgesetzt werden. Lernende könnten im Netbook ein neues Kommunikationsmittel entdecken, das es ihnen erlaubt, sich mit Mitschülerinnen und Mitschülern auszutauschen und etwa gemeinsam an Projekten zu arbeiten. Das mit mobilem Internet ausgestattete Netbook könnte auch im Alltag (während Wartezeiten, in öffentlichen Verkehrsmitteln etc.) neue Zugänge zu Wissen schaffen und einen neuen Lifestyle beim Lernen ermöglichen.

Soziale Wirklichkeiten erforschen

Indem wir den Akteuren und ihrer Netzwerkarbeit möglichst unvoreingenommen folgen und ihr Zusammenspiel beobachten, gelingt es uns, die Realitäten dieses Lernverhaltens abzubilden. Ziel dabei ist es, festzustellen, was im bestehenden Akteur-Netzwerk der Lernenden real und relevant beziehungsweise was unwirklich und zu vernachlässigen ist. Die ANT hilft uns bei der Erörterung dieser Fragestellung.

!

Die ANT stellt eine mögliche Herangehensweise an Forschungsfragen dar, die beabsichtigen, die sozialen Wirklichkeiten und Entwicklungen innerhalb eines Akteur-Netzwerkes zu analysieren und zu beschreiben.

Ein Beispiel für diese Herangehensweise bietet eine im Rahmen eines Netbook-Pilotprojekts an österreichischen Schulen der Sekundarstufe 2 durchgeführte Untersuchung durch die Autorin und die Autoren. Ziel dieser Untersuchung war es, die Realitäten beim Einsatz der Netbooks während des Unterrichts, aber auch in der unterrichtsfreien Zeit abzubilden. Um ein reales Bild der Akteur-Netzwerk-Beziehungen zu zeichnen, wurde eine webbasierte Microblogging-Seite eingerichtet, über die die Lernenden ihr tatsächliches Nutzungsverhalten mit den Netbooks mittels Kurznachrichten von max. 140 Zeichen laufend dokumentieren sollten. Wichtig war es, die Beobachtung der Akteure in ihrem persönlichen Umfeld – ihrem persönlichen Akteur-Netzwerk – zu gewährleisten und ein möglichst umfassendes Bild darüber zu erlangen, wann, wo und wofür das Netbook Anwendung findet.

Basierend auf der durchgeführten Untersuchung konnte festgestellt werden, dass Schülerinnen und Schüler ihre Netbooks außerhalb des Unterrichts sehr unterschiedlich für Lernzwecke einsetzen und ihre Akteur-Netzwerke daher sehr differenziert nutzen beziehungsweise ändern. Beispielsweise konnte festgestellt werden, dass Schülerinnen und Schüler

Die Untersuchung zeigte ebenfalls, dass sich Schülerinnen und Schüler mit ihren Netbooks laufend in sozialen Online-Netzwerken bewegen und dadurch ihre Akteur-Netzwerke gewissen Veränderungen aussetzen, die ihre Handlungsspielräume bei der Gestaltung der persönlichen Lehr-Lern-Aktivitäten sehr unterschiedlich beeinflussen können.

Mit Hilfe dieser Microblogging-Untersuchung folgten wir der Zielsetzung, ein möglichst vorurteilsloses Bild des Verhaltens von Lernenden mit Netbooks zu zeichnen. Das Netbook verstanden wir dabei als Akteur, der in der Lage ist, auf das Handeln der lernenden Person (beispielsweise situations-, orts- oder kontextbezogen) sehr unterschiedlich Einfluss zu nehmen. Aufgrund der Möglichkeiten, die den Lernenden jeweils von ihrem Netbook geboten wurden, nutzten sie diese sehr unterschiedlich. Indem wir den Akteuren möglichst unvoreingenommen folgten, wurde es möglich, ein reales Bild der Akteur-Netzwerk-Beziehungen zu erkennen und im Sinne der Akteur-Netzwerk-Theorie zu untersuchen.

?

Betrachten Sie eine konkrete Technologie, die Sie in Ihrem Unterrichtsalltag verwenden. Überlegen Sie, in welcher Form diese Technologie die Lehr-/Lern-Arrangements Ihres Unterrichts beeinflusst. Welche Möglichkeiten bieten sich an, die Technologie noch besser oder effizienter zu nutzen beziehungsweise den Einfluss dieser Technologie zu ändern?

Die Akteur-Netzwerk-Theorie

Literatur

Barrierefreiheit

Grundlage gerechter webbasierter Lernchancen

E-Learning-Technologien verfügen über ein großes Potenzial, um pädagogische Konzepte zu realisieren, welche individuelle Anforderungen und Interessen unterstützen. Leider behindert mangelndes Bewusstsein und fehlendes Know-How auf Seiten von Lehrenden, Entwicklerinnen und Entwicklern und Administratorinnen und Administratoren die Möglichkeiten auszuschöpfen, um Barrieren in Lernmaterialien und Lernumgebungen abzubauen. Dieses Kapitel stellt grundlegende Informationen und Hinweise zur Barrierefreiheit von webbasierten Informations- und Kommunikationstechnologien zusammen und gibt konkrete Hinweise für die Verwendung Assistierender Technologien (AT) in Lehr- und Lernkontexten.

Barrierefreiheit

Grundsätzliches Verständnis von Barrierefreiheit: „equality = e-quality“

Informations- und Kommunikationstechnologien (IKT) zeichnen sich durch die Multimedialität der Darstellung und Multimodalität der Bedienungsschnittstellen aus: Bei einem digitalen Dokument werden erst in dem Moment, in dem auf ein Dokument zugegriffen wird, mit IKT und assistierenden Technologien die medialen Qualitäten (Darstellung) und die Modalitäten der Steuerung (Handhabung) des Dokuments realisiert. Durch diese Trennung entsteht die Möglichkeit auf ein und dasselbe Dokument auf unterschiedliche Art und Weise zuzugreifen, es auf unterschiedlichste Weise zu medialisieren und handzuhaben.

In der Praxis : Benutzung einer Braillezeile

Auch Sehbeeinträchtigte und Blinde können Beiträge aus dem Internet lesen. Dazu wird der Text in einem Online-Forenbeitrag mittels einer Braillezeile, also einem Computerausgabegerät für Blinde, in Brailleschrift umgewandelt. Die auf der Braillezeile erzeugten Erhöhungen in Blindenschrift können dann mit den Fingerspitzen abgegriffen werden. Der gleiche Text könnte durch ein ‚Screenreader-Programm’ alternativ laut vorgelesen oder mittels Vergrößerungssoftware größer dargestellt werden.

Abb. 1: Benutzung einer Braillezeile
Abb. 1: Benutzung einer Braillezeile

Zu allen Bereichen, in denen Informations- und Kommunikationstechnologien zum Einsatz kommen, können Menschen mit Behinderung mittels Assistierenden Technologien (AT) selbständig(er)en und selbstgesteuert(er)en Zugang finden. Das gilt aber nur unter der Voraussetzung, dass die IKT-basierten Systeme Grundsätze und Standards des barrierefreien Zugangs befolgen (Miesenberger, 2004).

Assistierende Technologien (AT) bezeichnen Ausstattungen oder Software-Produkte, die verwendet werden, um die funktionalen Fähigkeiten von Menschen mit Behinderungen zu erhöhen, zu erhalten oder zu fördern. Darunter fallen Computertechnologien wie Screenreader, Spracheingaben, Vergrößerungssoftware oder Bildschirmtastatur. Sie helfen Menschen, selbstständig und unabhängig ihre Ziele in der Gesellschaft zu erreichen. Es existieren beinahe für jede Art einer Behinderung Ansatzpunkte, um über AT die Nutzung von IKT und über diese die Teilnahme an lebensweltlichen Prozessen zu ermöglichen.

Für den Zugang zu Informationen auf Webseiten und Lernumgebungen stehen sowohl für die Ein- als auch die Ausgabe zahlreiche Geräte zur Verfügung, die über Bildschirm, Tastatur, Maus und Drucker hinausgehen. Assistierende Technologien benutzen die Kodierung sowie den Inhalt einer Webseite und machen sie zugänglich.

In der weitreichenden Um- und Neugestaltung nahezu aller Bereiche der Lebenswelt durch Informations- und Kommunikationstechnologien liegen daher Anknüpfungspunkte für die Teilhabe behinderter Menschen an der Lebenswelt mittels Assistierender Technologien. Die Realisierung von Chancengleichheit (englisch ‚equality’) in der Gesellschaft für Menschen mit Behinderungen ist in immer größerem Maße von der Qualität der IKT, also von ‚e-Quality’, abhängig – daraus erwächst für die Gestaltung besonders im Bildungsbereich eine besondere Verantwortung (Miesenberger, 2008).

?

Verschaffen Sie sich auf http://www.rehadat-hilfsmittel.de/de/kommunikation-information/computer_und_zubehoer_software/index.html und http://www.barrierefrei-kommunizieren.de/datenbank/index_produkte.php?art=wkin einen Überblick über die breite Palette von Assistierenden Technologien (AT).

Bereits in der Gestaltung von webbasierten Lernumgebungen und -materialien müssen die Anpassung an und die Optimierung für die Nutzbarkeit für einzelne Nutzer/innen in ihrer jeweiligen Situation und den jeweiligen Voraussetzungen beziehungsweise den Schnittstellengeräten beachtet werden. Anstelle der Gestaltung einer starren, an ‚durchschnittlichen’ Nutzerinnen und Nutzern orientierten Benutzerschnittstelle (‚Interface’) treten Individualisierbarkeit und Adaptivität in den Vordergrund, welche letztendlich die Akzeptanz und die Nutzbarkeit der Systeme für alle unterstützen.

!

Barrierefreiheit bedeutet letztlich, dass Menschen unabhängig von Behinderung, Alter und technischer Infrastruktur auf Inhalte zugreifen können.

Jede/r, die/der über eine Sinneswahrnehmung (zum Beispiel visuell, auditiv, taktil) verfügt, kann mit dieser die Informationsausgabe eines Computers wahrnehmen, beziehungsweise die Informationseingabe steuern – unabhängig von ihrer/seiner Behinderung (Miesenberger, 2005). Da dies aufgrund der unzähligen, auch individuell geprägten Barrieren nicht vollständig erreicht werden kann, spricht man auch von barrierearm oder zugänglich (englisch „accessible“).

Barrierefreiheit

Zahl der Menschen mit Behinderung

Im Behindertenbericht 2008 werden behinderte Menschen als sehr heterogene Gruppe charakterisiert, die sich hinsichtlich zahlreicher Dimensionen differenziert (Bundesministerium für Arbeit, Soziales und Konsumentenschutz, 2009). Laut einer im Auftrag des Sozialministeriums von der Statistik Austria durchgeführten Mikrozensus-Erhebung (Oktober 2007 bis Februar 2008) gaben 20,5% aller Befragten an, eine dauerhafte Beeinträchtigung zu haben, das sind hochgerechnet 1,7 Mio. Personen der österreichischen Wohnbevölkerung. Dazu zählen sowohl Menschen mit psychischen Problemen oder vollständig immobile Menschen als auch Menschen mit leichten Sehbeeinträchtigungen. Die im Behindertenbericht 2008 zitierten Ergebnisse der von der EU vorgeschriebenen jährlichen „Erhebung zu den Einkommen und Lebensbedingungen“ (EU-Statistics on Income and Living Conditions – EU-SILC, Sekundärzit. nach Bundesministerium für Arbeit, Soziales und Konsumentenschutz, 2009, 9) fokussieren auf subjektiv wahrgenommene starke Beeinträchtigung bei der Verrichtung alltäglicher Arbeiten, die mindestens schon sechs Monate andauert. Hochgerechnet wären auf dieser Basis circa 630.000 Personen Menschen mit Behinderungen. Die Anzahl der Personen die eine Behinderung im Sinne des Gesetzes in Österreich haben, liegt bei circa 330 000. EU-Schätzungen gehen von einem 10 Prozent Anteil der Menschen mit Behinderungen an der Bevölkerung im EU-Raum aus. Sie stellen damit auch 10 Prozent der Wähler/innen, der Konsumentinnen und Konsumenten, der Arbeitskräfte und auch der potenziellen Bildungsteilnehmer/innen (Grill, 2005).

Barrierefreiheit

Arten der Behinderung und spezielle Bedürfnisse hinsichtlich Barrierefreiheit

Jeder Mensch kann in der Nutzung von webbasierten Lehr- und Lerntechnologien auf eine oder mehrere Barrieren stoßen. Wird bei Inhaltserstellung und Administration auf die speziellen Bedürfnisse behinderter Benutzer/innen geachtet, lassen sich diese Barrieren beseitigen oder zumindest minimieren. Dazu sind Kenntnisse unterschiedlicher Formen von Behinderungen und deren Effekte auf die Nutzung von Informations- und Kommunikationstechnologien und insbesondere des World Wide Web nötig. Im Folgenden lernen Sie die vier Hauptkategorien von Behinderungen kennen: Sehbehinderungen, Hörbehinderungen, Mobilitätsbehinderungen sowie Wahrnehmungs- und Lernbehinderungen.

Sehbehinderung

Menschen mit Sehbehinderungen verfügen entweder über eine eingeschränkte Sehleistung oder über Blindheit. Die Anforderungen an die Gestaltung von webbasierten Lernumgebungen können abhängig von der Form der Sehbehinderung sehr unterschiedlich sein.

Sehbehinderte Menschen arbeiten mit einem in Größe, Farbe (Kontrast), Schriftart (serifenlose Schriften), Linienart (durchgezogen, strichliiert, punktiert, strichpunktiert), Schraffierung, Abstand und Anordnung angepassten Bildschirminhalt. Bei leichten Sehbehinderungen entsteht kein großer Bedarf einer Spezialisierung. Anpassungen der Einstellungen für die Darstellung im Betriebssystem führen zu der gewünschten Verbesserung der Nutzbarkeit. Erst bei schwerer Beeinträchtigung der Sehleistung, die eine Vergrößerung um das mehr als 3- bis 5-fache erfordert, werden die Navigation und die Orientierung am Bildschirm stark eingeschränkt.

Zusätzlich wird bei stärkeren Sehbehinderungen das Verwenden der Maus schwierig (zum Beispiel Hand- und Augenkoordination, Verfolgen des Mauscursors). Daher ist ein direktes Erreichen der Interface-Elemente (Interface = Schnittstelle) mittels Short-Cuts (bestimmte Tastaturbefehle um schneller zu navigieren beziehungsweise Befehle auszuführen) effizienter. Dementsprechend müssen sowohl Unterlagen zum Arbeiten am Computer als auch Informationssysteme adaptiert und diese sonst oft ausgelassenen Steuerungsmechanismen berücksichtigt werden.

Für farbblinde und sehschwache Menschen ist die Verwendung von stark kontrastierenden Farben hilfreich und wichtig. Informationen sollten nicht durch eine Eigenschaft alleine (zum Beispiel Kontrast, Farbtiefe, Größe, Lage oder Schriftart) dargestellt werden.

Blinde Computernutzer/innen können die Maus nicht verwenden. Sie verwenden die Pfeiltasten oder spezielle Mausemulationen (Funktionen einer Maus werden mittels anderer Möglichkeiten nachgestellt) auf dem Braille-Display, um den Cursor oder Systemfokus zu navigieren. Für blinde Menschen sind daher Short-Cuts und Tastaturbefehle sehr wichtig.

Informationen, die nur visuell wahrnehmbar sind (zum Beispiel Bilder, Videos, Flash-Animationen), benötigen Alternativtexte und müssen ihre Rolle (zum Beispiel ‚button’) und Eigenschaften bereitstellen, damit die Inhalte vom Screenreader ausgelesen und das System von blinden Nutzerinnen und Nutzern bedient werden kann.

Als Alternative zur Ausgabe auf dem Bildschirm verwenden blinde Menschen:

Hörbehinderung

Menschen mit Hörbehinderung und gehörlose Menschen können weitestgehend ungehindert am Computer arbeiten, da sie Informationen visuell vom Bildschirm ablesen und zum Teil Lautstärke und Töne an ihre Bedürfnisse anpassen können. Neben der Zugänglichkeit auditiver Elemente ist das Verstehen und Verarbeiten von komplexen sprachlichen Zusammenhängen oft schwierig, weil die Schriftsprache nicht die Muttersprache ist beziehungsweise Defizite im Spracherwerb vorliegen. Daher sollten Alternativen für auditive Inhalte (zum Beispiel Untertitel), eine gut verständliche Sprache (‚easy to read’, siehe Abschnitt Lernbehinderungen) und ikonische Darstellungen, das heißt mit Bildern, Videos oder Animationen, bereitgestellt werden. Gebärdensprache ist eine eigenständige Sprache, die von gehörlosen Menschen verwendet wird. Übersetzungen in Gebärdensprache sind teilweise notwendig, aber ressourcenintensiv, zum Beispiel die Übersetzung und die Aufbereitung von Lernunterlagen als Gebärdensprachvideos.

!

Für gehörlose Menschen ist es nicht immer einfach, Texte zu verstehen, die sich an die Sprachkonventionen der Hörenden anlehnen. Versuchen Sie umgekehrt, einige Begriffe der deutschen Gebärdensprache zu erlernen und einen einfachen Satz zu bilden.

Mobilitätsbehinderungen

Bei Menschen mit Mobilitätsbehinderungen können Bewegung und Feinmotorik beeinträchtigt sein. Spezielle, leicht handzuhabende Eingabegeräte (zum Beispiel Tastaturen, Schalter, Bedienelemente) ermöglichen die Bedienung eines Computers. Für eine barrierefreie Gestaltung ist darauf zu achten, dass die Steuerung über Tastaturbefehle möglich ist, die über obige alternative Eingabegeräte oder Spracheingabe realisiert werden können. Zudem sollte die Geschwindigkeit (zum Beispiel bei erforderlichen Tastatureingaben) individuell einstellbar sein und Tastenkombinationen auch hintereinander eingegeben werden können.

Wahrnehmungs- und Lernbehinderungen

Menschen mit Wahrnehmungs- und Lernbehinderungen (zum Beispiel Dyslexie: Störungen des Kurzzeitgedächtnisses) können durch eine einheitliche Strukturierung der (Lern-)Inhalte und der Navigation, gleiches Layout und Design sowie vor allem eine den Nutzern und den Nutzerinnen angepasste Textwahl – ‚leichte Sprache’ (‚easy to read’) – unterstützt werden. Einfachere Sprache wird für Menschen mit geringen sprachlichen Fähigkeiten verwendet, ist jedoch auch eine Forderung für die verständliche Darstellung wissenschaftlicher Inhalte (Freyhoff et al., 1998). Das Angebot von gleichen, aber unterschiedlich aufbereiteten Informationen, zum Beispiel als Text und als Sprachaufzeichnung, kann für Menschen mit Wahrnehmungs- und Lernbehinderungen hilfreich sein, um das Material besser zu verstehen.

!

Für ein vertieftes Verständnis der Internetnutzung durch Menschen mit Behinderung lesen Sie bitte "How People with Disabilities Use the Web": http://www.w3.org/WAI/intro/people-use-web

Barrierefreiheit

Gesetzliche Rahmenbedingungen und Richtlinien / Standards zur Umsetzung

Von wesentlicher Bedeutung für die Regelungen zur Barrierefreiheit in den europäischen Mitgliedsstaaten ist das Gemeinschaftsrecht der Europäischen Union. Besondere Bedeutung kommt dabei den Antidiskriminierungsrichtlinien 2000/43/EG und 2000/78/EG zu. Diese wirken prägend auf die nationale Gesetzgebung ein. In den DACH-Staaten (also Deutschland, Österreich, Schweiz) wird die gleichberechtigte Teilhabe von Menschen mit Behinderung in der Gesellschaft, darunter fällt auch die Anteilnahme an Bildungsangeboten, durch verschiedene Gesetzgebungen geregelt: In Deutschland durch das Behindertengleichstellungsgesetz (zum Beispiel § 11 BGG) und in der Schweiz durch das Bundesgesetz über die Beseitigung von Benachteiligungen von Menschen mit Behinderungen (BehiG). In Österreich fällt ‚barrierefreies E-Learning’ unter zwei Gesetzestexte: das Bundes-Behindertengleichstellungsgesetz (BGStG) sowie das E-Government-Gesetz (E-GovG). Das BGStG definiert in § 6 Abs. 5 BGStG unter anderem, wann von Diskriminierung gesprochen wird und welche Bereiche in Österreich auch vom Gesetz wegen barrierefrei zugänglich sein müssen. In § 5 BGStG wird noch speziell auf die kommunikationstechnischen Barrieren eingegangen. Für Gröblinger (2007) hat die gesetzliche Verankerung eines Diskriminierungsverbots, das explizit sich an die Öffentlichkeit richtende Angebote behandelt, die Konsequenz, dass insbesondere Vorlesungen (gegebenenfalls mit E-Learning-Anteilen) an Hochschulen berücksichtigt werden müssen, da diese ebenfalls für die Öffentlichkeit zugänglich sind. Im Jahr 2002 unternahm Deutschland einen weitaus massiveren Schritt in der Gesetzgebung als Österreich, indem die Barrierefreie Informationstechnik-Verordnung (kurz BITV) als Ergänzung des bestehenden Behindertengleichstellungsgesetzes herausgegeben wurde. In Österreich gibt es Empfehlungen für die Anwendung der WCAG (2.0) auf Stufe AA (das heißt, alle für die Konformitätsstufe AA notwendigen Erfolgskriterien müssen erfüllt sein). Tesar et al. (2009) übertragen die Anforderungen auf webbasierte Lernumgebungen im Bildungsbereich und fordern auf der Basis der gesetzlichen Regelungen die barrierefreie Gestaltung von interaktiven und webbasierten Lernangeboten. Durch die Veröffentlichung der WCAG 2.0 als ISO/IEC 40500 (Oktober 2012) und dem im August 2012 veröffentlichten PDF/UA-Standard als ISO 14289-1 können sich Unternehmen und Behörden auch auf ISO-Standards stützen, die mittels standardisierten Ansätzen die Zugänglichkeit, insbesondere im Bereich der Webtechnologien, sicher stellen und sich auch für eine Übersetzung und Umsetzung in nationalem Recht anbieten würden.

Barrierefreiheit

Grundlegende Anforderungen – Zugangsrichtlinien

Die Barrierefreiheit von Lehr- und Lerntechnologien wird von vier Aspekten wesentlich beeinflusst (Abbildung 2):

Abb. 2: Zugangsrichtlinien und technische Spezifikationen
Abb. 2: Zugangsrichtlinien und technische Spezifikationen

!

Für eine vertiefende Übersicht über die einzelnen Komponenten und wie diese in der Webentwicklung und -interaktion zusammen arbeiten, lesen Sie:

Die grundlegenden Anforderungen an Barrierefreiheit von webbasierten Dokumenten werden in den Web Content Accessibility Guidelines (WCAG) 2.0 (als ISO/IEC 40500 anerkannter ISO-Standard) festgelegt. Die WCAG werden von der Web Accessibility Initative (WAI) des World Wide Web Consortiums (W3C, 2008a) herausgegeben und stellen eine der wichtigsten Richtlinien zur barrierefreien Gestaltung von webbasierten Umgebungen dar. Sie definieren, wie Webinhalte für alle Menschen – nicht nur für Menschen mit Behinderungen (einschließlich visueller, auditiver, motorischer, sprachlicher, kognitiver, Sprach-, Lern- und neurologischer Behinderungen) und ältere Menschen – barrierefreier gestaltet werden können. Die Zugangsrichtlinien der WCAG 2.0 orientieren sich an vier grundlegenden Prinzipien, die im Verständnis der WAI die Grundlage der Barrierefreiheit im Web darstellen: Wahrnehmbarkeit, Bedienbarkeit, Verständlichkeit und Robustheit. Mit der Formulierung der WCAG 2.0 unter diesen Gesichtspunkten wird angestrebt, die Prinzipien der Barrierefreiheit unabhängig von heutigen und zukünftigen Techniken zu formulieren (W3C, 2008b). Eine Übersetzung finden Sie in der nachfolgenden Textbox ‚### In der Praxis’.

Wird eine oder mehrere der vier Prinzipien verletzt, wird die Zugänglichkeit der Inhalte für Menschen mit Behinderung ganz oder teilweise unmöglich gemacht. Unter jedem der Prinzipien werden Richtlinien und Erfolgsfaktoren für die Anwendung definiert. Es gibt eine große Zahl von allgemeinen Usability-Richtlinien (siehe auch Kapitel #usability), in den WCAG 2.0 werden nur jene angeführt, die sich speziell auf Problembereiche für Menschen mit Behinderung beziehen (W3C, 2008b).

Barrierefreiheit

Zentrale Problematiken hinsichtlich webgestützten Lehrens und Lernens

Konzeption

Im konkreten Design von webbasiertem Lernen sind nach Arrigo (2005) technologische und methodologische Aspekte zur Sicherstellung der vollständigen Zugänglichkeit von Online-Lernumgebungen und -materialien zu berücksichtigen.

In methodischer Hinsicht steht an erster Stelle die Identifizierung der Ansprüche der Nutzergruppe an Barrierefreiheit und in einem zweiten Schritt die Identifizierung der Eigenschaften der Lernobjekte hinsichtlich Barrierefreiheit. Letztere sollten in standardisierten Beschreibungen formalisiert werden, um ein Matching der Lerninhalte mit den bevorzugten Einstellungen der Lernenden zu ermöglichen. Jeschke et al. (2008) empfehlen mittels semantischer Enkodierung die Auszeichnung nicht nur von Inhalten, sondern auch aller inhaltsverbundenen Aspekte, wie etwa der Navigation. Ziel ist es, präsentationsorientierte Informationen für die von den Benutzerinnen und Benutzern verwendeten Technologien zur Verfügung zu stellen, um die Inhalte passend darzustellen. Zur Umsetzung wird von ihnen die modellgetriebene Entwicklung von barrierefreien Lernangeboten, zum Beispiel auf der Basis der Unifying Modeling Language 2 (UML 2), vorgeschlagen.

In technischer Hinsicht identifizieren Karampiperis und Sampson (2005) zwei grundsätzliche Aspekte, die es bei der Umsetzung von webbasiertem Lernen zu berücksichtigen gilt: Einerseits die Entwicklung von zugänglichen Lerninhalten und andererseits die Entwicklung von zugänglichen Schnittstellen und Interfaces, um die Inhalte aufrufen zu können. Letzteres beinhaltet auch das Design des Lernmanagementsystems und seine Zugänglichkeit. Technologisch gesehen sind Webseiten die am häufigsten genutzte Möglichkeit, Informationen und webbasierte Lernmaterialien im Internet zur Verfügung zu stellen. Trotz WAI-Richtlinien, Design-for-All, Universal-Design-Prinzipien, ISO-Standards und Verordnungen beziehungsweise Richtlinien sind viele Webseiten aber noch immer unzugänglich für Menschen mit Behinderung (Arrigo, 2005).

Lernplattformen und Lernumgebungen

Entwickler/innen von Lernplattformen und Lernumgebungen haben in vielen Fällen in den letzten Jahren große Anstrengungen hinsichtlich der Barrierefreiheit der von ihnen betreuten Produkte unternommen. Das Projekt VIP-Learn hat Leitlinien zur Begutachtung von Lernmanagement-Software erstellt, die für eine erste Begutachtung von Lernplattformen herangezogen werden können (URL: http://www.bfw-dueren.de/projekte/abgeschlosseneprojekte/e-learn-vip/projekt-verffentlichungen/c4ea_gl_lms_de.pdf).

Spezialfälle bei bestimmten Dateiformaten / Multimedia

Um die Vorteile von multimedialen Lernelementen auch für Menschen mit Behinderung zugänglich zu machen, sind Zugänglichkeitsüberlegungen schon beim Design und der Implementierung von multimedialen Inhalten zu berücksichtigen. CANnect, ein kanadisches Konsortium von Schulen und Philanthropen, identifiziert vier Aspekte, welche die Zugänglichkeit von multimedialen Inhalten negativ beeinflussen: unzugängliche Formate, fehlende Transkription von Audioinhalten, fehlende synchronisierte Untertitelung für Videodateien und fehlende Audiobeschreibung von Videodateien (CANnect, 2010). Darüber hinaus muss die Steuerung der Audio- und Videowiedergabe mittels Tastatur möglich und der Zugriff sowie die Verständlichkeit für Personen, die einen Screenreader verwenden, gegeben sein. Als Alternative zu kommerziellen Formaten bietet sich die Synchronized Multimedia Integration Language (SMIL) an. SMIL ist ein auf XML basierender, vom W3C entwickelter Standard für eine Auszeichnungssprache für zeitsynchronisierte, multimediale Inhalte und ermöglicht die Einbindung und Steuerung von Multimedia-Elementen wie Audio, Video, Text und Grafik in Webseiten.

CANnect nimmt einen klaren Standpunkt zu den folgenden Technologien ein: Flash, Silverlight und JavaFX sind Plattformen für die Entwicklung von Rich Internet Applications (RIAs) und beim derzeitigen Stand keine geeigneten Instrumente, um Textinhalte webbasiert anzubieten. Keine dieser Plattformen verfügt über die Möglichkeiten von HTML, Inhalte zu strukturieren und barrierefrei darzustellen (URL: http://projectone.cannect.org/advice/non-html-dynamic.php).

Die Konzeption des Portable Document Format (PDF), das Erscheinungsbild eines Dokuments auf allen Plattformen gleich aussehen zu lassen, widerspricht einem wichtigen Element von Barrierefreiheit: Die Darstellung von Inhalten sollte von Nutzerinnen und Nutzern an ihre individuellen Bedürfnisse angepasst werden können. Es empfiehlt sich vor der Erstellung eines PDF-Dokuments zu überlegen, ob nicht ein anderes Format, beziehungsweise bei Verwendung im Internet XML die bessere Alternative ist. Falls das PDF-Format verwendet werden muss, sollte ‚tagged PDF’ verwendet werden (erst dadurch wird das Dokument besser zugänglich), beziehungsweise eine Nachbesserung mit dem Softwareprogramm Adobe Acrobat Pro vorgenommen werden. Gute Ergebnisse hinsichtlich der Zugänglichkeit von PDF-Dokumenten lassen sich beispielsweise bei der Gestaltung des Dokuments in OpenOffice mit korrekter Strukturauszeichnung und dem PDF-Export erzielen. Die Verwendung von Lesezeichen fördert darüber hinaus die Navigation mit der Tastatur.

In der Praxis: Prinzipien und Leitlinien der Web Content Accessibility Guidelines 2.0

Vorbemerkung: Übersetzung der folgenden Prinzipien und Leitlinien der Web Content Accessibility Guidelines 2.0 (http://www.barrierefreies-webdesign.de/wcag2/index.html)

Prinzip 1: Wahrnehmbarkeit

Mit dem Prinzip Wahrnehmbarkeit soll sichergestellt werden, dass alle Funktionen und Informationen so präsentiert werden, dass sie von jeder Nutzerin und jedem Nutzer wahrgenommen werden können.

Konkret bedeutet das: Stellen Sie Textalternativen für alle Nicht-Text-Inhalte zur Verfügung, so dass diese in andere vom Benutzer benötigte Formen geändert werden können, wie zum Beispiel Großschrift, Braille, Symbole oder einfachere Sprache. Stellen Sie Alternativen für zeitbasierte Medien zur Verfügung. Erstellen Sie Inhalte, die auf verschiedene Arten dargestellt werden können (zum Beispiel anderes Layout), ohne dass Informationen oder Struktur verloren gehen.

Praktische Anwendungsbeispiele: Keine rein grafischen Navigationselemente verwenden, schriftliche Alternative zu allen akustischen Geräuschen anbieten, skalierbare Schriftgrößen, Möglichkeit der individuellen Farbeinstellungen, ausreichender Kontrast, zum Beispiel von Text und Hintergrundfarbe, keine Information allein durch Farbwechsel transportieren.

Prinzip 2: Bedienbarkeit

Zur Sicherstellung der Bedienbarkeit müssen die Interaktionselemente der Anwendung von jeder Nutzerin und jedem Nutzer bedienbar sein.

Richtlinien: Sorgen Sie dafür, dass alle Funktionalitäten per Tastatur zugänglich sind. Geben Sie den Benutzer/innen ausreichend Zeit, Inhalte zu lesen und zu benutzen. Gestalten Sie Inhalte nicht auf Arten, von denen bekannt ist, dass sie zu Anfällen führen. Stellen Sie Mittel zur Verfügung, um Benutzer dabei zu unterstützen zu navigieren, Inhalte zu finden und zu bestimmen, wo sie sich befinden.

Praktische Anwendungsbeispiele: Für die Verwendung sollen keine speziellen Eingabegeräte benötigt werden. Alle Funktionen sind über die Tastatur (ohne Maus) steuerbar. Es gibt keine Zeitbeschränkungen. Die Navigationsbereiche sind ausreichend groß bzw. weit genug auseinander positioniert. Zur Bedienung sollten keine bewegten Elemente (zum Beispiel Flash-Animationen) verwendet werden.

Prinzip 3: Verständlichkeit

Das Prinzip Verständlichkeit besagt, dass in einer Webseite die Inhalte so einfach wie möglich angeboten werden sollen. Zusätzlich sollen diese in einer intuitiv erfassbaren Struktur, in der die Orientierung leicht fällt, eingebunden werden.

Richtlinien: Machen Sie Inhalte lesbar und verständlich. Sorgen Sie dafür, dass Webseiten vorhersehbar aussehen und funktionieren. Helfen Sie den Benutzern dabei, Fehler zu vermeiden und zu korrigieren.

Praktische Anwendungsbeispiele: Komplexität der Inhalte an den Nutzer/innen ausrichten – möglichst ‚einfache’ Sprache verwenden. Visuelles Rauschen, zum Beispiel durch Farben, Ausrufezeichen, bestimmte Schrifttypen, vermeiden. Auf die wesentlichen Funktionen beschränken sowie auf umfangreiche Verwendung von Hintergrundinformationen und Zusatzfunktionen verzichten. Auf Fachausdrücke, Jargon, Anglizismen verzichten. Auf übersichtlichen Satzbau achten. Intuitive, logische Strukturierung der Inhalte oder der (Lern-)Umgebung vorsehen. Suchfunktion und Verlinkungen sinnvoll einsetzen. Symbole und Grafiken unterstützend einsetzen. Gegebenenfalls Gebärdensprachvideos anbieten.

Prinzip 4: Robustheit

Inhalte müssen robust genug sein, damit sie zuverlässig von einer großen Auswahl an Benutzeragenten einschließlich assistierender Techniken interpretiert werden können.

Richtlinie: Maximieren Sie die Kompatibilität mit aktuellen und zukünftigen Benutzeragenten, einschließlich assistierender Techniken.

Praktische Anwendungsbeispiele: Interoperabilität und Kompatibilität zu gängigen Produkten (zum Beispiel Vorlese- oder Vergrößerungssoftware) berücksichtigen. In der Planungsphase, zum Beispiel von Lernszenarien oder Online-Seminaren auf möglichen Zugang für assistive Technologien achten. Auf Weiterentwicklungen von Technologien achten, zum Beispiel hat sich die Zugänglichkeit von einigen Lernmanagementsystemen in den letzten Jahren stark verbessert.

Durch die Umsetzung des ISO-Standards ‚ISO 14289-1. Document management applications – Electronic document file format enhancement for accessibility – Part 1: Use of ISO 32000-1 (PDF/UA-1)’ in Softwareprodukten soll es Anwender/innen in Zukunft noch leichter möglich sein, zugängliche PDF-Dokumente zu erstellen. PDF/UA-1 definiert Anforderungen an barrierefreie PDF-Dokumente, die von Softwareherstellerinnen und -herstellern, Behörden und Unternehmen in zunehmend stärkerem Maß angewandt und in Software zur Erstellung von PDF-Dokumenten einfließen werden (http://www.access-for-all.ch/en/accessibility/accessible-pdf/pdf-ua.html).

In der Praxis: Accessibility Check

Mit dem PDF Accessibility Checker (PAC 2) können Sie PDF-Dateien rasch bezüglich Barrierefreiheit testen: http://www.access-for-all.ch/ch/pdf-werkstatt/pdf-accessibility-checker-pac.html.

Barrierefreiheit

Werkzeuge und Methoden zur Überprüfung und Optimierung

Barrieren im Bereich Informationstechnik lassen sich durch folgende Maßnahmen aufspüren und beseitigen. Bitte beachten Sie, dass die barrierefreie Umsetzung von IKT basiertem Lehren und Lernen Spezialwissen benötigt, das eventuell die Einbeziehung von Expertinnen und Experten, zum Beispiel in der Anpassung von Learning Management Systemen, benötigt.

Ausprobieren

Eine grundlegende Methode, um die Zugänglichkeit zu testen, ist das Ausprobieren der Webseite mit verschiedenen Browsern, Betriebssystemen, Aus- und Eingabegeräten sowie Übertragungsraten unter Einbeziehung möglichst unterschiedlicher Nutzer/innen in unterschiedlichen Situationen und mit unterschiedlichen Voraussetzungen. Als sehr effektiv hat sich die Verwendung eines Text-Browsers (zum Beispiel Lynx, http://lynx.browser.org/) oder die Verwendung des WebFormators (stellt den Inhalt einer Internetseite in einem separaten Textfenster dar, http://www.webformator.de) erwiesen. Für Firefox gibt es die Erweiterung Fangs, die einen Screenreader emuliert (http://addons.mozilla.org/).

?

Installieren Sie den Textbrowser Lynx (http://lynx.browser.org/) und versuchen Sie in einer beliebigen Online-Zeitung oder einer Lernplattform zu navigieren.

Kriterienkataloge

Die Biene-Kriterien (Barrierefreies Internet Eröffnet Neue Einsichten) stellen einen übersichtlich dargestellten Katalog von Zugänglichkeitskriterien dar, der auch für technisch weniger Versierte leicht nachvollziehbar formuliert ist (hier für den derzeit letzten Wettbewerb 2010: http://www.biene-wettbewerb.de/kriterien/BIENE-Kriterien-2010.pdf). Die WCAG 2.0 (W3C, 2008b) stehen im Zentrum zahlreicher Richtlinien und Spezifikationen. Sie decken einen großen Bereich von Empfehlungen ab, um Webinhalte barrierefreier zu machen. Von Universitäten und anderen Einrichtungen wurden Checklisten zur barrierefreien Gestaltung von Webanwendungen und Webauftritten erstellt.

!

Hier zwei Beispiele:

Automatisierte Prüfverfahren

Automatisierte Prüfverfahren sind eine nützliche Hilfe für die Evaluierung bestehender und die Erstellung neuer Webseiten. Mit ihnen lassen sich Schnelltests in kurzen Zeitabständen wiederholen, um auch die laufenden Aktualisierungen oder letzten Versionen auf formale Richtigkeit zu überprüfen. Automatische Prüfprogramme können nur unterstützende Werkzeuge sein, weil durch sie lediglich das Vorhandensein zum Beispiel von Alternativtexten, Struktur- und Metadaten im Quelltext geprüft, nicht aber deren (Un-)Sinn oder Qualität überprüft wird (Zapp, 2004).

Hier einige Beispiele für Browser-Erweiterungen und Online-Werkzeuge, welche die Einhaltung von Webstandards und Accessibility-Kriterien überprüfen und das Verhalten einer Webseite unter verschiedenen Anzeige- und Rezeptionsbedingungen simulieren:

Good-/Best-Practice-Beispiele

Vorbilder findet man zum Beispiel unter den Preisträgern des BIENE-Wettbewerbs der Aktion Mensch. Aufschlussreich ist auch ein Blick in den Quelltext der Webseiten von Blindenbibliotheken.

Professionelle Expertise und Beratung

Die Komplexität der Umsetzung barrierefreier Informationstechnik erfordert in vielen Fällen professionelle Beratung begleitend zur Projektplanung und zur Qualitätskontrolle. Universitäten, Verbände und Initiativen bieten darüber hinaus Lehrgänge und Workshops zu einzelnen Aspekten barrierefreier Informationstechnik an.

Barrierefreiheit

Ausblick

Jede Seite im Intra- oder Internet, jeder im Netz publizierte Text, jeder Beitrag oder Kommentar in einer Mailingliste, einem Weblog oder öffentlichen Chat, jedes auf einschlägige Plattformen hochgeladene Lernobjekt, Foto, Video oder Podcast, jeder Wiki-Eintrag und jeder Microlearning-Inhalt ist eine elektronische Publikation und sollte so barrierearm wie möglich gestaltet beziehungsweise präsentiert werden.

Durch die zunehmend interaktive und mobile Internetnutzung verlagert sich die Verantwortung für die Zugänglichkeit der so erstellten (Lern-)Inhalte zunehmend von Webdesignerinnen und -designern und Content-Entwicklerinnen und -Entwicklern auf breite, im Bereich Webstandards unkundige Nutzer/innenkreise und auf die Hersteller/innen von Autorenwerkzeugen und Anwendungsprogrammen.

Der Umsetzung des W3C-Standards für Accessible Rich Internet Applications (WAI-ARIA) und der Anwendung der Authoring Tool Acessibility Guidelines (ATAG) kommt so noch stärkere Bedeutung zu. Ein barrierearmer Webauftritt unter Verwendung der W3C-Standards ist zeitgemäß und zukunftssicher bezüglich der eingesetzten Technologien, da die W3C-Empfehlungen auch zukünftig Kompatibilität mit neuen Technologien und Weiterentwicklungen gewährleisten. Der höhere Aufwand, der sich zunächst ergeben kann, wird durch die Verbesserung der Nutzbarkeit ausgeglichen und ermöglicht einigen Menschen überhaupt erst die Nutzung der Anwendung (Krüger, 2007).

!

Empfehlung zur weiteren Lektüre:

Barrierefreiheit

Literatur

Genderforschung

Ihr Blick auf das Lernen und Lehren mit neuen Technologien

Der Beitrag vermittelt einen Überblick über die Bedeutung der Genderforschung für das Lernen und Lehren mit neuen Technologien. Einleitend werden der Begriff „Gender“ sowie das Konzept des „Doing Gender“ skizziert und das Erkenntnisinteresse der Genderforschung dargestellt. Es werden die Entwicklungslinien der Genderforschung (Gleichheitsansatz, Differenzansatz und Konstruktivismus) beschrieben und deren jeweilige Fragestellungen exemplarisch im Hinblick auf das Lernen und Lehren mit neuen Technologien vorgestellt. Das Verständnis von Technologie als soziale Konstruktion war grundlegend für die Entwicklung des Konzepts der „sozialen Co-Konstruktion von Gender und Technologie“. Dabei wird davon ausgegangen, dass Gender und Technologie in einem wechselseitigen, flexiblen und formbaren Verhältnis zueinander stehen. Es wird argumentiert, dass soziale Beziehungen in Techniken und Werkzeugen „eingeschrieben“ sind, dass sich die Geschlechterverhältnisse in der Technologie sozusagen materialisieren. In gleicher Weise wie in der Entwicklung von Technologien für Lehr- und Lernzwecke pädagogische Theorie implementiert wird, ist die Technologie somit auch nicht genderneutral.

Genderforschung

Konzept von „Gender“ und Genderforschung

Der Begriff „Gender“ ist seit nunmehr einigen Jahrzehnten in wissenschaftlichen Diskursen verankert. Unter Gender werden in Abgrenzung zum biologischen Geschlecht („Sex“) gesellschaftliche Geschlechterrollen und Geschlechterverhältnisse verstanden. Dabei handelt es sich um allgemeine Vorstellungen und Erwartungen darüber, wie Frauen und Männer sind beziehungsweise sein sollten. Gender bezeichnet alles, was in einer Kultur als typisch für ein bestimmtes Geschlecht angesehen wird. Das beinhaltet geschlechtliche Zuschreibungen von bestimmten Verhaltensweisen, Interessen, Kompetenzen, Einstellungen, etc. und auch die damit verbundenen Hierarchisierungen und sozialen Machtaspekte. Gender wird sozial konstruiert: Im Konzept des „Doing Gender“ (West & Zimmermann, 1987) wird davon ausgegangen, dass die Geschlechtszugehörigkeit von Individuen entlang einer gesellschaftlich gegebenen Geschlechterordnung in einem permanenten und interaktiven Prozess immer wieder hergestellt und gefestigt wird (Gildemeister, 2008). Gender ist aber nicht nur eine Analysekategorie, sondern es stellt eine strukturierende „omnirelevante“ Bedingung für Kultur und Gesellschaft dar.

!

Unter „Gender“ (soziales Geschlecht) werden im Unterschied zum biologischen Geschlecht („Sex“) gesellschaftliche Geschlechterrollen und -verhältnisse verstanden. Gender wird entlang gesellschaftlich gegebener Geschlechterordnungen ständig neu hergestellt, i.e. „Doing Gender“. Das Ziel der Genderforschung ist es, Mechanismen offenzulegen, die Zuschreibungen bestimmter Eigenschaften, Erwartungen oder Verhaltensmuster an die Geschlechter bestimmen.

Die Genderforschung hat sich aus den „Women´s Studies“ (Frauenforschung) entwickelt, die sich in den 1960er und 1970er Jahren an US-amerikanischen Universitäten etabliert haben. Mittlerweile hat die Genderforschung Eingang in viele unterschiedliche Fachdisziplinen wie die Naturwissenschaften oder die Medizin gefunden und ist als eigenes, inter- beziehungsweise transdisziplinäres Fachgebiet vorwiegend in den Kultur-, Sozial- und Geisteswissenschaften verortet. Sie fragt nach der Bedeutung des Geschlechts für Kultur und Gesellschaft und zielt darauf ab, jene Mechanismen offenzulegen, über die das soziale Geschlecht wirksam wird. Es werden dabei Fragen nach Geschlechterrollen, -differenzen, -hierarchien und -stereotypen bearbeitet. Ziel ist es, stereotype geschlechtsspezifische Zuschreibungen von Männlichkeit und Weiblichkeit zu hinterfragen und zu dekonstruieren, um Menschen uneingeschränkt in ihrer Vielfalt und Heterogenität wahrnehmen zu können. Denn was konstruierbar ist, muss in der Folge auch dekonstruierbar sein.

Genderforschung

Ansätze und exemplarische Fragestellungen der Genderforschung im Kontext des Lernen und Lehrens mit Technologien

Im Versuch einer Systematisierung der heterogenen Ansätze der Genderforschung lassen sich im Wesentlichen drei Perspektiven in ihrer historischen Entwicklung abgrenzen. Dabei ist festzuhalten, dass Kategorisierungen naturgemäß mit einer gewissen Unschärfe belegt sind. Im Hinblick auf eine übersichtliche Darstellung wird dies im vorliegenden Beitrag jedoch in Kauf genommen. Aktuell stehen insbesondere konstruktivistische Ansätze im Zentrum der Diskussion. Aber auch frühere Ansätze behalten in ihren gesellschaftspolitischen und inhaltlichen Anliegen bis heute ihre Gültigkeit. Die Ansätze gelten trotz zum Teil heftig geführter Debatten nicht als überholt, vielmehr kritisieren und/oder ergänzen sie sich gegenseitig.

Der Ursprung der Frauenforschung ist mit dem Gleichheitsansatz assoziiert. Die Kategorie „Frau“ kam in den 1960er Jahren in Wissenschaft und Forschung nicht vor. Dieser Ansatz entstand somit aus einer parteiischen, feministischen Perspektive, dass sich sowohl Wissenschaft als auch Gesellschaft und Kultur aus der Sicht von Frauen anders darstellen als aus dem Blickwinkel von Männern. Die Fragestellungen im Rahmen des Gleichheitsansatzes suchen Belege für die Diskriminierung von Frauen durch gesellschaftliche Mechanismen. Im Zentrum steht die Forderung nach der Gleichberechtigung der Geschlechter. Im Kontext des Lernens und Lehrens mit neuen Technologien steht hier beispielsweise die Frage im Zentrum, wie sich die gesellschaftliche Stellung der Geschlechter in der Technologie abbildet: Welchen Einfluss nehmen Männer und Frauen auf die Entwicklung von Lerntechnologien? Wie werden Kauf- oder Nutzungsentscheidungen für Technologien getroffen? Auf einer didaktischen Ebene wiederum kann es hier um Fragen gehen, ob für beide Geschlechter gleichermaßen eine aktive Partizipation am Bildungsgeschehen ermöglicht wird. Was sind schließlich die Schritte, die gesetzt werden müssen, um etwaige Benachteiligungen von Frauen zu beseitigen?

!

Es lassen sich im Wesentlichen drei Ansätze der Genderforschung in ihrer zeitlichen Abfolge unterscheiden: Gleichheitsansatz, Differenzansatz und Konstruktivismus (sozialer Konstruktivismus und Dekonstruktivismus). Deren inhaltliche und gesellschaftspolitische Schwerpunktsetzungen bestimmen die forschungsleitenden Fragestellungen im Kontext des Lehrens und Lernens mit neuen Technologien.

?

Beschreiben Sie die wesentlichen Eckpunkte der Ansätze in der Genderforschung. Wo würden Sie Ihre eigene Position am ehesten verorten? Welche Vor- beziehungsweise Nachteile entdecken Sie innerhalb der Ansätze?

In den 1980er Jahren entstand ein fließender Übergang zu Differenzansätzen. Darunter sind all jene Theorien und Konzepte subsumiert, die von Geschlechtsunterschieden zwischen Männern und Frauen ausgehen. Der Ansatz basiert auf der Annahme unterschiedlicher Lebensäußerungen von Frauen und Männern durch die Einbindung in unterschiedliche Lebenswelten. Fragestellungen, die sich aus dieser Perspektive für das Lernen und Lehren mit neuen Technologien ergeben, sind beispielsweise das Internetnutzungsverhalten oder die Internetkompetenzen von Männern und Frauen, die Interessen für oder Einstellungen gegenüber neuen Technologien, Computern oder elektronischen Spielen. Aber auch geschlechtsspezifische Präferenzen für bestimmte didaktische Modelle stehen im Zentrum der Untersuchungen. Zu diesen Fragen liegt mittlerweile eine breite Forschungsbasis vor (für einen Überblick vgl. Abbot et al., 2007). Kritisch wird an Differenzansätzen angemerkt, dass sie allein durch die Benennung geschlechtsspezifischer Unterschiede – aber noch mehr durch die Einbeziehung dieser Forschungsergebnisse in die Gestaltung technologieunterstützter Lernszenarien – zu einer Festschreibung dieser Unterschiede beitragen und damit strukturell symbolische Hierarchisierungen reproduziert werden.

?

Diskutieren Sie in der Gruppe: Eine differenztheoretische Betrachtung des Lernens und Lehrens mit neuen Technologien verfestigt Stereotypen vielmehr als zu einer Dekonstruktion der Geschlechterhierarchien beizutragen. Welche Implikationen lassen sich aus dieser Aussage für die Forschung ableiten?

So wird in neueren Ansätzen des Konstruktivismus das Augenmerk auf die gesellschaftliche Konstruktion der Zweigeschlechtlichkeit gelegt. Dabei lassen sich zwei Hauptströmungen unterscheiden: der soziale Konstruktivismus und der Dekonstruktivismus.

Im sozialen Konstruktivismus wird das Augenmerk auf die Herstellung des sozialen Geschlechts, auf das „Doing Gender“, in Interaktionen und sozialen Prozessen gelegt: Gender wird in permanenten Zuschreibungs-, Wahrnehmungs- und Darstellungsroutinen reproduziert, die sich lebensgeschichtlich verfestigen und identitätswirksam sind. Diesem Prozess kommt damit, wie in Kapitel 1 beschrieben, eine weitreichende Bedeutung in der Konstruktion von Weiblichkeit und Männlichkeit zu.

Den bisher vorgestellten Ansätzen ist die zentrale Annahme gemeinsam, dass das biologische und das soziale Geschlecht analytisch voneinander getrennt werden können. Wenn das Geschlecht aber unabhängig vom biologischen Geschlecht sozial konstruiert ist, stellt sich die Frage nach der Bedeutung der Biologie. Judith Butler (1990; 1991) als wohl prominenteste Vertreterin des Dekonstruktivismus versteht nicht nur Gender, sondern auch das biologische Geschlecht („Sex“) als diskursive Konstruktion, die permanent performativ – das heißt im ständigen Zitieren von (Geschlechter-)Normen – hergestellt wird. So ruft beispielsweise auch der biologische Begriff „Frau“ eine Vorstellung hervor, die soziale Konstruktionen beinhaltet. Dabei wird es als problematisch erachtet, dass sich auf diese Weise Stereotypen verfestigen und dass dichotome Beschreibungen kein Raum für Differenzen, Vielfalt oder Heterogenität innerhalb der jeweiligen Gruppe zulassen. Im Dekonstruktivismus steht so die Dekonstruktion von Dichotomien allgemein und insbesondere auch des Systems der Zweigeschlechtlichkeit im Vordergrund.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Zwar wird im Konstruktivismus das gleiche „Material“ für die Analyse herangezogen, es ist aber nicht das Herausarbeiten von Unterschieden, das die Forschungsfragen hier bestimmt. Vielmehr interessiert die Dekonstruktion von Geschlechterpolaritäten. Unterschiede zwischen den Geschlechtern interessieren somit in ihrer Funktion zur Herstellung und Aufrechterhaltung der Zweigeschlechtlichkeit. Fragestellungen im Kontext des Lehrens und Lernens mit neuen Technologien wären hier beispielsweise: Wie kann der Heterogenität der Bedürfnisse von Lernenden Rechnung getragen werden? Welche didaktischen Ansätze, welche Organisationsformen und welche Technologien eignen sich für individualisiertes Lernen? Wie kann partizipative Technikgestaltung systematisch genutzt werden? Eröffnet das Internet, eröffnen Computerspiele neue Handlungsräume für die Geschlechter?

Genderforschung

Gender und (neue) Technologie

Im Kontext des Lernens und Lehrens mit neuen Technologien werden insbesondere Theoriebildung und Forschungsergebnisse der Genderforschung in der Technik rezipiert. Auf die Zusammenhänge von Gender und Technologie wird daher auch schwerpunktmäßig in der Folge eingegangen.

Bis in die späten 1980er Jahre war das Konzept des technologischen Determinismus das vorherrschende Modell in der Gender- und Technologiedebatte. In dieser mittlerweile in den Sozial- und Kommunikationswissenschaften als überholt angesehenen Theorieströmung wird davon ausgegangen, dass Technik soziale, politische und kulturelle Veränderungen beziehungsweise Anpassungen nach sich zieht und dass sozialer und kultureller Wandel eine Folge technologischer Entwicklungen seien. Die feministische Forschung in der Tradition der Gleichheitsansätze konzentrierte sich dabei primär auf die Fragestellungen dahingehend, wie technologische Entwicklungen Gender-Hierarchien reproduzieren können. Der Tenor ging weitgehend in die Richtung pessimistischer Einschätzungen im Hinblick darauf, dass Frauen Raum im Bereich der männlich dominierten und patriarchal organisierten Technologie zugestanden werden könnte. Technologie wurde primär als eine negative Kraft betrachtet, die Geschlechterhierarchien vielmehr reproduziert und damit eine weitere Verfestigung der strukturellen Benachteiligung von Frauen fördert, als zu einer Transformation der Geschlechterverhältnisse beizutragen.

Diese negative Sichtweise der Bedeutung von Technologien für die Geschlechterfrage wich in der weiteren Entwicklung feministischer Theorien positiveren Vorstellungen, die sich insbesondere der Betrachtung von Frauen als Opfer der gesellschaftlich-technischen Gegebenheiten entgegenstellten. Die bahnbrechenden Arbeiten von Haraway (1991), die in ihrem „A Cyborg Manifesto“ dazu ermutigt und auffordert, das positive Potential von Technologien wahrzunehmen, sind kennzeichnend für diese Perspektivenänderung in der Gender- und Technologiedebatte. Im Kontext neuer Technologien wird hier insbesondere auf Möglichkeiten hingewiesen, die das Internet für die Exploration von oder das Experimentieren mit neuen und anderen Aspekten des Selbst bieten kann (Turkle, 1995).

Die soziale Konstruktion von Technologie

Das Verständnis von Technologie als soziale Konstruktion („Social Construction of Technology“, Pinch & Bijker, 1985) kann als impulsgebend für die feministische Forschung angesehen werden. Es wird davon ausgegangen, dass nicht die Technologie das menschliche Handeln bestimmt, sondern dass das menschliche Handeln die Technologie bestimmt. Die Art und Weise, wie Technologie verwendet wird, kann nicht ohne den sozialen Kontext, in den sie eingebettet ist, verstanden werden. Vertreter/innen dieser Theorie gehen davon aus, dass Technologie deshalb „funktioniert“ beziehungsweise „nicht funktioniert“, weil sie von bestimmten sozialen Gruppen akzeptiert beziehungsweise nicht akzeptiert wird. Zentral aus der Genderperspektive ist hier das Konzept der interpretativen Flexibilität; das bedeutet, dass Technologien bei unterschiedlichen sozialen Gruppen unterschiedliche Bedeutungen haben können. So kann Lerntechnologie für Lernende eine Bedingung darstellen, die Partizipation an Lernprozessen überhaupt erst ermöglicht. Für Lehrende wiederum kann die Möglichkeit einer qualitativen Verbesserung von Lehr-/Lernprozessen im Vordergrund stehen, während auf strategischer Ebene die Notwendigkeit des Reüssierens am (Weiter-) Bildungsmarkt im Vordergrund stehen kann.

Derartige „relevante soziale Gruppen“ zeichnen sich dadurch aus, dass sie ein gleiches (beziehungsweise zwischen den Gruppen divergierendes) Verständnis der Bedeutung der Technologie haben. Dieses Verständnis ist dafür bestimmend, wie die Technologie gestaltet wird. Designentscheidungen orientieren sich so an den jeweiligen Kriterien der spezifischen Gruppen. Beim oben genannten Beispiel könnten dies neben einer Vielzahl anderer Kriterien für die Lernenden die Eignung für mobile Applikationen, für Lehrende die Möglichkeit, didaktische Funktionalitäten abzubilden, und Adaptierbarkeit sein. Auf Ebene der Organisation wiederum können Servererfordernisse oder auch die Anbindungsmöglichkeit an die hauseigenen Verwaltungssysteme die relevanten Kriterien sein. Wenn Technologien also in unterschiedlichen sozialen Gruppen jeweils unterschiedliche Bedeutungen haben, gibt es folglich auch entsprechend viele unterschiedliche Arten, Technologien zu gestalten. Diese Sichtweise impliziert eine Sichtweise des Prozesses der Technikgestaltung als grundsätzlich verhandelbar und offen. Sehr schön zu beobachten war dieser Aushandlungsprozess in der Entwicklungsgeschichte von Lernplattformen, die ursprünglich sehr stark an der Technik orientiert waren, und bei denen erst in einem zweiten Entwicklungsstadium didaktische Aspekte verstärkt in den Vordergrund gestellt wurden.

Auch wenn davon ausgegangen werden kann, dass die „relevanten sozialen Gruppen“, die in Verhandlungen beziehungsweise Kontroversen im Hinblick auf eine neue Technologie treten, derzeit noch nur zu einem geringen Teil aus Frauen bestehen und damit tendenziell eine genderspezifische Analyse nicht stattfindet, entsteht hier ein Verständnis von Technologie, das entscheidend durch die sozialen Umstände sowie Gegebenheiten und damit natürlich auch durch die Geschlechterverhältnisse geprägt wird, in denen die Technologie entsteht.

!

Der technologische Determinismus wurde in der Gender- und Technologiedebatte durch ein Verständnis von Technologie als sozial konstruiert abgelöst. Das Konzept der interpretativen Flexibilität geht davon aus, dass Technologien in unterschiedlichen Gruppen unterschiedliche Bedeutungen haben und es folglich viele Gestaltungsmöglichkeiten gibt: Damit wird der Prozess der Technikgestaltung als offen und verhandelbar verstanden.

Die soziale Co-Konstruktion von Gender und Technologie

In der aktuellen Gender und Technologiedebatte trifft das Konzept der sozialen Co-Konstruktion von Gender und Technologie auf breite Zustimmung (für einen Überblick vgl. Grint & Gill, 1995). Dabei wird davon ausgegangen, dass Gender und Technologie in einem wechselseitigen, flexiblen und formbaren Verhältnis zueinander stehen. Technologie wird, wie oben bereits festgestellt, nicht als neutral beziehungsweise wertfrei angesehen. Vielmehr wird argumentiert, dass soziale Beziehungen in Techniken und Werkzeugen „eingeschrieben“ sind, dass sich die Geschlechterverhältnisse in der Technologie sozusagen materialisieren. Technologien spiegeln somit die Geschlechterteilung beziehungsweise Ungleichheiten wider. Sie sind sowohl Grund für die als auch Konsequenz der Geschlechterverhältnisse (Wajcman, 2010).

!

Das Konzept der sozialen Co-Konstruktion von Gender und Technologie geht davon aus, dass Gender und Technologie in einem wechselseitigen Verhältnis zueinander stehen. Technologie, und damit auch Lerntechnologie, wird nicht als neutral beziehungsweise wertfrei angesehen, sondern es wird argumentiert, dass soziale Beziehungen in Techniken und Werkzeugen „eingeschrieben“ sind, dass sich die Geschlechterverhältnisse zusammen mit der Technologie sozusagen materialisieren.

?

Was ist unter der sozialen Co-Konstruktion von Gender und Technologie zu verstehen? Versuchen Sie, diesen Ansatz einem Kollegen beziehungsweise einer Kollegin zu erklären.

Hier wird Bezug genommen auf die Actors-Network-Theorie (Callon, 1986; Latour, 2005; siehe Kapitel #ant), in der das Verhältnis von Technologie und Gesellschaft durch die Metapher eines heterogenen Netzwerks beschrieben werden kann, in dem sich Technologie und Gesellschaft gegenseitig konstituieren. Die Netzwerke verbinden Menschen und nicht-menschliche Entitäten, wobei – gerade dieser Aspekt wird kontrovers diskutiert – beide als Akteure beziehungsweise Akteurinnen auftreten können. Im Rahmen dieser Theorie werden Überlegungen angestellt, wie die Akteurinnen beziehungsweise Akteure die Nutzenden von Technologien im Lebenszyklus einer Technologie formen. Entwickler/innen von Technologien „schreiben“ ihre Vision der Welt, ihre Vorstellungen über die Nutzenden der Technologien, in die Technologie „ein“. Diese „Einschreibung“ ist allerdings offen für unterschiedliche Übersetzungen durch die Nutzenden, welche die Bedeutung oder die Nutzung des Artefakts neu verhandeln können. Das wiederum bedeutet, dass Technologie, ebenso wie Gender, dekonstruiert werden kann. Des Weiteren wird in diesem Ansatz die Bedeutung der Nutzerinnen und Nutzer von Technologien und deren Rolle in der Technologieentwicklung betont.

?

Diskutieren Sie in der Gruppe: Wie könnte ein Untersuchungsansatz aussehen, der sich zum Ziel setzt, geschlechtlichen „Einschreibungen“ von Lernplattformen, Wikis, Blogs (wahlweise) zu analysieren. Was müsste dabei berücksichtigt werden?

Schon seit den 1990er Jahren wird dabei in der Genderforschung in der Informatik auf Nutzungsfreundlichkeit und partizipatives Design gesetzt (Schelhowe, 2001). Diese Forderung, Technik partizipativ und nutzungsfreundlich zu gestalten, ist beim Web 2.0 in dieser Form nicht mehr zu stellen, denn sie ist, zwar nicht über die Gestaltung, sondern durch die Technologie an sich, bereits weitgehend realisiert. Nicht zuletzt wird dem Web 2.0 wegen seines offenen, nutzungsfreundlichen und partizipativen Charakters das Potential zugesprochen, eine Art „Eingangstor“ für ein neues Geschlechter-Technologie-Verhältnis zu bilden.

Die wenigen empirischen Untersuchungen über die Nutzung von Web-2.0-Technologien aus einer Gender-Perspektive lassen jedoch noch keine eindeutigen Schlussfolgerungen zu. Carstensen (2009) fasst den Stand der Forschung wie folgt zusammen: „Wenn wir uns die frühen Hoffnungen und Befürchtungen aus feministischer Sicht vergegenwärtigen, erscheint in Zeiten des Web 2.0 vorerst die männliche Dominanz nicht mehr gegeben. So werden viele Weblogs von Frauen geschrieben, speziell von jüngeren Frauen. Das Internet kann nicht mehr als eine männliche Technologie angesehen werden – ob es allerdings zu einem weiblichen Medium geworden ist (...), bleibt offen“ (S. 118, eigene Übersetzung). Damit bezieht sich die Autorin auf differenztheoretische Forschungsergebnisse dahingehend, dass Blogs zwar vermehrt von Frauen geschrieben werden, dass allerdings von Männern verfasste Blogs, vermutlich aufgrund von stärker auf Öffentlichkeit hin ausgerichteten Inhalten, auf mehr Resonanz stoßen. Soziale Netzwerke oder Wikis wiederum haben zwar ein hohes Potential für politische Diskussion und inhaltliche Vernetzung, gleichzeitig wird die Binarität der Geschlechter über die Profildarstellungen in sozialen Netzwerken jedoch weitgehend der „realen Welt entsprechend“ reproduziert werden. Auch im Jahr 2013 kann hier noch keine abschließende Antwort gegeben werden. Es steht nur so viel fest, dass im Internet allgemein grundsätzlich sowohl Differenzen rekonstruiert werden können, aber gleichzeitig auch die Überwindung von Geschlechterstereotypen möglich ist. Das gilt wohl auch für das Web 2.0, denn die Fragen, die heute gestellt werden, sind denen früherer Forschungsansätze sehr ähnlich (van Doorn & van Zoonen, 2009).

In der Praxis: Das Sparkling Science Projekt

Das Sparkling Science Projekt fe|male (http://www.fe-male.net) untersuchte Web-2.0-Technologien unter dem Genderaspekt und erforschte deren Einsatzmöglichkeiten im Unterricht. Dabei wurde, wie in diesem Kapitel dargestellt, davon ausgegangen, dass Web-2.0-Technologien zum „Eingangstor“ des Technik-Gender-Diskurses erklärt werden könnten.

Das Projekt setzt an der Lebenswelt der Jugendlichen an. Unter Mädchen und Buben beliebte soziale Netzwerke (wie Facebook, MySpace, Twitter, SchülerVZ) dienten als Ansatzpunkte für die Entwicklung technologieunterstützter Lernszenarien in der Schule. Diese Applikationen wurden im Rahmen von Projektarbeiten an Schulen implementiert und von den beteiligten Schülerinnen und Schülern sowie Lehrerinnen und Lehrern nach didaktischen und genderspezifischen Aspekten im Hinblick auf einen Einsatz im Unterricht formativ evaluiert.

Die Projektergebnisse sprechen dafür, dass Mädchen durch Web-2.0-Projekte gut angesprochen werden können: Obwohl die Projekte sowohl für Buben wie für Mädchen attraktiv sind, bewerten die Mädchen die mit den Projekten verbundenen Aspekte der Gruppenarbeit, der Interaktivität und des selbstorganisierten Lernens deutlich positiver und beteiligen sich dementsprechend aktiver und erfolgreicher an den Projekten. Der Schluss liegt jedoch nahe, dass sich dieses Verhältnis wieder umkehrt, sobald die Entwicklung von Technologien im Vordergrund steht und nicht alleine deren Ausgestaltung. (Zauchner et al, 2009; Zauchner et al., 2010; Wiesner-Steiner et al., 2011)

Jedenfalls ist abschließend festzuhalten, dass in gleicher Weise, wie die beim technologiegestützten Lernen und Lehren eingesetzten Technologien nicht didaktisch neutral sind, sondern bei der Entwicklung von Softwarewerkzeugen für Lehr-/Lern-Zwecke immer auch pädagogische Theorie implementiert wird (Baumgartner, 2003), Technologie nicht genderneutral ist. Abbildungen von Genderstrukturen sind in den (Lehr- und Lern-) Technologien auf den ersten Blick jedoch schwer erkennbar, weil durch Abstraktion und Technisierung „Objektivität“ und somit vermeintliche Wertefreiheit vermittelt wird. Laut Schinzel (2005) sind die hierfür nötigen Kategorienbildungen immer generalisierend, womit sie wiederum die „Einfallstore“ für genderspezifische Festschreibungen und Normierungen darstellen.

Empfehlungen zur weiteren Lektüre

Genderforschung

Literatur

Zukunftsforschung

… wie wird sich technologiegestütztes Lernen entwickeln?

Der Einsatz von Technologien beim Lernen und Lehren unterliegt einem schnellen Wandel. Aber nicht alles, über das gerade noch begeistert berichtet wird, erfüllt die Erwartungen und findet tatsächlich Eingang in die Unterrichtspraxis. Aus den Wirtschaftswissenschaften liegen Modelle für die Aufnahme von Technologien und Innovationen am Markt vor, die bei der Beurteilung der aktuellen Situation helfen können. Ebenso gibt es aus dem Bereich der Zukunftsforschung Verfahren, die für technologiegestütztes Lernen und Lehren künftige Entwicklungen vorherzusagen versuchen. Dabei werden in der Regel Expertinnen und Experten aus unterschiedlichen Disziplinen gebeten, Einschätzungen abzugeben. Abschließend werden Verfahren und Initiativen beschrieben, die aktiv bei der Entwicklung von Innovationen unterstützen können.

Zukunftsforschung

Einleitung

Moderne Medien und Technologien haben das Lernen und Lehren in den letzten Jahrzehnten deutlich verändert und neugestaltet. War die Schiefertafel etlichen Urgroßeltern heutiger Studierender noch bekannt, gehören heute Lernende mit eigenen Laptops in das Bild eines Hörsaals an Universitäten oder in Weiterbildungsseminaren. Gerade die Erfindung und Verbreitung des World Wide Web intensivierte Diskussionen zu den Folgen von neuen Technologien für den Bildungsbereich. So ist es mithilfe des Internets nun sehr viel einfacher und nahezu überall möglich, an Informationen zu gelangen. Mit den neuen Technologien verändern sich aber nicht nur konkrete Arbeitsweisen, sondern es entwickeln sich vielfach auch neue Lehrkonzepte und -kulturen. Die Webtechnologien und die damit propagierten Werkzeuge für das Lernen stellen hohe Erwartungen an die Selbstlernkompetenz der Lernenden und Lehrenden.

Eine Vielzahl von Initiativen und Projekten bemüht sich, zukünftige Entwicklungen für den Einsatz von Technologien vorherzusagen, mitzugestalten und auch Neues zu entwickeln. Dieser Beitrag bietet einen ersten Einstieg und Überblick über die Methoden und Ansätze, wie sich die aktuelle Bedeutung von technologischen Entwicklungen am Markt bewerten lässt, wie Zukunftsforschung durchgeführt wird und wie Innovationsentwicklung systematisch betrieben werden kann.

Zukunftsforschung

Von Buzzwords und Innovationen

In der Informationstechnologie allgemein und auch in der (wissenschaftlichen) Diskussion zum technologiegestützten Lernen insbesondere ändert sich schnell, was gerade ‚en vogue‘ beziehungsweise ‚in‘ ist. Vermeintlich potente Technologien und Lerntrends entwickeln sich rasch zu Buzzwords (englisch für ‚Modewort‘). Häufig sind dies Wortneuschöpfungen oder neuartige Technologien: Sie dürfen in keinem Beitrag oder Antrag mehr fehlen und sorgen für Aufmerksamkeit. Ob sie dann wirklich nachhaltig die Lern- und Lehrpraxis innovieren, ist dabei in der Regel unklar. Für Praktiker/innen ist es nicht immer einfach, zwischen kurzfristigen Modeerscheinungen und tatsächlichen Innovationen und Trends im technologiegestützten Lernen zu unterscheiden beziehungsweise hier Einschätzungen zu treffen.

!

Eine Innovation ist, aus dem Lateinischen abgeleitet, eine Neuerung, eine Erneuerung, eine Neueinführung oder eine Neuheit. Für Wirtschaftswissenschaftler/innen ist dabei auch der verbundene wirtschaftliche Markterfolg bedeutsam, der Innovationen von Erfindungen unterscheidet.

Radikale Innovationen gibt es im pädagogischen Feld nur selten. Dies würde bedeuten, dass ein ganz neues Produkt, neue Dienstleistungen oder neue Konzepte entwickelt würden, die vorher nicht existierten. Ein Beispiel für eine radikale Innovation im Schulsystem ist die massive Aufwertung der schriftlichen Informationsmittel sowie die gleichzeitige Entwertung des gesprochenen Wortes in der Lehre im Zuge der Einführung der Buchdrucktechnologie im 15. Jahrhundert (Giesecke, 1994, 29ff). Ein anderes Beispiel ist die Einführung der „schwarzen Tafel“: „Die Pädagogen, die die 'Große Schultafel' in ihren Unterricht einführten, wurden [zu Beginn] mit Berufsverbot belegt […] Die 'Große Schultafel' machte sozial-kommunikative Unterrichtsprozesse möglich, die im Vergleich zum herkömmlichen Unterricht […] als subversiv erlebt wurden“ (Wagner, 2004, 170; verweist auf Petrat, 1979). Erneuerungen im Bereich des technologiegestützten Lernens und Lehrens sind häufig Anpassungen, beispielsweise von vorhandenen Technologien für den Lernkontext, ohne dass sie eine radikale Innovation darstellen. So wurden Diskussionsforen, wie sie im Web schon bekannt waren, mit einer gewissen Verzögerung auch im webbasierten Unterricht eingesetzt.

Zukunftsforschung

Theorien zur Einführung von Technologien

Es gibt eine Reihe von Vorschlägen, die beschreiben, wie Innovationen und Technologien am Markt aufgenommen werden. Sie helfen dabei, den aktuellen Stand von Technologien und Innovationen am Markt einzuschätzen.

Diffusionstheorie nach Rogers und Moore

Bekannt ist der Ansatz von Rogers (2003), der die Adaption von Technologien bzw. die Verbreitung von Technologien anhand der erreichten Zielgruppen beschreibt: Die ersten 2,5 Prozent der potentiellen Nutzer/innen einer Technologie bezeichnet er als ‚Innovatoren‘ und beschreibt diese als aggressive Verfolger/innen von neuen technologischen Trends. Danach folgen die ‚Early Adopters‘ (‚frühe Übernehmer‘). Diese sind seltener Technologinnen oder Technologen und kaufen diese Produkte, weil sie damit Visionen verbinden. Selbst wenn diese beiden Gruppen erreicht wurden, ist noch nicht abgesichert, dass eine Technologie auch Markterfolg haben wird und die weiteren Gruppen der ‚frühen Mehrheit‘ (engl. ‚early majority‘), also eher konservative, aber für Neues offene Personen,

oder auch die ‚späte Mehrheit‘ der älteren, schlechter ausgebildeten und konservativen Personen (engl. ‚late majority‘) und schließlich auch die Nachzügler/innen erreicht. Rogers beschreibt also mit seinem Modell die Art der Diffusion von technologischen Entwicklungen bei Zielgruppen.

Moore (1999, 12ff) erweitert das Modell und nennt die Herausforderung „Chasm“, die Kluft, die überschritten werden muss, damit der Erfolg möglich ist, und gibt dazu in seinem viel zitierten Buch „Crossing the Chasm“ Empfehlungen.

?

Ist dieses wirtschaftliche Konzept für Technologieeinführungen ohne Weiteres auf technologiegestütztes Lernen zu übertragen? Diskutieren Sie dazu, was genau der ‚Markt‘ ist und in welcher Weise Innovationen hier ‚Produkte‘ sind.

Hype-Zyklus nach Gartner

Ein bekanntes Modell zur Beschreibung des Standes von Technologieeinführungen ist der Hype-Zyklus von Gartner. Gartner ist ein Beratungsunternehmen, das sich unter anderem auf die Bewertung und Prognose von technologischen Trends spezialisiert hat. Es hat dabei den Hype-Zyklus als typischen Prozess bei der Einführung neuer Technologien entwickelt (siehe Abbildung 1).

Abb. 1: Hype-Zyklus nach Gartner
Abb. 1: Hype-Zyklus nach Gartner

?

Wo lassen sich Ihrer Meinung nach derzeit Begriffe wie ‚E-Learning 2.0‘, ‚E-Portfolio‘ und ‚Personal Learning Environment‘ auf dem Hype-Zyklus einordnen? Ergänzen Sie eigene Begriffe.

Der Hype-Zyklus wird in fünf Phasen unterteilt, die mit (1) technologischer Auslöser, (2) Gipfel der überzogenen Erwartungen, (3) Tal der Enttäuschungen, (4) Pfad der Erleuchtung und (5) Plateau der Produktivität bezeichnet werden. Obwohl der Hype-Zyklus nach rechts eine zeitliche Dimension beinhaltet, können einzelne Trends diesen Hype-Zyklus schneller durchlaufen als andere. Gemein haben sie alle, dass nach der Entwicklung oder Entdeckung und einer ersten Euphorie das ‚Tal der Enttäuschungen‘ folgt, aus dem sie nur mehr schwer und mitunter sehr langsam herauskommen. Obwohl nach der Darstellung naheliegend, wird nicht jede neue Technologie zwangsläufig vom Markt akzeptiert und erreicht das ‚Plateau der Produktivität‘.

Auch im Bereich der Lerntechnologien und des Lernens und Lehrens mit Technologien allgemein kann man die hier beschriebenen Phasen, insbesondere die der überzogenen Erwartungen, oft vorfinden. Häufig wird diese Phase auch parallel von (überzogenen) Befürchtungen begleitet, so die Furcht der zukünftigen geringeren Bedeutung der Lehrenden durch den Einsatz von Technologien im Unterricht.

?

Sammeln Sie Beispiele aus dem Gebiet des technologiegestützten Lernens, für die das Konzept des Hype-Zyklus unpassend erscheint, und diskutieren Sie die Beispiele mit Ihren Mitlernenden.

!

Weitere Theorien, die bei der Einführung von Technologien Erklärungen für das Geschehen bieten, sind auch ‚Adoptionstheorien‘ (von engl. ‚adoption‘, ‚Annahme‘). Sie werden oft als Teilgebiet der Diffussionstheorien betrachtet und betrachten die Beweggründe einzelner Nutzer/innen.

Zukunftsforschung

Zukunftsforschung

Um mehr über zukünftige Entwicklungen zu erfahren und diese einschätzen zu können, gibt es eine Reihe von Initiativen und Projekten, die regelmäßig Einschätzungen zur Zukunft des Lernens und Lehrens mit Technologien abgeben.

Bei den nun angeführten Methoden wird dabei auf das Wissen von Expertinnen und Experten gesetzt. Deren Meinungen aus ganz unterschiedlichen Disziplinen und die Effekte, die durch den Austausch und durch Aggregation ihrer Aussagen entstehen, werden als wesentlich dafür erachtet, gute Einschätzungen zukünftiger Entwicklungen zu erhalten.

Im Folgenden beschreiben wir kurz häufiger verwendete Methoden der Zukunftsforschung und Beispiele für ihren Einsatz: die Delphi-Methode, die Szenario-Technik und die Methode des Road Mapping. Zusätzlich beschreiben wir die Methode des Horizon-Reports, der jährlich erscheint und künftige Entwicklungen beim technologiegestützten Lernen und Lehren beschreibt, sowie Wetten als Methode. Alle Methoden schließen von aktuellen auf zukünftige Fälle (induktive Schlussfolgerungen) und sind daher erkenntnistheoretisch kritisierbar. Andererseits muss man bedenken, dass man bei eigenen und bei Handlungen von Organisationen nicht umhin kommt, eine Zukunft vorwegzunehmen. Die Frage ist daher nicht ob, sondern nur wie man diese Zukunft vorwegnimmt: intuitiv oder doch einigermaßen systematisch.

Die Delphi-Methode

Die Delphi-Methode ist ein mehrstufiges Verfahren, bei dem Expertinnen und Experten aus unterschiedlichen Disziplinen in moderierten Gruppendiskussionen zukünftige Trends und Entwicklungen identifizieren. Durch den Austausch der Teilnehmenden und Zusammenfassung der ersten Runde wird erwartet, dass sich die Einschätzungen in den weiteren Runden konsolidieren. Die Delphi-Methode kann auch schriftlich erfolgen, wie es beispielsweise bei einer Befragung zur Einschätzung der zukünftigen Entwicklungen von Online-Prüfungen eingesetzt wurde: Schaffert (2004) hat dazu 48 Expertinnen und Experten in einer zweistufigen schriftlichen Befragung Aussagen bewerten lassen. Während es beim ersten Durchgang noch ein weites Spektrum an Aussagen und zukünftigen Entwicklungen gab, ergab sich in der zweiten Runde ein moderateres Bild: Die Befragten kamen beispielsweise zu dem Ergebnis, dass Online-Prüfungen vor allem in Branchen, in denen Computer als Arbeitsgeräte zum Alltag gehören, zukünftig häufiger eingesetzt werden.

Die Szenario-Technik

Einen sehr breiten Ansatz verfolgt die Szenario-Technik (Steinmüller, 2002; Grunwald, 2002). Die Szenario-Technik wurde in den 1950er Jahren vom Militär entwickelt, um Strategien zu erarbeiten sowie Entwicklungen und Ergebnisse von komplexen Situationen einzuschätzen. Die Szenario-Technik versucht dabei Orientierungswissen zu geben, was in naher Zukunft passieren wird. Typischerweise werden dabei drei Szenarien untersucht: zunächst einmal das wahrscheinlichste, überraschungsfreie mögliche Szenario. Dann gibt es das Worst-Case-Szenario, also eine Beschreibung der Entwicklung im schlechtesten Falle. Schließlich gibt es noch ein bestmögliches Szenario, also eine Beschreibung für eine bestmögliche, gewünschte Entwicklung (Boon et al., 2005, 207). Die Szenario-Technik zielt also darauf ab, das ganze Spektrum möglicher Entwicklungen aufzuzeigen, und nutzt dabei nicht nur Zahlen und Fakten (quantitatives Vorgehen), sondern auch Einschätzungen und Vermutungen von Expertinnen und Experten (qualitatives Vorgehen). Beispielsweise wird diese Methode am „Institute for Prospective Technological Studies“ im Feld des technologiegestützten Lernens eingesetzt (Miller et al., 2008, 23). E-Learning-Szenarien zu kreieren wird beispielsweise als Methode empfohlen, wenn man Entscheidungen zum zukünftigen Einsatz von Lerntechnologien in Einrichtungen treffen will (Hamburg et al., 2005).

Die Methode Road Mapping

Beim ‚Road Mapping‘ werden Landkarten beziehungsweise Fahrpläne zukünftiger Entwicklungen beschrieben und aufgezeichnet. Typischerweise werden dazu systematisch zentrale Herausforderungen und Möglichkeiten für Aktivitäten beschrieben und mit Entwicklungszielen und Meilensteinen auf einer Zeitachse illustriert (Kosow & Gaßner, 2008, 65). Road Mapping wird dabei in vier Formen durchgeführt: für Unternehmen, für Branchen, für Forschung und Entwicklung sowie problemorientiertes Road Mapping (ebenda). Wie bei der Szenario-Technik werden dabei auch unterschiedliche Entwicklungen beschrieben. Dabei wird auch der Rückwärtsblick eingesetzt: Ausgehend von einer in der Zukunft (erwünschten) Entwicklung werden Meilensteine und das Vorgehen beschrieben, wie man diese erreicht hat und welche Faktoren dabei entscheidend waren.

Ein Beispiel für Road Mapping im Bereich des technologiegestützten Lernens ist die Arbeit eines EU-Projekts zu freien Bildungsmaterialien (siehe Kapitel #openaccess). Die ‚OLCOS Roadmap 2012‘ untersucht so mögliche Wege zu einer Erhöhung der Erstellung, Verbreitung und Nutzung von freien Bildungsmaterialien und gibt dabei Empfehlungen für notwendige Maßnahmen auf Ebene der (politischen) Entscheider/innen (Geser, 2007).

Die Methode des Horizon-Reports

Wegen seiner großen Verbreitung und Bekanntheit beschreiben wir auch eigens das Vorgehen des Horizon-Reports (Johnson et al., 2009). Basierend auf der Delphi-Methode nutzt das Horizon-Report-Team die Wiki-Technologie, um fast hundert Technologien und mehrere Dutzend Trends und Herausforderungen zu sammeln, die möglicherweise im Report erscheinen könnten (ebenda, S. 30). Die beteiligten Expertinnen und Experten können diese Entwicklungen des Wikis durch RSS-Feeds verfolgen, erhalten auch weitere Materialien zu Lerntrends und Technologien und bekommen dann den Auftrag, die fünf Fragen des Horizon-Reports zu beantworten. Für den Report des Jahres 2009 haben auf diese Weise 45 internationale Expertinnen und Experten beispielsweise folgende erste Frage beantwortet: ‚Welche Technologien zählen Sie zu den etablierten Technologien in Bildungseinrichtungen, die heute breit eingesetzt werden sollten, um das Lehren, Lernen, Forschung und Kreativität zu unterstützen oder zu verbessern?‘. Zu allen Antworten erfolgen (gewichtete) Abstimmungen, die schließlich in der Auswahl von Aussagen beziehungsweise Technologien und Lerntrends resultieren. Dann werden schließlich für unterschiedliche Zeithorizonte jeweils zwei Trends ausgewählt, die auf breiter Basis in Bildungseinrichtungen implementiert werden. Horizon-Reporte gibt es dabei für unterschiedliche Bildungsbereiche und Länder. In der Abbildung 2 werden jeweils technologische Entwicklungen genannt, für die prognostiziert wird, dass sie innerhalb eines Jahres beziehungsweise innerhalb der nächsten zwei bis drei Jahre in der Praxis Fuß fassen (engl. Bezeichnung ‚adoption‘).

Abb. 2: Überblick ausgewählter Trends der Horizon-Reporte für den Hochschulbereich der letzten Jahre. Quellen: Horizon Reports; Johnson et al. (2013), Johnson et al. (2012), Johnson et al. (2011), Johnson et al. (2010), Johnson et al. (2009); Johnson et al. (2008); die verwendeten Begriffe stammen für die Jahre 2010 bis 2013 aus der deutschen Übersetzung (Helga Bechmann, Multimedia Kontor Hamburg).
Abb. 2: Überblick ausgewählter Trends der Horizon-Reporte für den Hochschulbereich der letzten Jahre. Quellen: Horizon Reports; Johnson et al. (2013), Johnson et al. (2012), Johnson et al. (2011), Johnson et al. (2010), Johnson et al. (2009); Johnson et al. (2008); die verwendeten Begriffe stammen für die Jahre 2010 bis 2013 aus der deutschen Übersetzung (Helga Bechmann, Multimedia Kontor Hamburg).

Wetten auf die Zukunft

Alexander (2009) nennt in einer Auflistung von Verfahren zur Zukunftsforschung, die zukünftig auch für technologiegestütztes Lernen und Lehren eingesetzt werden könnten, die Methode ‚Prognosemarkt‘ (engl. ‚prediction market‘). Dabei werden nach dem Vorbild des Derivate-Handels Wetten auf zukünftige Entwicklungen gehandelt. Vom aktuellen Wert solcher Aktien lassen sich Wahrscheinlichkeiten für Entwicklungen ableiten. Eine einfache Version ist ein Wettverfahren, das sich an den Regeln für Sportwetten orientiert. Mit Hilfe von Wetten und Auswertung der Wetteinsätze wird im deutschsprachigen Raum bei „L3T’s bet!“ gearbeitet (Schön & Ebner, 2012). 40 Expertinnen und Experten haben hier zu Aussagen zur zukünftigen Entwicklung von Lern- und Lehrmaterialien im deutschsprachigen Raum Wetteinsätze getätigt. Eine Jury entscheidet über das Eintreffen der Aussagen, sodass auch Wettköniginnen und Wettkönige gekürt werden. Bei einem Wettverfahren ist somit im Verfahren eingebaut, dass die Qualität der abgeleiteten Vorhersagen auch relativ exakt bewertet werden kann.

!

Um Aussagen über die Zukunft zu erhalten, werden in anderen Themengebieten auch weitere, oft quantitative, Verfahren eingesetzt, beispielsweise Extrapolationsverfahren oder Regressionsanalysen. Ein anderer Ansatz identifiziert und analysiert ‚schwache Signale‘ (engl. ‚weak signals‘) als Hinweise für zukünftige Entwicklungen (vgl. Ansoff, 1981).

?

Recherchieren Sie nach einem Beitrag zu den künftigen Entwicklungen des technologiegestützten Lernens und beschreiben Sie - sofern nachvollziehbar - die Methode, mit der die Aussagen generiert wurden!

Zukunftsforschung

Güte und Kritik der Zukunftsforschung

Zukunftsforschung gehört in eine Grauzone wissenschaftlicher Verfahren. Ihre Güte zu bewerten und sie kritisch zu betrachten ist notwendig.

Gütekriterien wissenschaftlichen Arbeitens sind unter anderem die Gültigkeit von Aussagen und ihre Korrektheit. Auf den ersten Blick sind das auch Erwartungen, die man an die Forschung über zukünftige Entwicklungen heranträgt: Man will schließlich verlässlich erfahren, was zukünftig passiert. Gute Aussagen sollten demnach zukünftig zutreffen. Auf den zweiten Blick wird jedoch deutlich, dass Zukunftsforschung häufig betrieben wird, um Planungen und Strategien zu beeinflussen, also auch, um Zukunft aktiv zu beeinflussen. In diesem Sinne kann Zukunftsforschung auch davor bewahren, falsche Entscheidungen zu treffen. Die Vorhersagen treffen dann gerade wegen der guten Forschung nicht ein (Grunwald, 2002).

Ob es sich um eine qualitativ hohe Studie zur Zukunft von Lernen und Lehren mit Technologien handelt, lässt sich aber dennoch bewerten. Boon et al. (2005) haben ein Konzept zur Bewertung der Qualität von Zukunftsstudien entwickelt und teilen 22 Kriterien vier Dimensionen zu: (a) Autorinnen und Autoren und ihre Autorität, (b) Forschung und Datensammlung, (c) Genauigkeit des Reports und (d) Objektivität der präsentierten Inhalte. Man muss nicht lange nach ‚Zukunftsstudien‘ im Bereich des technologiegestützten Lernens suchen, um Beiträge zu finden, die diese Kriterien nur unzureichend erfüllen. Boon et al. (2005, 210) haben dies für die Jahre 2000 bis 2002 unternommen. Sie haben damals festgestellt, dass die Untersuchungen in diesem Bereich nur selten auf überzeugendem methodischen Vorgehen basieren. Daran hat sich kaum etwas geändert; auch aktuelle Beiträge tragen häufig unsystematisch Aussagen als ‚Trends‘ zusammen.

Es gibt auch Bedenken gegenüber dem typischen methodischen Vorgehen, der Einbindung von und Diskussion mit Expertinnen und Experten. So haben diese eine persönliche Geschichte, spezifisches Vorwissen, persönliche Haltungen und auch persönliche Eigenschaften wie beispielsweise einen ausgeprägten Optimismus. Es zeigt sich, dass die Erwartungen an den Nutzen technologiegestützten Lernens positiv von der eigenen Interneterfahrung, Computerängstlichkeit und Selbstwirksamkeit beeinflusst werden (Rezaei et al., 2008, 86). Auch beeinflusst der kulturelle Hintergrund das Bild vom technologiegestützten Lernen. So soll es beispielsweise drei unterschiedliche Metaphern geben, welche die Möglichkeiten von technologiegestütztem Lernen beschreiben: Im deutschsprachigen Raum spricht man häufig vom ‚Potenzial‘ des technologiegestützten Lernens, in englischsprachigen Veröffentlichungen wird hingegen das Bild vom ‚Katalysator‘ oder vom ‚Hebel‘ verwendet. Während der Katalysator eingesetzt wird, um mit geringerem Einsatz gleiche oder bessere Ergebnisse zu erhalten, kann die Hebelwirkung nur einsetzen, wenn die Zielsetzungen des Technologieeinsatzes bekannt sind (Klebl, 2007 verweist auf Venezky & Davis, 2002, 14). Studien sollten also mit dem Blick auf die beteiligten Expertinnen und Experten die Ergebnisse reflektieren und bewerten.

Eine weitere Kritik an der Zukunftsforschung betrifft unter anderem aggregierende Vorgehen, beispielsweise das Berechnen von Mittelwerten, die kreative oder überraschende Ergebnisse ausbügeln, unsichtbar machen können oder auch grundlegende medientheoretisch fundierte Kritik an der Reflexionsfähigkeit in der eigenen Medienwelt (siehe Mediosphäre nach Debray, 2004; Meyer, 2008; Schaffert & Schwalbe, 2010).

?

In welcher Weise lässt sich das methodische Vorgehen bei der von Ihnen recherchierten Studie (siehe oben) bewerten? Wie könnte man die Methode optimieren? Diskutieren Sie Ihre Vorschläge!

Zukunftsforschung

Ansätze der Innovationsentwicklung

Abschließend werden in diesem Kapitel Methoden vorgestellt, die Unternehmen für die Entwicklung von Innovationen verwenden, und Verfahren, die im Bildungsbereich die Entwicklung von Innovationen fördern können. Nicht jede Innovation ist jedoch das Ergebnis eines solchen geplanten Prozesses. So entwickeln Nutzer/innen von Produkten und Dienstleistungen immer wieder innovative Ideen; bekannte Beispiele lassen sich im Sport- und Freizeitbereich finden: Mountainbikes, Skateboards und Snowboards sind allesamt von ihnen und nicht von professionellen Produktentwicklerinnen und -entwicklern erfunden worden („User Based Innovations“, siehe Schroll 2007, 4-5). Unternehmen haben das längst erkannt und versuchen Nutzer/innen als Innovationsquelle systematisch zu erschließen. In diesem Zusammenhang spricht man von ‚Open Innovation‘.

!

Mit dem Begriff ‚Open Innovation‘ werden alle Verfahren bezeichnet, bei den Kundinnen und Kunden sowie Nutzerinnen und Nutzer aktiv bei der Entwicklung von Innovationen eingebunden werden (Reichwald & Piller, 2006).

Auch Innovationen beim Lernen und Lehren mit Technologien können durch Endnutzer/innen, das heißt Lernende, entstehen. Häufig sind jedoch Lehrende die Treiber/innen von Innovationen, also tatsächlichen Neuerungen im Unterrichtsgeschehen.

Lead-User-Ansatz

Eine mittlerweile empirisch umfassend untersuchte Methode der Open Innovation ist der Lead-User-Ansatz. Dies ist eine qualitative Methode zur Identifikation und Integration von Trägerinnen und Trägern innovativer Bedürfnisse in den (innerbetrieblichen) Innovationsprozess. Die Methode geht auf Erich von Hippel vom Massachusetts Institute of Technology (MIT) zurück. Die Grundlage der Methode ist die Diffussionstheorie, also die oben vorgestellte Theorie der Verbreitung von Produkten am Markt. Von Hippel geht davon aus, dass die Lead User die Bedürfnisse des Massenmarktes vorwegnehmen und diese Bedürfnisse durch Veränderungen bestehender Produkte oder sogar durch neue Produktkreationen befriedigen. Durch diese spezifische Konstellation sind sie für die Lösung von Innovationsaufgaben optimal geeignet (von Hippel 2005, 22-23).

?

Ist der Lead-User-Ansatz auf das technologiegestützte Lernen übertragbar? Bestimmen Sie ein Suchfeld und diskutieren Sie dazu, wer die Lead User sein können und wie Sie diese identifizieren könnten.

Die Lead-User-Methode wird meistens mehrstufig dargestellt. Sie beginnt mit der Identifikation des Suchfeldes, in welchem innovative Lösungen gesucht werden. Ein Suchfeld ist zum Beispiel die technologisch gestützte Kollaboration. Lead User kann man per Selbstauskunft oder mit der Schneeballsuche identifizieren, bei der Lead User andere Lead User empfehlen. Lead User weisen folgende Eigenschaften auf: Sie haben neue, (am Markt) kaum verbreitete Bedürfnisse; sie sind bezüglich mangelnder Befriedigung dieser Bedürfnisse unzufrieden und möchten hier tätig werden; sie verfügen über Anwenderwissen; sie verfügen über Produkt- beziehungsweise Objektwissen (Tinz, 2007, 91). In der letzten Phase wird ein Workshop mit den Lead-Usern abgehalten, in dem mit Hilfe von Kreativitätstechniken innovative Lösungen gesucht und bewertet werden. Eine vom MIT und dem Unternehmen 3M vorgenommene Untersuchung zeigt, dass die Lead-User-Ideen zwar teurer, aber auch wesentlich innovativer sind als Ideen, die man im Alleingang generiert (Lilien et al., 2002).

Ideenwettbewerb / Crowdsourcing-Innovation

Eine andere weitverbreitete Open-Innovation-Methode ist der Ideenwettbewerb, oft auch als Crowdsourcing-Innovation bezeichnet. Das Leitmotiv von Crowdsourcing ist: Wenn du ein Problem hast, suche nach der Lösung nicht nur bei den Spezialistinnen und Spezialisten, zum Beispiel in der Forschungs- und Entwicklungsabteilung, sondern frage einfach alle. Beim ‚Crowdsourcing‘ wird so von der Idee ausgegangen, dass Gruppen aufgrund von Phänomenen wie der Schwarmintelligenz oder auch der Schwarmkreativität (Gloor, 2006) in der Lage sind, hilfreiche Unterstützung bei Innovationsprozessen zu bieten (Shuen, 2008, 136ff).

!

Ein Ideenwettbewerb stellt nach Walcher (2007) „eine Aufforderung eines privaten oder öffentlichen Veranstalters an die Allgemeinheit oder eine spezielle Zielgruppe dar, themenbezogene Beiträge innerhalb eines bestimmten Zeitraums einzureichen. Die Einsendungen werden dann in aller Regel von einer Expertengruppe anhand von verschiedenen Beurteilungsdimensionen bewertet und leistungsorientiert prämiert.“ (S. 39).

Durch einen Ideenwettbewerb werden Nutzer/innen in die frühesten Phasen des Innovationsprozesses eingebunden (Walcher, 2007, 38), womit sich die Beiträge von Nutzerinnen und Nutzern streng betrachtet nicht auf die Innovation, sondern auf Ideengebung und -bewertung beziehungsweise auf die Invention konzentriert. Als Veranstaltende von Ideenwettbewerben treten allgemein sowohl Firmen als auch öffentliche Einrichtungen auf. Beispielsweise suchte die Bundeszentrale für gesundheitliche Aufklärung Motive für eine HIV-Präventionskampagne. Im Bereich des technologiegestützten Lernens gibt es seltener Wettbewerbe, bei denen Ideen oder Konzepte prämiert werden. An der Universität Augsburg wurde mit „betacampus“ ein solcher universitätsinterner Wettbewerb durchgeführt, bei dem gute Ideen für IKT-Projekte gesucht wurden (Bauer & Henke, 2011, 79-92).

Häufig werden jedoch bei Wettbewerben auch existierende Konzepte und Realisierungen ausgezeichnet: Beispiele dafür sind D-ELINA, der ‚Deutsche E-Learning-Innovations- und Nachwuchs-Award‘ oder der europäische Wettbewerb ‚European Award for Technology Supported Learning‘ (eureleA). Auch an den Hochschulen werden Auszeichnungen für gute Lehre in Einzelfällen, wie mit dem ELCH (‚E-Learning Champion‘) an der Universität Graz, auch an den innovativen Einsatz von Technologien geknüpft.

Als Anreiz von Ideenwettbewerben wird in der Regel eine ‚leistungsorientierte Prämierung‘ angeboten wie Sachpreise oder Geldbeträge. Im Bereich des technologiegestützten Lernens werden in der Regel die Namen der Gewinner/innen veröffentlicht, womit als Anreizmittel die Statusfaktoren fungieren. Die existierenden Beispiele legen jedenfalls den Schluss nahe, dass extrinsische Motivationsfaktoren eine wichtige Rolle spielen, an solchen Wettbewerben teilzunehmen.

Offene Bildungsinitiativen

In offenen Bildungsinitiativen wird nicht systematisch an der Entwicklung von technologiegestützten Bildungsinnovationen gearbeitet. Allerdings wird ihnen ein hohes Potenzial für solche Ideen und Entwicklungen zugesprochen und sie selbst setzen Technologien häufig kreativ und neu ein. Beispiele für solche Initiativen, die als mögliche Orte der Entstehung von Innovationen betrachtet werden, sind Educamps, ein Szene-Treffen von an Bildungsthemen Interessierten und technologischen ‚Early Adopters‘ ohne fixe Vortragslisten, und auch zahlreiche studentische Initiativen und Projekte (Dürnberger et al., 2011).

Zukunftsforschung

Zusammenfassung und Ausblick

‚Wissen, was kommt‘ ist das Ziel von Untersuchungen zu zukünftigen Entwicklungen im Bereich des technologisch gestützten Lernen und Lehrens. Gleichzeitig gibt es eine Reihe von Initiativen, in denen aktiv kreative und innovative Konzepte und Werkzeuge für das Lernen und Lehren mit Technologien gesucht und entwickelt werden.

Existierende Modelle und Verfahren der Zukunftsforschung und Innovationsentwicklung werden dabei fortlaufend weiterentwickelt. Durch das Web und durch die Erfolge und Zuwächse bei Anwendungen für soziale Netzwerke und Online-Gemeinschaften sind hier zukünftig auch neue Analyseverfahren zu erwarten, die beispielsweise durch Web-Monitoring und Auswertung entsprechend innovativer Gruppen und ihrer Diskussionen möglich werden (Brauckmann, 2010). Passende Modelle, die aus dem Verfolgen von Diskussionen Innovationen oder zukünftige Entwicklungen ableiten lassen, müssen dabei weitestgehend erst noch entwickelt und evaluiert werden.

Danksagung

Herzlichen Dank an Walther Nagler und Jochen Robes für ihr konstruktives Feedback bei der ersten Version des Kapitels (Schön & Markus, 2011) zudem auch an Timo van Treeck sowie Martina Friesenbichler für die konstruktiven Hinweise bei der aktuellen Überarbeitung.

Zukunftsforschung

Literatur

Kognitionswissenschaft

Ihre Perspektive auf Lernen und Lehren mit Technologien

Unsere Annahmen über menschliche Kognition, unsere Wissensbegriffe und die Lernstrategien, die wir verwenden, hängen zusammen. Lernen und Lehren mit Technologien findet in virtuellen Räumen statt, die ihrerseits auf Basis von Annahmen über Eigenschaften menschlicher Kognition entwickelt wurden. Daher lohnt sich die Auseinandersetzung mit Fragen und Konzepten der kognitionswissenschaftlichen Grundlagenforschung, um sie als Instrument zu nutzen und eigene Annahmen zu hinterfragen. Die frühe klassische Kognitionswissenschaft begriff Denken als Informationsverarbeitung: Die Aufgabe mentaler Repräsentation ist die Abbildung der Welt in Symbolen und Regeln, als formales System. Die Gleichsetzung menschlicher kognitiver Leistungen mit der Arbeitsweise eines Computers, hat nicht nur Eingang in unsere Alltagssprache, sondern auch in Forschungsfelder gefunden. Problematisch ist in diesem Zusammenhang, dass so implizit ein Wissensbegriff gefördert wird, der Wissen als Objekt begreift, der einen Teil der Welt abbildet. Das hat Implikationen für Didaktik und Design von Lerntechnologien. In den Kognitionswissenschaften ist mit dem Konnektionismus und neueren Entwicklungen der *Embodied* und *Situated Cognition* ein neues Paradigma entstanden, das eine alternative Sichtweise auf Lernen und Lehren sowie neue Technologien erlaubt und nahe legt, Lehr-Lernprozesse als Gestaltung von Lernräumen zu konzeptualisieren, welche die Wissensprozesse der Lernenden unterstützen.

Kognitionswissenschaft

Einleitung

In diesem Artikel werden die Auswirkungen der Kognitionswissenschaft auf unser Verstehen von Lehr-Lernprozessen und auf die Verwendung von Lerntechnologien untersucht sowie zentrale Fragestellungen und Konzepte der Kognitionswissenschaft beleuchtet.

Die Kognitionswissenschaft ist keine wissenschaftliche Disziplin im herkömmlichen Sinn, sondern ein immer noch recht junges interdisziplinäres Forschungsfeld, in dem unterschiedliche Disziplinen gemeinsam Antworten auf Fragen zur Kognition – Wahrnehmung, Denken und Handeln – suchen, die sie aus ihrer Perspektive und mit ihren Methoden allein nicht zufriedenstellend beantworten können. In gewisser Weise stellt die Kognitionswissenschaft Fragen nach der Natur des Menschen, die sich Philosophen seit jeher stellen, und versucht diese interdisziplinär mit Mitteln der Psychologie, Linguistik, Neurowissenschaft, Biologie und Informatik zu beantworten. Letzterer kommt in der Entstehungsgeschichte dieses Forschungsfelds wegen der damals neuen Methode der Computersimulation eine besondere Rolle zu.

!

Kognitionswissenschaft ist ein interdisziplinäres Forschungsfeld, das Phänomene der Kognition erforscht, mit dem Ziel, menschliche Kognition – unsere Wahrnehmung, unser Denken und letztlich Handeln – zu verstehen.

Warum ist es lohnenswert, sich in einem so anwendungsbezogenen Feld, wie Lehren und Lernen mit Technologien überhaupt, mit Fragen und Konzepten aus der kognitionswissenschaftlichen Grundlagenforschung auseinanderzusetzen? Wir sehen drei Gründe:

Dieses Kapitel orientiert sich in seinem Aufbau an den Phasen der Kognitionswissenschaft seit ihrer Entstehung. Diese ideengeschichtliche Betrachtung ist notwendig, um konkrete Implikationen auf aktuelle Fragen des Lernen und Lehrens, des Wissens und zu Lerntechnologien abzuleiten. Ziel dieses Kapitels ist es zu zeigen, wie Konzepte aus der kognitionswissenschaftlichen Grundlagenforschung Eingang in die Alltagssprache, in unser Denken über Lernprozesse und Wissen und letztlich in Technologien gefunden haben, mit den wir tagtäglich interagieren, um so ein Denkwerkzeug für die Reflexion der eigenen Praxis zur Verfügung zu stellen. Kein Ziel ist es hingegen, didaktische oder Usability-Rezepte auszustellen.

Kognitionswissenschaft

Das Entstehen eines neuen Forschungsfeldes

Wurzeln der Kognitionswissenschaft

Eine fundierte Vorgeschichte würde im Rahmen dieses Buches zu weit führen, daher möchten wir hier nur vier Strömungen und Ideen aus den Disziplinen Philosophie, Psychologie, Linguistik und Informatik skizzieren, deren interdisziplinäres Zusammenwirken wesentlich für das Entstehen des neuen Forschungsfeldes Kognitionswissenschaft war:

Die Vorstellung, dass menschliches Denken letztlich Rechnen sei, findet sich schon im 17. Jahrhundert bei Gottfried Wilhelm Leibniz (1646 – 1716), der, nebenbei bemerkt, auch das Binärsystem erfand, das mit der Erfindung des Computers eine große Bedeutung erhalten sollte. Die Analytische Philosophie wurde Anfang des 20. Jahrhunderts von den britischen Philosophen Bertrand Russell (1872–1970) und George Edward Moore (1873–1958) und vom Wiener Kreis begründet und kann als eine Fortführung der Leibniz'schen Ideen begriffen werden. Ihre Vertreter wiesen folgende Gemeinsamkeiten auf: Ein systematisches, anstatt geschichtliches Herangehen an philosophische Fragen, eine Orientierung an empirischen Wissenschaften sowie der Versuch eine logische Formalsprache (widerspruchsfreie Idealsprache) zu schaffen, beziehungsweise die Analyse von Sprache mit Mitteln der Logik, mit dem Ziel, die angenommene logische Formalsprache hinter unserer Alltagssprache zu beschreiben. Es soll nicht unerwähnt bleiben, dass viele Vertreter dieser Richtung vor dem nationalsozialistischen Regime fliehen mussten und ihre Arbeit in England und den USA fortsetzten.

Disziplin Linguistik Mathematik (Informatik) Philosophie Psychologie
Beitrag zur Kognitionswissenschaft und Entstehung des Kognitivismus Beschreibung sprachlicher Strukturen Neu: Universalgrammatik Mathematischer Beweis, Computer Neu: formale Sprachen, Simulation Philosophische Basis („Denken ist rechnen“) Neu: Formale Logik Empirische Daten, Experiment Neu: in die „Black Box hineinschauen“

Tab. 1: Überblick über die Disziplinen und ihren Beitrag an der Entstehung der frühen Kognitionswissenschaft

In der Psychologie hatte der Behaviorismus, von John B. Watson 1913 ursprünglich als Gegenposition zur Phänomenologie formuliert, die Untersuchung von Verhalten mit naturwissenschaftlichen Methoden und damit eine Objektivierung der Psychologie eingeführt und war zum vorherrschenden Paradigma geworden. Das Gehirn wurde als Black Box betrachtet, über deren Inhalt keine Aussage möglich sei. Lediglich das beobachtbare Ereignis in der Umwelt (Reiz) und das mutmaßlich daraus resultierende Verhalten (Reaktion) durfte Gegenstand einer wissenschaftlichen Untersuchung sein. Lernen war die Assoziation von Reiz und Reaktion, der Geist eine tabula rasa. Darüber hinaus wurde über die Vorgänge und Strukturen innerhalb der Black Box nicht weiter theoretisiert, ein Umstand, der zunehmend kritisiert wurde.

1957 erschien das Buch „Verbal Behavior“, in dem der Behaviorist seiner Zeit, Burrhus Fredric Skinner, seine Hypothese zum Spracherwerb formulierte. In einer Buchbesprechung übte der Linguist Noam Chomsky (1959) harsche Kritik und argumentierte, dass ein so komplexes Verhalten wie Sprache unmöglich durch den Behaviorismus, und somit durch assoziatives Lernen, allein, erklärt werden könne. Vielmehr müsse es ein genetisch determiniertes mentales Modul geben, das es Menschen erlaubt, Sprache zu erwerben, eine universale Grammatik, welche die Basis für den Erwerb jeglicher menschlichen Sprache biete. Damit revolutionierte er nicht nur die Linguistik; die Kritik an Skinner wird auch als Meilenstein auf dem Weg zu einem neuen Paradigma gesehen: dem Kognitivismus.

Bevor der Kognitivismus näher diskutiert wird, muss auf die vielleicht für die Entstehung der Kognitionswissenschaften wesentlichste Erfindung und Voraussetzung hingewiesen werden: der Computer und seine formalen Grundlagen. 1936 hatte der Mathematiker Alan Turing (1912-1954) gezeigt, dass jede berechenbare Funktion durch eine Turingmaschine implementiert werden kann (Turing, 1936; 1950). Eine genaue Erklärung würde an dieser Stelle zu weit führen; wesentlich ist in unserem Kontext, dass sie – unendlich großen Speicher vorausgesetzt – jede berechenbare Funktion berechnen kann und, dass sie den Begriff Algorithmus exakt präzisiert. Als solche bildete sie die theoretische Basis für die Entwicklung des Computers (etwa 1946 durch den Mathematiker John von Neumann), dessen Architektur nach wie vor die Basis jedes Computers bildet (eine ausführlichere Darstellung findet sich in Bechtel und Graham, 1998, 6-14).

Zusammengefasst, lässt sich der wissenschaftsgeschichtliche Kontext um 1950 in sehr vereinfachter Form zuspitzen (Tabelle 1): In der Psychologie gab es eine weit verbreitete Unzufriedenheit mit dem Behaviorismus, dessen Methoden es nicht erlauben, etwas darüber auszusagen oder zu untersuchen was, salopp gesagt, im Kopf (der Black Box) passiert. Gerade daran hatten aber all jene Interesse, die menschliche Kognition verstehen wollten. Auf Seiten der Analytischen Philosophie gab es ein Angebot: Denken ist logisch und basiert auf einer (formalen) Sprache; wir müssen also „nur“ einen Weg finden die Formalsprache „hinter“ der Alltagssprache zu beschreiben. Chomskys Idee der Universalgrammatik bot eine neue Brücke zwischen formaler Logik und natürlichen Sprachen. Und der Computer erschloss eine vollkommen neue Herangehensweise, mit der wissenschaftliche Theorien einer Prüfung unterzogen werden konnten. Anstatt Modelle mit Papier und Bleistift durchzurechnen, konnten diese Modelle, wenn man sie in eine formalisierte Form (entspricht Algorithmen, die als Computerprogramme implementiert werden) bringt, automatisch berechnet werden und gegebenenfalls Vorhersagen für die empirische Forschung machen: die Methode der Computersimulation.

Ein weiteres wichtiges Puzzlestück für die Analogie zwischen Denken und Logik lieferten der Neurophysiologe Warren McCulloch und der Logiker Walter Pitts 1943. Die Turingmaschine (und in der Folge auch von Neumann-Computer) verwenden das von Leibniz erfundene Binärsystem, das heißt sie „kannte“ die zwei Symbole „1“ und „0“. Auch Nervenzellen kennen zwei Zustände: sie feuern („1“) oder sie feuern nicht („0“). Auf Basis dieser Überlegung entwickelten McCulloch und Pitts (1943) ein sehr vereinfachtes, abstrahiertes Neuronenmodell, mit dessen Hilfe sie zeigen konnten, dass ein Netzwerk dieser Neuronenmodelle – und damit auch das menschliche Gehirn – im Prinzip die selben Kapazitäten hat, wie eine Turingmaschine, das heißt jede berechenbare Funktion berechnen und damit auch logische Formalsprachen verkörpern kann.

Kognitionswissenschaft

Klassische Kognitionswissenschaft

Die oben beschriebene wissenschaftliche Konstellation führte zu einer neuen Sicht auf menschliche Kognition und begründete so Mitte der 1950er Jahre das Entstehen der Kognitionswissenschaft (Bechtel & Graham, 1998). Was sie einte, war die Annahme einer Vergleichbarkeit von Mensch und Computer in dem Sinne, dass der Computer ein reaktionsfähiger Mechanismus sei, der flexibles, komplexes und zielorientiertes Verhalten zeigen kann, ebenso wie Menschen. Daher sei es nur natürlich von der Hypothese auszugehen, dass ein solches System offenlege, wie Menschen zu eben dieser Flexibilität kämen, ergo zeige, wie der menschliche Geist funktioniere (Newell, 1989). Diese Annahme schlug sich im zentralen Postulat „cognition is information processing“ (Englisch für „Kognition ist Informationsverarbeitung“), nieder. Informationsverarbeitung wird in folgendem Sinne verstanden: Ein Algorithmus verarbeitet, verändert und generiert Symbole, von denen behauptet wird, dass sie einen Ausschnitt der Welt repräsentieren (zum Beispiel das Symbol „Haus“ repräsentiert ein reales Haus). Deswegen wird dieser Ansatz auch als symbolverarbeitender Ansatz bezeichnet. Aufgabe einer Wissenschaft, die menschliche Kognition verstehen wollte, war es somit, jene „Algorithmen“ menschlicher Kognition zu identifizieren, welche die Erkenntnisse aus oben genannten Disziplinen künstlich erzeugen (im Sinne von Am-Computer-Simulieren) und diese Simulationsergebnisse wiederum in empirischen (psychologischen) Experimenten zu überprüfen.

Das neue wissenschaftliche Paradigma, das – in Abgrenzung zum auf extern beobachtbares Verhalten fokussierten Behaviorismus – die Untersuchung jener innerer Mechanismen, die für menschliche Kognition verantwortlich sind, zum Ziel hatte, wird als Kognitivismus (Varela, 1990; Bechtel et al., 1998) bezeichnet. Die Grenzen zum praktisch zeitgleich entstandenen Forschungsfeld der Künstlichen Intelligenz (KI) können wir, zumindest für den Zweck dieses Lehrbuchs, als fließend erachten. Während für die KI der technische Aspekt im Vordergrund stand, war es für die Kognitionswissenschaft der Versuch, menschliche Kognition zu verstehen.

Das Revolutionäre an der neu entstandenen Kognitionswissenschaft war, dass zum ersten Mal zwei Methoden zur Verfügung standen, eine Theorie zu überprüfen: Die Empirie, die eine Untersuchung des Forschungsgegenstands „in der Welt“ ermöglicht, wurde durch ein mächtiges Instrument ergänzt, das eine Theorie in Form eines Modells auf Kohärenz testen kann – um dann seine Vorhersagen wieder mit Hilfe der Empirie zu überprüfen. Die ersten Systeme brachten schnelle Erfolge, konnten Probleme, wie den „Turm von Hanoi“ lösen und – zur damaligen Zeit als Krone menschlicher Kognition gesehen – mathematische Gleichungen lösen und Schach spielen.

?

Begeben Sie sich zur nächsten Kaffeemaschine (am besten eine Filtermaschine, jedenfalls aber kein Automat), beobachten Sie genau, wie jemand einen Kaffee kocht, bis zu dem Zeitpunkt zu dem der Kaffee trinkfertig (Milch, Zucker, etc.) ist.

Gruppenvariante: Bilden Sie Kleingruppen zur Beschreibung (optimal: Dreiergruppen) und lassen Sie zwei bis drei unterschiedliche Beschreibungen ausprobieren, bevor Sie die Fragen zur Aufgabe im Plenum besprechen. Fragen zur Aufgabe:

Gruppenvariante:

Kritiker/innen waren jedoch weniger beeindruckt. Ihrer Ansicht nach waren die Systeme nicht wirklich intelligent, sondern führten nur Programme aus. Die Probleme, die diese Programme bearbeiteten, seien so ausgewählt, dass sie in sich geschlossen und leicht als formales System zu fassen seien. Ein weiterer Kritikpunkt war, dass ein Programm, nur weil es eine Art von Problemen lösen konnte, diese Fähigkeit noch lange nicht auf einen anderen Bereich übertragen konnte, das heißt diese „kognitiven Systeme“ waren hochgradig domänenspezifisch (Dreyfus, 1972).

?

Denken Sie an Ihren „Kaffeekoch-Algorithmus“:

Die Flexibilität menschlichen Denkens und Handelns zeichnet sich hingegen dadurch aus, dass wir nicht nur unterschiedliche Strategien zur Problemlösung zur Verfügung haben, die wir nach Belieben abbrechen und wechseln können, sondern darüber hinaus auch Fähigkeiten zur Adaptation haben: Wir können unser Handeln hinterfragen, verändern und improvisieren. Wir sind auch mit unvollständigen Informationen handlungsfähig, weil wir über Kontextwissen über die Welt verfügen, fehlendes Wissen nahezu automatisch vervollständigen, etc. Und wir können eines, das diese Systeme nicht konnten: Wir können lernen und tun es ständig.

Um eine lange Geschichte kurz zu machen: Es gab in der Folge viele Versuche, die Systeme dieser frühen Phase der Kognitionswissenschaft mit Weltwissen auszustatten, die im Wesentlichen mit der Erkenntnis endeten, dass unsere Sprache und unser Wissen über die Welt in Teilbereichen, aber nicht als Ganzes den Regeln einer Logik folgt, sondern vielfach widersprüchlich ist. Für uns Menschen ist es in unterschiedlichen Situationen ganz natürlich, unterschiedlichen Regeln zu folgen. Auch mit den Widersprüchen natürlicher Sprachen haben wir kein Problem: Wenn jemand meint, sich auf die nächste Bank setzen zu müssen, wissen wir, dass kein Geldinstitut gemeint sein kann.

Rückwirkend kann man die klassische Kognitionswissenschaft als Unterfangen betrachten, jahrhundertealte Vorstellungen über die menschliche Kognition mit Hilfe einer zu ihrer Zeit revolutionären neuen Methode auszutesten: der Computersimulation. Dadurch haben wir die jahrhundertealte Hypothese, menschliches Denken bestünde in der Verarbeitung von Symbolen, über Bord werfen können und eine ganze Menge über uns gelernt. Unsere Vorstellung, was menschliche Kognition in ihrem Kern ausmacht, hat sich dramatisch verschoben. Fähigkeiten, die keine weitere Beachtung fanden, wie Sprechen, den Heimweg finden oder die Fähigkeit, über einen Witz zu lachen, können gewürdigt werden. Darüber hinaus wurde auch klar, dass sowohl formale als auch natürliche Sprachen nur einen Teil der Welt repräsentieren können und in diesem Ansatz viele feine Nuancen, emotionale Zustände, implizite Bedeutungen, etc., die für kognitive Prozesse oft entscheidend sind, unberücksichtigt bleiben.

Kognitionswissenschaft

Konsequenzen für Lernen und Lehren mit Technologien: Die Frage des adäquaten Wissensbegriffs

Aber was hat das alles in einem Buch über Lernen und Lehren mit Technologien zu suchen? Der Einfluss der klassischen Kognitionswissenschaft ist in vielen wissenschaftlichen Bereichen (ebenso wie in unserer Alltagsauffassung von Kognition) nach wie vor erkennbar, was sich sowohl in den Metaphern ausdrückt, mit denen Lernprozesse beschrieben werden, als auch in deren, häufig implizit angenommenen, Wissensbegriffen.

Wann immer es um Lernen und Erinnern geht, ist die Computermetapher „Kognition ist Informationsverarbeitung“ allgegenwärtig: Es wird von Abspeichern, Updaten, Speichern, Informationsverarbeitung und Abrufen gesprochen. Unser Gedächtnis wird von der kognitiven Psychologie in sensorisches Gedächtnis, Arbeitsgedächtnis und Langzeitgedächtnis eingeteilt, zwischen denen Information fließt (Zimbardo, 2004, 298).

Wie wir gesehen haben, ist es kein Zufall, dass dieses Modell damit in wesentlichen Teilen Neumanns Computerarchitektur entspricht. Treffen diese Ausdrücke den Kern der Sache? Oder suggerieren Sie eine spezifische Sichtweise, die den Blick auf Wesentliches verstellt? Vieles deutet darauf hin, dass Letzteres der Fall ist, denn diese Sichtweise auf Kognition und Gedächtnis funktioniert nur mit einem Wissensbegriff, der folgende Eigenschaften aufweist:

Kurz gesagt: Wissen verhält sich wie Information, wobei mitschwingt, dass es bezüglich der Bedeutung zwischen der gesendeten und der empfangenen Information keinen Unterschied gibt. Ein solcher Wissensbegriff behandelt Wissen nicht nur als Objekt, sondern suggeriert zusätzlich eine Objektivität (im Sinne von invarianten und subjektunabhängigen Bedeutungen) von Wissen.

In einem Bildungskontext suggeriert ein solches Modell unterschwellig zumindest folgende Annahmen:

Polemisch ausgedrückt, macht ein solcher Wissensbegriff Lehrende zu Bereitstellenden von Information, während Lernende zum beliebigen Container für Wissensobjekte werden. Selbstverständlich gehen wir nicht davon aus, dass Lehrende die skizzierte Position ernsthaft vertreten, es ist uns aber wichtig herauszuarbeiten, was in der Computermetapher für menschliches Denken implizit mitschwingt, das heißt, welche Fragen und Schlussfolgerungen sie fördert und wo sie blinde Flecken hat. Gerade im Bereich des Lehrens und Lernens mit Technologien – also unter Einsatz eines Computers – ist es besonders verführerisch, Wissen als Objekt zu behandeln, wie im Konzept von Lernobjekten. Im Bereich des E-Learning findet es sich in mediendidaktischen Konzepten wieder, die von einer De- und Rekontextualisierbarkeit von Wissen (zum Beispiel in Swertz, 2004) oder, wie das Microlearning (Hug, 2005) auf Wissensbrocken basieren. Wir möchten das nicht als Verurteilung verstanden wissen, als Elemente eines umfassenderen didaktischen Konzepts können sie durchaus sinnvoll eingesetzt werden. Was wir herausarbeiten möchten ist, wie eine Metapher – nämlich menschliche Kognition funktioniert wie ein Computer – und die Verwendung des Computers konzeptuell nahtlos zusammengehen und eine Allianz bilden, die einen naiven Wissensbegriff transportiert und eine Didaktik des Wissenstransfers nahelegt.

Nun könnte man einwenden, dass es egal sei, mit welchem Wissensbegriff jemand lernt, die Fakten seien schließlich klar durch den Kursinhalt oder vom Lehrplan vorgegeben. Der Wissensbegriff, mit dem Lernende ans Lernen herangehen, ist aber wesentlich für einen nachhaltigen Lernerfolg. Ference Marton und Roger Säljö haben in einer Studie (1976) zwei qualitativ unterschiedliche Lernstrategien identifizieren können, die sie als Surface Learning (oberflächliches Lernen) und Deep Learning (tiefes, profundes Lernen) bezeichnen. Letzteres ist der Wunsch aller Lehrenden: Lernende, die intrinsisch motiviert um profundes Verstehen ringen und das Gelernte mit Vorwissen und Erfahrung verknüpfen. Gerade im Kontext unseres Bildungssystems kommt es leider viel zu häufig zur alternativen Strategie des Surface Learning. Lernende lernen isolierte Fakten ohne eigene Motivation auswendig, um sie bei Bedarf zu reproduzieren (und ggf. gleich wieder zu vergessen), ein Verhalten das auch gerne als Bulimie-Lernen bezeichnet wird (Tabelle 2 stellt die beiden Lernstrategien noch einmal gegenüber). Ein Wissensbegriff, der auf einzelne Fakten fokussiert, also Wissen als isolierte Wissensobjekte behandelt, legt eine Surface Learning-Strategie nahe: Wenn ich alle Fakten gelernt habe, ist das Wissen erworben. Mit der Computermetapher für menschliche Kognition liefert der Kognitivismus eine Sicht auf menschliche Kognition, die eben diese Wissenskonzeption unterstützt.

Forderungen nach einer Didaktik, die mehr leistet als ein Fokussieren auf Faktenwissen, gibt es spätestens seit der Reformpädagogik. Im Laufe der letzten Jahrzehnte hat sich die Sicht auf menschliche Kognition sehr gewandelt und wir möchten Sie einladen, sich mit uns wieder auf die Ebene der kognitionswissenschaftlichen Grundlagenforschung zu begeben und Teile dieser Entwicklung mit uns nachzuvollziehen, die Konsequenzen für unser Bild von Lernen und Wissen haben sowie den Einsatz von Technologien vor diesem Hintergrund zu reflektieren.

?

Wo ist Ihnen die Computermetapher, das Benennen kognitiver Prozesse als Speichern, Abrufen, etc. bereits begegnet? Reflektieren Sie Ihre „Alltagsphilosophie“: Wie denken Sie selbst über Kognition, Lernen und Wissen? Wie, in welchen Metaphern, sprechen Sie darüber?

Surface Learning Deep Learning
Stützt sich aufs Auswendiglernen Suche nach der Bedeutung und Verstehen
Stützt sich auf Faktenwissen & Routinen Stützt sich auf das Wesentliche, den „Kern“
Fokussiert auf Regeln und Formeln, die für die Lösung eines Problems angewendet werden Fokussiert auf zentrale Argumente, die für die Lösung eines Problems von Bedeutung sind
Fakten und Konzepte werden unreflektiert aufgenommen und abgespeichert Verknüpft theoretische Ansätze mit eigenem Erfahrungshintergrund
Vernachlässigt den Kontext Bezieht Kontext ein
Fokussiert auf nicht vernetzte Teile einer Aufgabe Verbindet vorhandenes Wissen mit neuem Wissen
Motivation ist extrinsisch Motivation ist intrinsisch

Tab. 2: Charakteristika von Surface Learning und Deep Learning nach Marton und Säljö (1976).

Kognitionswissenschaft

Der Übergang zu einer neuen Sicht auf Kognition: Der Konnektionismus und die Simulation neuronaler Prozesse

Wie oben ausgeführt, führte die Sichtweise der klassischen Kognitionswissenschaft zu einer starken Kritik, wobei in unserem Kontext ein zentraler Punkt ist, dass die oben skizzierten Systeme nicht lernen konnten. Mitte der 1980er Jahre kam es, ausgelöst durch eine in dem Doppelband „Parallel Distributed Processing“ von David E. Rumelhart und James F. McClelland (1986) veröffentlichte Sammlung von Einzelarbeiten, zu einem Siegeszug eines neurowissenschaftlich inspirierten Modells, das bislang vom Mainstream der Kognitionswissenschaft ignoriert worden war: die Künstlichen neuronalen Netze (KNN).

Ein KNN (in der Regel eine Computersimulation, es sind aber auch physische Umsetzungen möglich) besteht aus vielen sehr einfachen, identisch aufgebauten Einheiten, die als Units oder künstliche Neuronen bezeichnet werden und über sogenannte Gewichte (diese simulieren in sehr vereinfachter Weise die Funktion von Synapsen) untereinander verbunden sind. Typischerweise haben KNN, welche für die Modellierung kognitiver Leistungen herangezogen werden, eine Schicht von Units, der Stimuli präsentiert werden (engl. „input layer“), eine Schicht von Units, die etwas ausgeben (engl. „output layer“) sowie eine oder mehrere Schichten dazwischen (engl. „hidden layer“), die jeweils linear oder rekursiv miteinander verbunden sind.

Die Aufgabe/Funktion jeder einzelnen Unit besteht darin, die Aktivierungen der eingehenden Verbindungen zu integrieren und an die jeweils benachbarten weiterzugeben. Dies geschieht durch einfaches Aufsummieren der gewichteten Inputs und Weitergabe der eigenen Aktivierung, wenn diese einen bestimmten Schwellenwert überschreitet. Dies wird von allen Units parallel durchgeführt und konstituiert das Gesamtverhalten des KNN. Wesentlich ist, dass diese Netze in ihrer Architektur (meist) fest „verdrahtet“, die Gewichte aber veränderbar sind. In Kombination mit den Inputs aus der Umwelt sind die Gewichte für die Verhaltensdynamik des Netzwerks verantwortlich. Anstatt die Gewichte von Hand einstellen zu müssen, wurde in den frühen 1980er Jahren ein Algorithmus gefunden, der die schrittweise Veränderung der Gewichte in einem Trainingsprozess in einer Weise durchführt, dass das Netz seine Aufgabe schließlich fast perfekt lösen kann: KNN können ohne Eingabe von Regeln und Symbolen, nur anhand von Beispielen, mit denen sie trainiert werden, lernen. Nach jeder Aufgabe bekommen sie ein Feedback, ob die Antwort richtig oder falsch war, indem ihre Gewichte ganz minimal in Richtung der korrekten Lösung verändert werden, bis sie fast zu 98 Prozent richtig liegen. Allerdings können sie nicht alle Aufgaben gleichermaßen gut lösen. Gut sind sie, kurz gesagt, bei Mustererkennung, Kategorisierungsaufgaben, Vorhersage von Wahrscheinlichkeiten, etc. Modelle von Aspekten menschlicher Kognition, die auf KNN basieren, weisen einige sehr charakteristische Eigenschaften auf (ausführlicher behandelt z.B. in Elman, Bates, Johnson, Karmiliff-Smith, Parisi & Plunkett, 1996):

Mit diesen Eigenschaften stellten KNN noch keinen grundsätzlichen Widerspruch zur klassischen Sicht auf Kognition dar. Man konnte sie durchaus als eine Ergänzung begreifen, die eine Erklärung lieferte, wie durch Lernen (von Kategorien) Symbole „in den Kopf kommen“ können. Allerdings stellte sich die Frage, welcher Natur diese Symbole denn seien. In neuronalen Netzwerken sind Symbole und Regeln nicht sauber voneinander getrennt „abgespeichert“, vielmehr ist alles, was das Netz „weiß“ in der gesamten Architektur des Netzes, das heißt in allen Neuronen, allen Gewichten und deren Konfiguration, verteilt repräsentiert. Man spricht daher auch von einem subsymbolischen Ansatz (Rumelhart et al., 1986; Smolensky, 1998; Elman, 1990).

!

Eigenschaften Künstlicher Neuronaler Netze (KNN):

Konsequenzen für unsere Begriffe von Wissen und Lernen

Der erste Erfolg der Künstlichen Neuronalen Netze war zunächst, ein biologisch plausibles Modell dafür zu liefern, wie Symbole und Regeln gelernt werden können. In gewisser Weise setzen sie eine Ebene tiefer an als der symbolverarbeitende Ansatz: Sie bieten eine Alternative auf der subsymbolischen Ebene an (Smolensky, 1998). Konsequenz war aber ein neues Bild von Repräsentation und Eigenschaften kognitiver Systeme.

Damit erlauben die KNN eine fundamental andere Sichtweise auf Wissen (Peschl 1994; 1997). Zunächst ist klar: Das „Wissen im Kopf“ muss strukturell keineswegs identisch mit den in Symbolen und Regeln beschriebenen Strukturen der Welt sein. Nicht die korrekte Abbildung der Welt ist relevant, sondern das adäquate Ergebnis, also gewissermaßen die Handlung, die in die Struktur der Umwelt passen muss. Als eine Konsequenz der Aufgabe des Konzeptes der Abbildung sind die Inhalte der Repräsentation, im Gegensatz zu klassischen symbolverarbeitenden Systemen, nicht mehr unmittelbar verständlich; vielmehr bedarf es aufwändiger statistischer Verfahren, um herauszufinden, was so ein Netz eigentlich gelernt hat.

Eine weitere interessante Konsequenz der verteilten Repräsentation ist, dass, im Gegensatz zum klassischen Ansatz, keine Trennung zwischen Inhalt und Substrat besteht: das Netz ist sein Wissen und dieses Wissen ist in der Architektur verkörpert, zumindest potentiell, denn zumeist handelt es sich bei KNN ja um Computersimulationen (zum Beispiel Clark 1999, 2001). Damit gibt es auch keine leicht voneinander trennbaren Wissensobjekte mehr, vielmehr werden alle dem neuronalen Netzwerk präsentierten Stimuli (zum Beispiel Bilder) von allen Neuronen und allen Gewichten repräsentiert. Die Repräsentation das KNN kann man als einen Raum verstehen, in dem Inputs kategorisiert und dadurch in eine Beziehung (in diesen einfachen Modellen ist es Ähnlichkeit) gesetzt werden.

Die Analogien zu Bildungskontexten, insbesondere Frontalsituationen liegen auf der Hand: Die Input-Output-Relation ist dadurch bestimmt, dass Lernende durch Vortrag, Durcharbeiten eines Lernpfades, etc. einen Stoff präsentiert bekommen und in einer Prüfungssituation den gewünschten Output zu liefern haben. Doch Lernen ist kein Kopiervorgang von Wissensobjekten.Was gelehrt wird, muss noch lange nicht das sein, was gelernt wird. Nachdem Lernen in unserem Bildungssystem häufig outputgetrieben ist („Was muss ich tun, um eine gute Note zu bekommen?“), liegt es daher nahe, Prüfungen so anzulegen, dass nicht isolierte Fakten abgefragt werden, sondern ein Verständnis der Kategorien und Bezüge des gesamten „Wissensraumes“ gefordert ist und eine Deep-Learning-Strategie auf Seiten der Lernenden notwendig wird.

?

Welche Prüfungssituationen, die Sie als Lernende erlebt oder als Lehrende gestaltet haben, haben Fakten abgefragt und welche Prüfungsmethoden sind ‚tiefer’ gegangen?

Kognitionswissenschaft

Embodied and Situated Cognition, Enactivism

Embodied Cognition - Verkörperte Kognition

Rückwirkend kann der Konnektionismus, der zu seiner Zeit eine Revolution war, als Bindeglied und Übergangsphase zwischen zwei Paradigmen gesehen werden. Was als „Nebenwirkung“ des Konnektionismus begann, rückte schließlich ins Zentrum des Interesses: Während die klassische Kognitionswissenschaft versucht hatte, die Welt möglichst genau in formalisierten Strukturen abzubilden, rückte durch den Konnektionismus die Frage in den Mittelpunkt, wie KNN-Architektur und -Prozesse mit der Struktur und Dynamik der Umwelt (Stimuli) zweckmäßig und dem jeweiligen System angemessen interagieren. Damit war der Weg frei, die zentrale implizite Annahme der klassischen Kognitionswissenschaft in Frage zu stellen: Wie biologisch plausibel ist überhaupt die stillschweigende Annahme, dass Kognition vor allem dafür da ist, abstrakte Symbole und Regeln zu verarbeiten?

Der Fokus auf die Interaktion eines verkörperten kognitiven Systems, also eines kognitiven Systems dessen physische Beschaffenheit eine zentrale Rolle für seine Repräsentationsfunktionen spielt, mit seiner physischen Umwelt, erlaubte eine neue, biologischere Sichtweise: Die Aufgabe von Kognition ist es, einem Organismus sinnvolles, das heißt überlebensförderliches Handeln in Raum und Zeit zu ermöglichen. Im Paradigma der Embodied Cognition wurde die Koppelung von Kognition, Körper und Welt daher zum zentralen Thema. Damit änderten sich auch die Modelle und die Perspektive auf Wissen(-srepräsentation). Sie kommen nun vielfach aus dem Bereich der Robotik.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Anforderung an ein kognitives System war nun nicht länger, über möglichst viel und präzises Weltwissen zu verfügen, um in seiner Umwelt funktionieren zu können, es ging vielmehr darum, zeitgerecht mit Veränderungen der Umwelt adäquat umzugehen, (pro-)aktiv und intentional zu handeln. Schon 1986 postulierte Rodney Brooks, man brauche keine Repräsentation und schlug eine Roboterarchitektur vor, die robustes und gleichzeitig flexibles Verhalten hervorbrachte, die sogenannte Subsumption Architecture (Brooks, 1991).

Das Wesentliche ist, dass ein solches System ohne eine klassische Form der Repräsentation, das heißt ohne eine Beschreibung, welche die Welt abbildet, auskommt. Stattdessen ist das Wissen in der Architektur selber verkörpert und dient der Generierung von Verhalten in Interaktion mit der Welt. An die Stelle eines kognitiven Prozesses, der aus Wahrnehmen, Planen/Entscheiden und Handeln besteht, tritt eine enge Koppelung mit der Umwelt.

Die Basis dieser Architektur bilden Reflexbögen („layer“ oder Schichten), die Aufgrund von Umweltreizen reagieren, bzw. gehemmt werden (denken Sie an den Lidschlußreflex). Untereinander sind die Schichten hierarchisch gekoppelt, so dass ein Reflex die Ausführung eines anderen unterbinden kann, sobald er vom „richtigen“ Umweltereignis ausgelöst wird. Damit ist sichergestellt, dass der Roboter einerseits fortlaufend auf Ereignisse in seiner Umwelt reagiert und andererseits selbst durch Aktivität für neue Ereignisse sorgt. Die Aktivität der einzelnen Schichten wird über die Umwelt orchestriert, unabhängig davon, aus wie vielen Schichten das System besteht. All das geschieht ohne Informationsaustausch. Es gibt weder eine zentrale Planungs- und Entscheidungsinstanz, noch eine Abbildung der Welt.

Brooks’ Ansatz stellt ein Extrem dar, aber er illustriert einige Punkte, die generell kennzeichnend für den Ansatz der embodied cognitive science sind (eine etwas ausführlichere Übersicht von Cowart (2006) finden Sie in Tabelle 3) Kognition ist eine Aktivität: Die Handlung steht im Vordergrund, nicht die (passive) Perzeption. Untersucht wird Kognition an der Schnittstelle Körper – Umwelt, also an der Peripherie des kognitiven Systems. Im Gegensatz zur klassischen Kognitionswissenschaft, die bei menschlichen kognitiven Höchstleistungen ansetzte, beginnt dieser Ansatz mit sehr einfachen Strukturen und Verhaltensweisen, aber dafür mit einem vollständigen, sich in seiner Umwelt autonom verhaltenden System.

Embodiment Kognitivismus
Koppelungsmetapher: Kognition/Geist, Körper und Welt sind gekoppelt und interagieren Computermetapher: Kognition/Geist ist regelbasiert und logisch
Will man sie verstehen, müssen ihre Zusammenhänge untersucht werden Isolierte Analyse: Kognition wird ausschließlich durch Analyse interner Prozesse verstanden
Im Vordergrund: zielgeleitetes Handeln in Echtzeit im dreidimensionalen Raum Im Vordergrund:computation
Kognition als aktive Konstruktion, die in verkörperten, zielgerichteten Handlungen des Organismus verankert ist Kognition als passives Abrufen
Repräsentationen sind sensomotorisch Repräsentationen sind symbolisch encodiert

Tab. 3: Unterschiede von Embodiment und Kognitvismus nach Cowart (2006)

Ganz ohne Repräsentation wird man nicht auskommen, wenn man menschliche Kognition verstehen will, aber Kognition als rein „geistiges“, von Körper, physischer und sozialer Umwelt unabhängiges Phänomen zu betrachten, führt ebenfalls in eine Sackgasse.

Ein Experiment, das diese Sichtweise stützt, kommt von Presson und Montello (1994) (Box „Aus der Forschung“). Glenberg (1993) schließt daraus, dass unsere Repräsentationen keineswegs körperunabhängig, sondern im Gegenteil, stark von der Position unseres Körpers im dreidimensionalen Raum abhängen. Es legt nahe, dass die Repräsentation der Probandinnen und Probanden einen sensomotorischen Anteil hatte.

Die Hervorbringung und Nutzung von Artefakten als Teil unserer Kognition: Die Rolle der sozialen Interaktion, der Sprache und der Kultur

Francisco Varela postulierte bereits 1984, dass Intelligenz nicht mehr als die Fähigkeit des Problemlösens zu verstehen sei, sondern als die Fähigkeit, in eine mit anderen geteilte Welt einzutreten (Varela, 1994). Einen Hinweis darauf, dass schon die Gegenwart anderer eine „geteilte Welt“ erzeugt, gibt das Experiment von Sebanz et al. (2009) (Box: „Aus der Forschung: Gegenstände einprägen und soziale Situation“).

Die „geteilte Welt“ ist jedoch nicht einfach gegeben, ebenso wie Kognition entsteht sie in einem aktiven Prozess: Menschen reagieren nicht nur auf Stimuli in der Umwelt, sondern wir verändern und strukturieren sie in hohem Maße. Der Philosoph Andy Clark (1995) bezeichnet dies als Scaffolding (Errichten eines Gerüsts): Wir strukturieren unsere Umwelt so, dass sie uns in unseren Handlungen, bzw. beim Erwerb von Fähigkeiten unterstützt. Ein alltägliches Beispiel ist der Terminkalender: Wir müssen uns nicht länger jeden Termin merken, stattdessen werfen wir kognitive Last ab (man spricht von engl. „offloading cognitive load“) und interagieren mit unserem Terminkalender, indem wir Einträge machen, bzw. ihn konsultieren. Eine kognitiv anspruchsvolle Aufgabe – hier: viele unterschiedliche Termine exakt „im Kopf haben“ – wird auf wenige Handlungsmuster in Form der Interaktion mit einem Artefakt heruntergebrochen.

Aus der Forschung: Gegenstände einprägen und Position im Raum (Presson & Montello, 1994)

Zwei Versuchsgruppen wurden gebeten, sich die Position einiger Gegenstände in einem Raum zu merken. Anschließend wurden ihnen die Augen verbunden. Die erste Gruppe wurde gebeten sich um 90° zu drehen und nacheinander auf die Objekte zu zeigen, die angesagt wurden. Die zweite Gruppe wurde gebeten sich lediglich vorzustellen, sie hätten sich gerade um 90° gedreht und sollten auf die Position zeigen, welche die Objekte einnehmen würden, wenn sie sich gedreht hätten. Aus Sicht des kognitivistischen Paradigmas tun beide Gruppen dasselbe: Sie rotieren ihre Repräsentation des Raumes und der Objekte darin um 90°. Daher wäre anzunehmen, dass es keine Rolle spielt, ob die Probandinnen und Probanden sich zusätzlich physisch in eine andere Position begeben. Tatsächlich aber zeigten die Probandinnen und Probanden der ersten Gruppe, die sich tatsächlich gedreht hatten, schnell und akkurat auf die gefragten Objekte, während die Zeigebewegungen der zweiten Gruppe, die sich die Drehung lediglich vorstellen musste, zögerlich und ungenau waren.

?

Überlegen Sie bitte, in welchen alltäglichen Situationen Sie Artefakte verwenden, die Ihnen „kognitiven Ballast“ abnehmen. Welche kognitive Last laden Sie ab und welche Interaktionsmuster treten an ihre Stelle?

Darüber hinaus strukturieren wir unsere Umwelt nicht nur durch Artefakte, wie Werkzeuge, Terminkalender, Städte, sondern durch soziale Konventionen, Organisationen und – nicht zuletzt — durch Sprache. Letztere bezeichnet Clark (1995) als „ultimatives Artefakt“, weil sie folgende Funktionen erfüllt:

Über Artefakte beeinflussen wir die Interaktionsmöglichkeiten anderer mit der Welt und werden in noch stärkerem Maße selbst beeinflusst. Mit anderen Worten: Kognition (hier ist weitgehend menschliche Kognition gemeint) hat immer eine sozio-kulturelle Dimension, man spricht in diesem Kontext auch von Situated Cognition (Clark, 2001). Die nächste Generation erhält nicht nur die Gene der Elterngeneration, sondern wächst in die entstandenen sozialen und organisationalen Strukturen sowie die Interaktion mit physischen Artefakten hinein. Tomasello (1999) bezeichnet diesen Umstand in seinem Buch „The Cultural Origin of Human Cognition“ als Ratscheneffekt (engl. „ratchet effect“): Wie die Zacken des Zahnrads, welche die Drehung der Ratsche in eine Richtung erzwingen, ermöglichen Artefakte den Aufbau neuer Interaktionsmuster auf der Basis der bereits geschaffenen Artefakte.

Hutchins (1995) wechelt daher die Betrachtungsebene: In seinem Artikel „How a cockpit remembers its speeds“ ist der Forschungsgegenstand kognitives System nicht mehr das Individuum, sondern ein sozio-technisches System, das nicht nur aus Individuen (Piloten/Pilotinnen), sondern auch aus Artefakten (Messinstrumente und Unterlagen) im Cockpit, besteht. Um zu verstehen, warum das Flugzeug sicher landet, reicht es aus seiner Sicht nicht aus, die kognitiven Prozesse im Kopf der Piloten/Pilotinnen zu analysieren, eine Erklärung für die Leistung findet sich erst, wenn man alle Formen der Repräsentation – sei diese im Gehirn, auf Papier, einem Messinstrument oder eine sprachliche Äußerung, sowie die Interaktionsmuster zwischen ihnen — analysiert. (Man beachte an dieser Stelle eine weitere Umdeutung des Begriffs der Repräsentation!)

Im Bereich des Lehrens und Lernens ist eine solche Betrachtungsweise eine gute Basis, um Lernprozesse als situiert zu konzeptualisieren. In ihrem Buch „Situated Learning“ analysieren Lave und Wenger (1991) außerschulische Lernprozesse, wie sie beispielsweise in einer Lehre, bei der Ausbildung zum Steuermannsmaat auf Schiffen (ein Beispiel von Hutchins) oder bei den Anonymen Alkoholikern stattfinden, als Lernprozesse in denen sich Person, Handlung und Welt gegenseitig konstituieren. Ihr Augenmerk ist dabei weniger auf Artefakte, als auf die sozialen und organisationalen Strukturen gerichtet, die dazu führen, dass Neulinge in einem Wissensgebiet nicht einfach nur Fakten lernen, sondern in eine Handlungsgemeinschaft (community of practice, Wenger, 1998) eintreten und mit zunehmender Expertise auch eine neue Identität entwickeln. Unter welchen Bedingungen communities of practice nicht ausschließlich im physischen Raum, sondern als virtual communities (Englisch für „virtuelle Gemeinschaften“), im Internet existieren können, zeigt Powazek (2001).

Aus der Forschung: Gegenstände einprägen und soziale Situation (Sebanz et al., 2009)

Sebanz et. al. (2009) zeigten ihren Versuchspersonen verschiedene Bilder aus drei Kategorien (Tier, Frucht/Gemüse und Haushaltsgerät) auf einem Computerbildschirm, wobei eine Versuchsperson immer auf eine Kategorie mit Tastendruck reagieren sollte. Diese Aufgabe wurde unter zwei Umständen durchgeführt: alleine und in Gegenwart einer zweiten Versuchsperson, deren Aufgabe es war, auf eine andere Kategorie zu reagieren. Nach dieser Aufgabe wurden die Versuchspersonen jeweils gebeten, möglichst viele der gesehenen Objekte aller Kategorien zu erinnern. Das Ergebnis war verblüffend: Personen, die ihre Aufgabe in Gegenwart einer zweiten Versuchsperson erfüllt hatten, erkannten signifikant mehr Objekte aus der Kategorie der anderen Person wieder, als wenn sie die Aufgabe alleine bewältigten. Die Anwesenheit der zweiten Person hatte weder Auswirkung auf das Erinnern der „eigenen“ Kategorie noch auf das der dritten Kategorie. Allein die soziale Situation, ohne eine im eigentlichen Sinne gemeinsame Aufgabe, hatte Auswirkungen auf die Aufmerksamkeit und das Gedächtnis der Versuchspersonen.

Kognitionswissenschaft

Konsequenzen für unsere Sicht auf Wissen, Lernen und Technologien

Was sind die Konsequenzen einer verkörperten und situierten Kognitionswissenschaft für unseren Wissensbegriff? Vom leicht fassbaren, weil formalisierbaren Wissensbegriff der klassischen Kognitionswissenschaft ist nicht viel übrig geblieben. Stattdessen ist die Rede von verteilter Repräsentation, Interaktion und Koppelung mit der Umwelt, Verwendung von Artefakten, um kognitiven Ballast zu reduzieren, usw. Was davon ist „Wissen“ – was sind für das kognitive System interne und was sind externe Strukturen?

Externalisiertes Wissen als Entität, das einen Teil der Welt beschreibt, gibt es in der Form nicht; es handelt sich hier nicht um „Wissen“ im alltagssprachlichen Sinn, sondern um ein an sich bedeutungsloses Artefakt, dessen Bedeutung in einem fortlaufenden interaktiven Ausverhandlungsprozess zwischen den teilnehmenden kognitiven Systemen bzw. deren internen repräsentationalen Strukturen/-prozessen erst entsteht. Das bedeutet auch, dass an die Stelle des Begriffs von Wissen als statischen Gegenstand, der wahr oder falsch sein kann, das Konzept eines dynamischen zyklischen Prozesses getreten ist, dessen Entwicklungsstufen sich in immer neuen Artefakten niederschlagen, die ihrerseits neue Interaktionsmöglichkeiten anbieten, welche wiederum eine Veränderung der internen Strukturen und Handlungsmuster hervorrufen.

Das geht insofern mit einem konstruktivistischen Denken Hand in Hand, als das Artefakt an sich bedeutungslos ist. Der Fokus liegt hier jedoch weniger auf der individuellen Kognition und Konstruktion der „Welt im Kopf“ als auf den Prozessen und Strukturen, die dazu führen, dass wir durch Kommunikation zu einer Einigung auf „gültiges Wissen“ — im Sinne von sozial verhandelt — kommen. Letztlich befähigt uns das zum Eintreten in eine „geteilte Welt“, die wir in Wissensprozessen fortwährend erzeugen.

Nimmt man diesen Ansatz ernst, hat das auch Implikationen für das Verständnis von Lernen und Lehren: Etwas gelernt zu haben, beschränkt sich nicht auf die korrekte Reproduktion einer Beschreibung eines Teils der Welt (Faktenwissen). Relationen zwischen diesen Beschreibungen, Verhaltensstrategien zur erfolgreichen Umweltbewältigung und letztendlich die Fähigkeit zur Teilnahme an Wissensprozessen sowie deren Reflexion sind ebenso unabdingbar, um „etwas zu wissen“.

?

Wie nehmen Sie die Lernräume wahr, mit denen Sie als Lernende/r, Lehrende/r oder Applikations­designer/in konfrontiert sind? Welcher Wissensbegriff wird durch welche Elemente gefördert? Wie könnte man den Raum so verändern, dass er Wissensprozesse (besser) unterstützt?

Dies hat auch Konsequenzen für die Rolle der Lehrenden: Sie sind nicht länger Verkündende finaler Wahrheiten, sondern Coaches oder Moderatorinnen und Moderatoren, die „nur“ mehr die Wissensdynamik im Lehr-/Lern-Raum moderieren. Man könnte meinen, dass dies ihre Wichtigkeit und Autorität als „Wissende“ vermindert; sieht man jedoch genauer hin, wird sie bedeutsamer denn je, da sie die Umwelt gestalten, das heißt die Artefakte und damit die möglichen Interaktionsmuster auswählen, die Wissensprozesse erst ermöglichen und durch ihr Verhalten die Regeln der sozialen Interaktion festsetzen. Sie sind Gestaltende von Lernräumen, die entweder Bulimie-Lernen fördern, oder aber Enabling Spaces sein können (Peschl et al., 2008), Räume, die in einer Vielzahl an Dimensionen (architektonisch, sozial, technologisch, kognitiv, emotional, etc.) ermöglichende Rahmenbedingungen bieten, um die Arbeit der Wissensgenerierung und Bedeutungsverhandlung zu unterstützen.

Auf der Ebene von Technologien hat sich interessanterweise ein Wandel vollzogen, den man als Konsequenz eines veränderten Bildes von Kognition und Wissen deuten kann: Die monolithische Autorität eines Brockhaus ist abgelöst worden von Wikipedia, einem Artefakt, das gleichzeitig Raum für und Produkt eines permanenten Ausverhandlungsprozesses über Wissensartefakte ist.

Nur Artefakt und Prozess gemeinsam kons­tituieren Wissen, die Aufgabe von Kognition ist es nicht, Wissensartefakte abzubilden, sondern mit ihnen zu interagieren und im besten Falle in gemeinsame Wissens- und Bedeutungsgebungsprozesse eintreten zu können. Nimmt man diese Überlegungen ernst, so ergibt sich für das Design von Wissens- und Lehr-/Lerntechnologien, dass nur solche Ansätze erfolgreich sein werden, die einen Raum für Interaktionen bieten und Ausverhandlungsprozesse von Bedeutung unterstützen, wie sie in Web-2.0-Technologien wie Wikis verwirklicht sind, nicht aber solche, die auf starren und vorgegebenen semantischen Strukturen basieren.

Kognitionswissenschaft

Literatur

Diversität und Spaltung

Digitale Medien in der Gesellschaft

Die Verbreitung und Nutzung von digitalen Medien in der Gesellschaft befindet sich im Spannungsfeld zwischen Diversität und Spaltung. Digitale Medien bringen neue Chancen und eröffnen neue Wege. Lernende erhalten einen Zugang zu diversen Wissensressourcen, vielfältige Möglichkeiten der sozialen Vernetzung und eine große Bandbreite an digitalen Werkzeugen, die das Lernen unterstützen können. Gleichzeitig sind mit der Nutzung von digitalen Medien verschiedene Risiken und Probleme verbunden. Mit der Nutzung von digitalen Medien entstehen neue Formen der Gewalt, die Kluft zwischen den Nutzenden und Nicht-Nutzenden wird immer größer, und die sozialen Ungleichheiten werden durch die Nutzung von digitalen Medien vertieft. Dieses Kapitel diskutiert den Einsatz von digitalen Medien (unter anderem Internet, soziale Medien und Web 2.0, mobile Technologien) im Bildungskontext aus der Perspektive der Diversität und Spaltung. Es werden verschiedene Formen und Aspekte von Diversität und Spaltung im Kontext der digitalen Medien diskutiert und Beispiele aus der Praxis als Anregungen für eine diversity-orientierte Medienpraxis vorgestellt.

Diversität und Spaltung

Einführung

Medien, und gegenwärtig vermehrt die digitalen Medien (Internet, soziale Medien, mobile Technologien), haben einen prägenden Einfluss auf verschiedene Generationen. Generationen können im soziologischen Sinne als ein Zusammenhang und ein Miteinander von Individuen definiert werden, die einen gemeinsamen kulturellen Kontext und eine ähnliche Perspektive auf Ereignisse teilen (Becker, 2008). Dabei gehören Medien als Begleiter aller Situationen im Alltag zu wesentlichen Elementen für die Herausbildung von Generationen. Alleine die Hochkonjunktur des Begriffs ‚Mediengeneration‘ mit den aktuell populären Ausprägungen, wie ‚Generation X‘, ‚Digital Natives‘ oder ‚Netzgeneration‘, weist auf die Grundannahme zur sozialisierenden Funktion der Medien in der Gesellschaft hin. Einer Mediengeneration gemeinsam können bestimmte Mediennutzungspraktiken, Medienerfahrungen, Einstellungen gegenüber Medien und kollektiv-biografische Erinnerungen sein (unter anderem Baacke, 1999; Volkmer, 2006; Süß, 2007). Die Sozialisationsfunktion von Medien steht im Vordergrund der Mediensozialisationsforschung. Zahlreiche Forschungsarbeiten in diesem Feld zeigen, dass Medien tatsächlich eine wichtige soziale, kulturelle, politische, Meinung und Kompetenz bildende, sowie orientierende Rolle spielen (unter anderem Theunert & Schorb, 2004). Die sozialisierende Funktion von Medien wird häufig als generationsprägend interpretiert. So werden zum Beispiel Jugendliche plakativ mit dem Begriff ‚Net-Generation‘ etikettiert oder die Jahrgänge ab 1980 als eine Geburtskohorte von digitalen Einheimischen (Digital Natives) betrachtet (Prensky, 2001; Palfrey und Gasser, 2008). Insbesondere die These zu Digital Natives, nach der es eine Generation gäbe, die mit digitalen Technologien, vor allem Internet, aufgewachsen ist und im Gegensatz zu digitalen Immigranten (Digital Immigrants) mit Medien grundsätzlich vertrauter, offener und intensiver umgeht, wurde mehrmals infrage gestellt (Hugger, 2010; Bohnenkamp, 2011).

Ein genauer Blick zeigt nämlich, dass sich Medienerfahrungen und Nutzungspraktiken bei gleichen Altersgruppen deutlich unterscheiden können. So kommt die DIVISI-Studie über die digitalen Milieus beispielsweise zur Schlussfolgerung, dass es innerhalb von Generationen unterschiedliche Einstellungs- und Verhaltenstypen gibt, die digitale Medien unterschiedlich nutzen (DIVISI, 2012). Die Studie „D21-Digital-Index“ zum Digitalisierungsgrad in Deutschland zeigt wiederum, dass es erhebliche regionale Unterschiede im digitalen Zugang, in der Nutzung und den Kompetenzen gibt. Selbst innerhalb der gleichen Generationen gibt es gravierende Unterschiede im Zugang und Nutzung von digitalen Medien, zum Beispiel zwischen Männern und Frauen, zwischen Menschen mit unterschiedlichem Bildungshintergrund oder im internationalen Vergleich zwischen Menschen in den verschiedenen Weltregionen (Comscore, 2010, 2013).

Die Unterschiede in Zugang und Nutzung digitaler Medien platzieren auch die Bildungspraxis im Spannungsfeld zwischen Diversität und Spaltung. Diversität steht dabei synonym für Vielfalt und Verschiedenheit, unter anderem in Bezug auf Medien, Themen, Objekte, Herangehensweise und Problemlösungen. Spaltung wiederum beschreibt eine Kluft, Trennung oder Teilung in der Gesellschaft. Bezogen auf die Mediennutzung ist hier von der digitalen Spaltung die Rede. Digitale Spaltung beschreibt die Chancenunterschiede im Zugang (zum Beispiel Internetzugang) aber auch in der Art der Nutzung von digitalen Medien.

In diesem Beitrag werden die Phänomene Diversität und Spaltung im Blick auf die inklusive Medienpädagogik und inklusive Medienbildung diskutiert, welche als Praxis- und Forschungsfelder das Thema Inklusion in den Vordergrund stellen (Schorb & Theunert, 2012). Im Folgenden werden ausgewählte Aspekte von Diversität und Spaltung sowie Beispiele aus der Bildungspraxis skizziert. Abschließend gibt es Empfehlungen für diversity-orientierte Medienpraxis und Übungsaufgaben zur Vertiefung und Reflexion der hier angerissenen Themen. Dabei gilt es, die Vielfalt und die Unterschiede wahrzunehmen und die Diversität beim Einsatz von Neuen Medien in der Bildungspraxis gezielt zu fördern.

!

Digitale Medien eröffnen neue Zugangswege und Beteiligungsmöglichkeiten an der Erstellung und Nutzung von Wissen. Gleichzeitig führen Unterschiede im Zugang und bei Nutzung von digitalen Medien zu einer wachsenden Kluft in der Gesellschaft. Ein diversität-fördernder Einsatz von digitalen Medien zum Lernen und Lehren gewinnt an Bedeutung.

In der Praxis

Das Zentrum für Kompetenzentwicklung für Diversity Management in Studium und Lehre an Hochschulen in NRW informiert über Diversityprojekte und Good Practice zu Diversity Management in der Bildung. URL: http://www.komdim.de/

Diversität und Spaltung

Diversität

Diversität bedeutet Vielfalt und Unterschiedlichkeit zugleich. Der englische Begriff ‚Diversity‘ hat seinen Ursprung in der amerikanischen Bürgerrechtsbewegung und wird heutzutage mit den Forderungen nach Gleichstellung, Chancengerechtigkeit, Antidiskriminierung, Partizipation und Inklusion in einen Zusammenhang gebracht. Diversity beziehungsweise Diversität beschreibt demnach ein Konzept zur Förderung von Chancengerechtigkeit und Vielfalt, unter anderem kultureller, sozialer, alters- oder geschlechtsbezogener Vielfalt. Diversity als gleichstellungsorientierter Umgang mit Unterschieden und Gemeinsamkeiten betont die Bedeutung einer wertschätzenden Haltung und gleichstellungsorientierter Handlung (Klappenbach, 2009).

Theorie: Diversität und Inklusion

Das Prinzip der Wertschätzung und Anerkennung von Vielfalt im Kontext von Bildung und Erziehung liegt der inklusiven Pädagogik zugrunde. Im Zusammenhang mit der Verwendung von digitalen Medien zur Förderung von Inklusion ist von der inklusiven Medienpädagogik und der inklusiven Medienbildung die Rede. Eine Richtung in der inklusiven Medienpädagogik und Medienbildung konzentriert sich auf die Gestaltung von mediengestützten Angeboten für Menschen mit kognitiven und körperlichen Beeinträchtigungen. Hier werden vor allem Barrierefreiheit, gleiche Chancen im Zugang zu Medien und chancengerechte Mediennutzung thematisiert. Der Fokus auf die Inklusion ist auch vor dem Hintergrund der UN-Behindertenrechtskonvention zu sehen, welche die Verwirklichung eines inklusiven Bildungssystems fordert. Diese betrifft vor allem die Eröffnung von Bildungschancen und Ermöglichung einer gleichberechtigten Teilhabe in der Gesellschaft, inklusive des Bildungssystems. Mit dieser Forderung ist ein radikales Umdenken notwendig. Im Gegensatz zur Integration, die eine Anpassung, zum Beispiel eines behinderten Menschen, verlangt, fordert die Inklusion die Anpassung des Systems selbst. Inklusive bedeutet demnach auf die Bedürfnisse der Betroffenen ausgerichtet, die Individualität respektierend und diese als Vielfalt und Bereicherung anerkennend (Tiez, 2009).

Die Verengung auf die Behinderung in der Diskussion um die inklusive Medienpädagogik und inklusive Medienbildung kann jedoch auch kritisch betrachtet werden (Werning & Stuckatz, 2012), so werden andere Gruppen mit Bedarf an gleichstellungsorientierter Förderung, unter anderem Frauen, Seniorinnen und Senioren, Menschen mit Migrationshintergrund, in der Debatte um die inklusive Medienbildung nicht beachtet. Diese und andere Gruppen dürfen jedoch aus der inklusiven Medienpädagogik beziehungsweise Medienbildung nicht ausgeklammert werden.

Für den bewussten Umgang mit der Vielfalt, unter anderem in Bildungskontexten, spielt die sogenannte Diversity-Kompetenz eine wichtige Rolle. Diversity-Kompetenz umfasst unter anderem das Wissen über Diversity-Aspekte (z. B. Wissen über eine Kultur oder Gleichstellung der Geschlechter), Einstellungen (zum Beispiel eine wertschätzende Haltung gegenüber Andersartigkeit, gleichstellungsorientierter Umgang mit Gemeinsamkeiten und Unterschieden) und Fähigkeiten (zum Beispiel Fähigkeit zur Selbstreflexion und zum Perspektivenwechsel). Im Folgenden werden einige Schlüsselthemen zur Förderung von Diversität und Inklusion skizziert und ausgewählte Beispiele aus der Praxis der inklusiven Medienpädagogik und Medienbildung vorgestellt.

!

Inklusive Medienpädagogik und inklusive Medienbildung bezeichnen einen Ansatz zur Nutzung von Medien nach dem Prinzip der Förderung und Wertschätzung von Vielfalt. Dabei wird Diversity-Kompetenz der Lehrenden und Lernenden als eine Grundlage für den bewussten und konstruktiven Umgang mit Unterschieden und Ungleichheiten gesehen.

In der Praxis

Das Projekt „medienkompetent teilhaben!“ der LAG Lokale Medienarbeit NRW e. V. (LAG LM) und der Technischen Jugendfreizeit- und Bildungsgesellschaft (tjfbg) gGmbH berichtet über barrierefreie Medienbildung und bietet eine Weiterbildung „Inklusive Medienpädagogik“ für Pädagoginnen und Pädagogen mit Fokus auf Audio- und Videoarbeit, Web 2.0, Computerspiele, unterstützende Technologien und Medienrecht an. URL: http://www.inklusive-medienarbeit.de

Abb. 1: Visualisierung und Abgrenzung des Begriffs „Inklusion“; Autor: Robert Aehnelt, Quelle: [http://commons.wikimedia.org/wiki/File:Schritte\_zur\_Inklusion.svg](http://commons.wikimedia.org/wiki/File:Schritte_zur_Inklusion.svg)
Abb. 1: Visualisierung und Abgrenzung des Begriffs „Inklusion“; Autor: Robert Aehnelt, Quelle: [http://commons.wikimedia.org/wiki/File:Schritte\_zur\_Inklusion.svg](http://commons.wikimedia.org/wiki/File:Schritte_zur_Inklusion.svg)

Beispiel: Zugang und Barrierefreiheit

Zugang und Barrierefreiheit gehören zu den Grundvoraussetzungen für Diversität und Partizipation an der (digitalen) Gesellschaft. Die Chancengerechtigkeit in den Zugangs- und Nutzungsmöglichkeiten von digitalen Medien setzt wiederum physische, intellektuelle, soziale und emotionale Fähigkeiten voraus (Bosse, 2012). Der Begriff ¸Zugang’ wird dabei nicht nur im technisch-materiellen Sinne (z. B. Zugang zu Computer oder Internetanschluss), sondern auch im psychosozialen Sinne (zum Beispiel die Fähigkeit, relevante Informationen im Internet zu filtern oder soziale Netzwerke zum Lernen und Arbeiten aufzubauen) verstanden. Auch das Konzept von ‚Barrierefreiheit‘ bezieht sich nicht nur auf den Abbau von anwendungsbedingten Hindernissen (zum Beispiel Einsatz von Webstandards oder Skalierbarkeit), sondern schließt den Abbau von individuellen Hindernissen (z. B. mangelnden Vorkenntnissen im Umgang mit Medien oder fehlendes Interesse und Nichtnutzung von Medienangeboten) mit ein (Berger et al., 2010).

Laut der ARD/ZDF-Onlinestudie 2012 hat sich in den letzten zwölf Jahren die Anzahl der Internetnutzenden in Deutschland verdreifacht. Als Gründe für diesen Zuwachs werden unter anderem die zunehmende Aufgeschlossenheit der Bevölkerung gegenüber digitalen Medien, der Zugang zu einfach zu bedienenden Endgeräten (unter anderem Smartphones, Tablets) und kostengünstige Verbindungen gesehen (Eimeren & Frees, 2012). Aktuelle Rahmenbedingungen und technische Entwicklungen führen dazu, dass digitale Medien von internetdistanzierteren Nutzer/innen-Gruppen, zum Beispiel über 50-jährige Frauen und die Gruppe der 50-jährigen, formal niedriger gebildeten Personen, das heißt Menschen, die als „internetfern“ oder „onlineabstinent“ galten, vermehrt genutzt werden (Eimeren & Frees, 2005).

Die wachsenden Zahlen der Internetnutzenden sind jedoch nicht mit der Qualität der Nutzung gleich zu setzen. Die ARD/ZDF-Onlinestudie 2012 und die JIM-Studie 2012 zeigen, dass unter den Internetnutzenden eine eher passiv-konsumierende Haltung herrscht, das heißt nur wenige Internetznutzende sind an einer aktiven Gestaltung beteiligt, zum Beispiel nur wenige erstellen Videos oder schreiben in Blogs (Eimeren & Frees, 2012; JIM, 2012). Trotz einer sehr guten Versorgung mit Computern und mobilen Geräten in Deutschland und der guten Verfügbarkeit des Internets, nutzt nur etwa die Hälfte der Jugendlichen den Computer oder das Internet als Werkzeug für schulisches Lernen (JIM, 2012). Als eine wichtige Barriere auf dem Weg zur Entwicklung der Medienkompetenz wird unter anderem ein niedriger Einsatz von Computer und Internet in der Schule betrachtet: Die Arbeit mit Computer und Internet in der Schule ist eher selten (JIM, 2012). Als Gründe dafür werden unter anderem mangelnde Ausstattung der Schulen und fehlende technisch-didaktische Kompetenzen der Lehrenden zum Einsatz von Medien im Unterricht genannt (Wiggenhorn & Vorndran, 2003). Laut der Studie von BITKOM (2011) sind jedoch aktuell ein Umdenken und eine Verbesserung der Medienkompetenzen der Lehrenden festzustellen: 85 Prozent der Lehrenden stehen digitalen Medien positiv gegenüber, und mehr als drei Viertel sehen einen großen Nutzen im Einsatz digitaler Medien in der Schule. Das ist ein durchaus positives Ergebnis, denn ein bewusster und reflektierter Einsatz der Neuen Medien im Unterricht und die Ausbildung der Medienkompetenz, welche als eine Kulturtechnik, neben dem Lesen, Schreiben und Rechnen angesehen wird, ist eine wichtige Voraussetzung für die berufliche Laufbahn und lebenslanges Lernen (Wiggenhorn & Vorndran, 2003).

!

Zugang und Barrierefreiheit im Kontext der Mediennutzung sind wichtige Voraussetzungen für Diversität und Inklusion. Sie beschränken sich jedoch nicht nur auf technische Möglichkeiten, sondern umfassen auch individuelle Voraussetzungen, unter anderem Medienkompetenzen, die im Bildungssystem immer noch zu wenig Beachtung finden.

In der Praxis

Die Initiative iCHANCE des Bundesverbandes Alphabetisierung und Grundbildung e. V. nutzt digitale Medien (unter anderem Lernspiele und Lernmaterialien), um Barrieren im Zugang zur Bildung junger Erwachsener mit niedrigen Lese- und Schreibkompetenzen zu reduzieren. URL: http://www.profi.ichance.de

Diversität und Spaltung

Spaltung

Der Begriff ‚Spaltung‘ wird in der Soziologie im Zusammenhang mit sozialen Ungleichheiten in einer Gesellschaft zusammengebracht, unter anderem eine Kluft zwischen Klassen, Schichten, sozialen Milieus (Burzan, 2004). Spaltungen zwischen verschiedenen Gruppen in der Gesellschaft entstehen unter anderem aufgrund der Unterschiede im sozialen Status, Einstellungen, Wertorientierungen und dem Bildungshintergrund. Soziale Spaltungen können u. a. das Konflikt- und Gewaltpotenzial in der Gesellschaft erhöhen.

Unter den Begriffen digitale Spaltung, digitale Kluft oder digitale Ungleichheit (englisch „digital divide“, „digital gap“, „digital inequality“) werden Unterschiede in den Zugangs- und Nutzungsmöglichkeiten von digitalen Medien, vor allem dem Internet, diskutiert. Dabei wird davon ausgegangen, dass der Zugang zum Internet und die Nutzung von digitalen Medien, im Sinne moderner Kulturtechniken, soziale, wirtschaftliche und politische Auswirkungen haben. So wird zum Beispiel argumentiert, dass Menschen mit dem Zugang sowie dem Wissen und der Fähigkeit, Medien kompetent zu nutzen, mehr Chancen haben, zum Beispiel um berufliche Kontakte zu knüpfen oder auf wichtige Informationen zurückzugreifen.

Das Problem der digitalen Spaltung wurde seit den 1990er Jahren zunächst hauptsächlich als Frage des Internetzugangs thematisiert. Trotz einer zunehmenden, globalen Internetversorgung, auch durch die Nutzung von mobilen Technologien, wird das Problem des Internetzugangs für manche Gruppen reduziert, für andere jedoch noch nicht gelöst. So sind nach wie vor deutlich mehr Menschen mit Beschäftigung online als Menschen ohne Arbeit (Initiative D21, 2012). Auch Frauen werden in vielen Ländern aus kulturellen, politischen oder religiösen Gründen von der Internetnutzung ausgeschlossen (Intel, 2012). Parallel zum Problem des Internetzugangs werden zusätzlich neue Formen digitaler Spaltung diskutiert. Die neuen Formen der digitalen Spaltung hängen häufig mit Ungleichheiten außerhalb des Internets zusammen.

Vor diesem Hintergrund ist von zwei Stufen beziehungsweise einer doppelten digitalen Spaltung die Rede. Neben der ersten Stufe der technisch bedingten Zugangskluft bezieht sich die zweite Stufe, sogenannte „Second Level Digital Divide“, auf die soziale, kulturell- und bildungsbedingte Spaltung (Hargittai, 2002; Bonfadelli, 2002). Diese Art von Spaltung spiegelt sich in der Qualität der Mediennutzung wider. Dabei knüpft die Argumentation zur doppelten digitalen Spaltung an die These der Wissenskluft an. Diese besagt, dass die Verbreitung von Massenmedien nicht zwingend zu einer kompetenteren oder besser informierten Gesellschaft führt. Im Gegenteil, durch den Zuwachs an Informationsmöglichkeiten und den erhöhten Informationsfluss werden Spaltungen in der Gesellschaft vertieft, zum Beispiel zwischen den bildungsaffinen und den bildungsfernen Bevölkerungssegmenten (Bonfadelli, 2002).

!

Digitale Spaltung ist ein multidimensionales Phänomen und hängt mit sozialen Ungleichheiten außerhalb des Internets zusammen.

In der Praxis

Die Initiative „Frauen ans Netz“ bietet eine breite Auswahl an Möglichkeiten, Medienkompetenz der Frauen zu entwickeln, wodurch die Geschlechterkluft (englisch „gender gap“) in der Internetnutzung reduziert werden kann. URL: http://www.frauen-ans-netz.de/

Theorie: Spaltung und Exklusion

In der Debatte um die digitale Spaltung ist häufig von Exklusion die Rede. Der Begriff „Exklusion“ — als Gegenbegriff zu Inklusion — wird im Sinne der Ausschließung verwendet. Dabei kann es sich sowohl um eine Ausschließung aus der Gesellschaft als auch in der Gesellschaft handeln (Kronauer, 2010). Exklusion durch digitale Spaltung kann verschiedene Formen annehmen. So ist beispielsweise mit einem zunehmenden sozialen Druck, digitale Medien nutzen zu müssen, um soziale Teilhabe und Zugehörigkeit zu bewahren, die Gefahr verbunden, aus einem Freundes- oder Bekanntenkreis ausgeschlossen zu werden. Die neuen Formen der Kommunikation und Zusammenarbeit wirken sich nicht nur auf das soziale Miteinander, sondern auch auf das berufliche und politische Leben aus. So sind Menschen ohne Zugang zum Computer oder Internet aus den wichtigen Teilen der gesellschaftlichen Kommunikation ausgeschlossen. Auch die Unterschiede in der gesellschaftlichen Partizipation werden durch den Zugang und Nutzung von digitalen Medien verstärkt. Laut der aktuellen Studie von Intel (2012) mit dem Titel “Women and the web”, bleiben Mädchen und Frauen in vielen Entwicklungsländern von der Internetnutzung fern, sei es aufgrund eines beschränkten Zugangs zu internetfähigen Geräten, Analphabetismus oder kultureller Überzeugungen, unter anderem es sei unangemessen, wenn Frauen Internet nutzen (Intel, 2012). Auch frühere Studien weisen auf einen geringen Frauenanteil der Internetnutzenden, der bei ca. 25 Prozent in Afrika, 22 Prozent in Asien und 6 Prozent im Nahen Osten lag (Hafkin & Taggart, 2001; Hafkin, 2006).

!

Exklusion ist ein Gegenbegriff von Inklusion und beschreibt eine Ausschließung, zum Beispiel aus einer sozialen Gruppe, die zu einer Verstärkung der digitalen Spaltung führen kann.

In der Praxis

Das Programm „Watch your web“ informiert Jugendliche spielerisch über die Risiken der Internetnutzung, um der sozialen Ausgrenzung zum Beispiel durch Cybermobbing, vorzubeugen. URL: http://www.watchyourweb.de/

Beispiel: Cybermobbing

Die gleichen Vernetzungs- und Verlinkungsstrukturen im Internet, die einen Zugang zu Lernressourcen und sozialer Vernetzung im positiven Sinne ermöglichen, werden zugleich als ein wesentlicher Aspekt der Gewaltproblematik im Internet gesehen (Grimm et al., 2008). Dabei ist eine der meist bekannten Gewaltformen im Internet das Cybermobbing. Als Cybermobbing beziehungsweise Cyberbullying wird das absichtliche Beleidigen, Bedrohen, Bloßstellen oder Belästigen anderer mithilfe digitaler Medien in der sogenannten „Cyberwelt“, zum Beispiel unter Verwendung von E-Mails, Instant Messenger, Chats, Foren, sozialen Netzwerken, Video-Portalen, mobilen Telefonen, definiert (Quelle: http://www.klicksafe.de).

Die Angreifer/innen handeln oft anonym, die Täter/innen und Opfer kennen sich jedoch meist auch in der „realen“ Welt. Cybermobbingattacken können verschiedene Formen annehmen. Es können beispielsweise diffamierende Fotos oder Filme eingestellt und verbreitet werden, Lästereien oder Unwahrheiten über eine bestimmte Person in sozialen Netzwerken verbreitet, oder Beleidigungen und Bedrohungen via E-Mails, Chats, Foren oder Ähnliches verschickt werden. Zu den verschiedenen Ausprägungen von Cybermobbing gehören unter anderem Flaming (verletzende Kommentare, vulgäre Pöbeleien), Harrassment (zielgerichtete, wiederkehrende Attacken), Denigration (Verbreiten von Gerüchten), Impersonation (Auftreten unter falscher Identität), Outing (Verbreitung intimer Details bzw. peinlicher Aufnahmen), Exclusion (Ausgrenzung aus einer Gruppe), Cyberstalking (sexuell-motivierte Verfolgung), Cyberthreats (offene Androhung von Gewalt) (Grimm et al., 2008). Die Gründe für das Cybermobbing sind vielfältig. Das Cybermobbing dient unter anderem als Ventil für aufgestaute Aggressionen und als Instrument der Macht, oder es wird dazu verwendet, sich einen bestimmten Ruf zu verschaffen, zum Beispiel besonders „cool“ zu sein oder als Teil einer Gemeinschaft angesehen zu werden (Quelle: http://www.klicksafe.de).

Das Cybermobbing wird von den angegriffenen Personen meistens als Verletzung, Bloßstellung oder Demütigung empfunden. Es kann zu psychosomatischen Beschwerden, unter anderem mit depressiven Erschöpfungs- und Angstzuständen, führen. Das Leiden der Opfer von Cybermobbing kann im Extremfall sogar zum Selbstmord führen. Die Cybermobbingvorgänge sind von außen schwer zu beobachten, da sie häufig in einem abgeschlossenen Raum stattfinden, z. B. auf mobilen Telefonen. Aus diesem Grund haben Eltern, Lehrende und Mitschüler/innen nur wenig Einblick in die Cybermobbingattacken, die häufig über einen längeren Zeitraum stattfinden.

Aktuelle Studien zeigen, dass das Cybermobbing ein ernst zu nehmendes Problem ist. Nach der Studie von Quandt und Festl (2013) nimmt das Cybermobbing, vor allem in Schulen, zu. Die Forschenden konnten in der 10. Klasse bereits 14 Prozent der Schüler/innen als Täter identifizieren. Es gibt eine Reihe von Maßnahmen, die vor Cybermobbing schützen können. Da eine klare Unterscheidung zwischen den Täterinnen und Tätern und den Opfern nicht immer möglich ist (Quandt & Festl, 2013), ist eine Sensibilisierung sowohl seitens der potenziellen Täter und Täterinnen als auch der potenziellen Opfer wichtig. Auch Kontrollmaßnahmen, zum Beispiel das Einsehen der aktuellen Internetaktivitäten durch Lehrende und Eltern, und Thematisierung der Probleme und Aufklärung in Bildungskontexten, zum Beispiel Integration in den Unterricht (siehe Merksatz unten), können gegen Cybermobbing eingesetzt werden. Wichtig ist auch, die positive Nutzung und Erfahrungen mit neuen, digitalen Medien in Bildungskontexten zu fördern, zum Beispiel digitale Medien in der Schule gezielt einzusetzen, um den Aufbau von sozialen Lernnetzwerken zu ermöglichen.

!

Es gibt zahlreiche Informationen und Hilfe zu Cybermobbing im Internet, zum Beispiel sind Tipps für Kinder und Jugendliche auf der Seite des Bundesfamilienministeriums zu finden. URL: http://www.bmfsfj.de/cybermobbing. Bei http://www.klicksafe.de/ stehen Hilfestellungen und Unterrichtsmaterialien per Download bereit. Das Bündnis gegen Cybermobbing bietet Hilfe und Ratgeber an. URL: http://www.forum-cybermobbing.eu/

In der Praxis

Gespräch mit Thorsten Quandt zur Studie “Cybermobbing in Schulen”.

Im Radiobeitrag des Netzjournals beschreibt Thorsten Quandt die verschiedenen Formen von Cybermobbing. URL: [http://www.mdr.de/mdr-figaro/lebensart/audio611622.html](http://www.mdr.de/mdr-figaro/lebensart/audio611622.html)

In der Praxis

Unterrichtsskizze zu Cybermobbing. Ein Beispiel für ein Unterrichtsmodul zum Thema Cybermobbing mit Informationen zu Unterrichtsmaterialien. URL: http://www.mediaculture-online.de/Cybermobbing.2014.0.html

Diversität und Spaltung

Fazit

Digitale Medien bringen zum einen neue Chancen mit sich, zum Beispiel Zugang zu diversen Wissensressourcen, vielfältige Möglichkeiten der sozialen Vernetzung und eine große Bandbreite an digitalen Werkzeugen, die das Lernen unterstützen können. Auch Minderheiten, Randgruppen oder von Chancenungleichheit betroffene Gruppen, zum Beispiel Migrantinnen und Migranten, Frauen, Seniorinnen und Senioren, Menschen mit Behinderung, können durch die Nutzung digitaler Medien einen besseren Zugang zu Informationen und Anbindung an die Gesellschaft finden. Gleichzeitig entstehen jedoch in der Gesellschaft zahlreiche Spaltungen, zum Beispiel Exklusion durch Cybermobbing oder die zunehmende Kluft zwischen den Nutzenden und den Nicht-Nutzenden von lernförderlichen, medialen Angeboten. In diesem Kapitel wurden verschiedene Formen von Diversität und Spaltung im Kontext von digitalen Medien diskutiert und Beispiele aus der Praxis vorgestellt. Abschließend gibt es drei Reflexions- und Gestaltungsaufgaben, die dazu anregen sollen, digitale Medien in Bildungskontexten zur Förderung von Diversität und Inklusion einzusetzen.

?

  1. Schreiben Sie Ihre Reflexion zum Thema Diversität und Spaltung und entwickeln Ihre Forschungsfragen, zum Beispiel in Bezug auf Ihre eigene Bildungspraxis.
  2. Erstellen Sie eine MindMap zum Thema Diversität und Spaltung und versuchen Sie, die verschiedenen Aspekte strukturiert darzustellen. Verwenden sie dazu zum Beispiel die Anwendung MindMeister. URL: http://www.mindmeister.com/de Teilen Sie den Link zu Ihrer MindMap via Twitter und verwenden Sie dabei den Hashtag #L3T.
  3. Entwickeln Sie eine Idee für ein Medienprojekt, in dem digitale Medien eingesetzt werden, um Diversität und Inklusion zu fördern. Welche Differenzmerkmale würden dabei im Fokus stehen (zum Beispiel Geschlecht, Alter, Herkunft)? Wie könnten Sie mit Ihrem Medienprojekt zu mehr Chancengerechtigkeit beitragen?
Diversität und Spaltung

Literatur

Lern-Service-Engineering

Eine ökonomische Perspektive auf technologieunterstütztes Lernen

Der hohe Innovations- und Transformationsdruck auf das deutsche Bildungswesen mit dem Ziel besserer und zeitgemäßer Bildungsangebote bei gleichzeitig knappen Budgets der öffentlichen Hand führt zu der Notwendigkeit, Bildung grundsätzlich auch unter ökonomischen Gesichtspunkten zu betrachten und zu gestalten. Nur dann können die knappen Ressourcen effizient und effektiv eingesetzt werden und den größtmöglichen Nutzen für alle Beteiligten bringen. Der vorliegende Beitrag widmet sich diesem Thema, indem er Bildung als Dienstleistung interpretiert und aus ökonomischen Disziplinen, wie etwa dem Dienstleistungsmarketing und der Wirtschaftsinformatik, etablierte Methoden und Ansätze auf den Bildungssektor überträgt. Das so entstehende Feld des Lern-Service-Engineering zeigt Wege auf, wie sich technikgestützte Bildungsangebote gleichzeitig kosteneffizient und an individuelle Bedürfnisse verschiedener Lerntypen anpassbar realisieren lassen. So wird exemplarisch ein Systematisierungsansatz für technikgestützte Lerninhalte vorgestellt, der eine effiziente Realisierung miteinander kombinierbarer Inhaltsarten ermöglicht. Dieser orientiert sich an den individuellen Erfordernissen konkreter Lernarrangements und den unterschiedlichen (finanziellen) Möglichkeiten verschiedener Bildungseinrichtungen. Das somit entstehende Lern-Service-Engineering soll den Lehrenden bei der systematischen Entwicklung von Lern-Services unterstützen.

Lern-Service-Engineering

Hintergrund eines betriebswirtschaftlichen Service-Verständnisses von technikgestütztem Lernen

Das Bildungswesen in der deutschen Hochschullandschaft ist seit einigen Jahren massiven Veränderungen ausgesetzt. Dazu gehören unter anderem die Umstellung der universitären Abschlüsse im Rahmen des Bologna-Prozesses, die Einführung beziehungsweise mittlerweile bereits wieder die Abschaffung von Studiengebühren, die Entwicklungen in Richtung „lebenslanges Lernen“ sowie der zunehmende Einfluss technologischer Impulse (siehe bspw. E-Learning, Campus-Management-Systeme, E-Assessment, und so weiter) (Gabriel, Gersch & Weber, 2007). Diese Veränderungen haben nicht nur didaktische und hochschulpolitische Konsequenzen, sondern sie weisen auch ökonomische Relevanz auf, was sich im Hochschulbereich vor allem durch sich ändernde Wertschöpfungs- und Wettbewerbsstrukturen zeigt. Immer stärker müssen nun aber im Hinblick auf eine nachhaltige, qualitative, zukunftsorientierte und zugleich wettbewerbsfähige Hochschulbildung auch ökonomische Rahmenbedingungen berücksichtigt und durch die Hochschulen selbst mitgestaltet werden. In der Konsequenz erfahren die Hochschulen, wie auch die hochschulinternen Akteure als Leistungserbringer/innen, immer deutlicher die Bedeutung sowie die Herausforderungen einer konsequenten Marktorientierung mit der Notwendigkeit zur Erschließung individueller Effizienz- und Effektivitätspotenziale als Basis nachhaltiger Wettbewerbsvorteile. Auf Hochschulebene wird dies nicht zuletzt im Bereich des Hochschulmarketings deutlich, welches mit Fragen zur Studierendenwerbung bei langfristig sinkenden Studierendenzahlen, Imagepolitik und Public Relations, Diskussionen um Studiengebühren sowie Alumniarbeit zunehmend an strategischer Bedeutung gewinnt (Reckenfelderbäumer & Kim 2006; Müller-Böling, 2007). Gleichzeitig macht sich der steigende Kostendruck in sinkenden Haushaltsmittelzuweisungen und Stellenkürzungen in den Fachbereichen bemerkbar, welche sich durch Forschungs- und Lehrtätigkeiten von intra- und interuniversitären Akteuren differenzieren müssen. Kann in diesem Zusammenhang technikgestütztes Lernen den Hochschulen einen Wettbewerbsvorteil verschaffen? Im folgenden Abschnitt soll mit Hilfe klassischer Konzepte des Dienstleistungsmanagements und der Wirtschaftsinformatik beschrieben werden, wie Wettbewerbsvorteile realisiert werden können. Dabei sei darauf hingewiesen, dass zwischen den Begriffen Technik und Technologie unterschieden wird. Technologie beschreibt ein allgemeines Lösungsprinzip beziehungsweise Wissen über einen Sachverhalt (Schneider, 1984). Technik hingegen umfasst die konkrete Realisierung.

Im klassischen Dienstleistungsmanagement nach Engelhardt (1966) können bei allen Leistungen drei Leistungsdimensionen unterschieden werden:

  1. die Bereitstellungsleistung,
  2. der Leistungserstellungsprozess und
  3. das Leistungsergebnis.

Technikgestütztes Lernen hat dabei den entscheidenden Vorteil, dass in Bezug auf das Absatzobjekt Bildung ein verbessertes Leistungsergebnis (höhere Lernzufriedenheit und höherer Lernerfolg) bei gleichzeitig auch unter Kostengesichtspunkten verbesserten Leistungserstellungs- und Bereitstellungsprozessen ermöglicht werden kann (Gabriel et al., 2007). Beim Leistungserstellungs- und Bereitstellungsprozess zeigen sich Vorteile durch eine größere Orts- und Zeitunabhängigkeit der Lehre sowie die mögliche Wiederverwendbarkeit und damit Skalierbarkeit von technikgestützten Lerninhalten (Gabriel, Gersch & Weber, 2008). Hinsichtlich der Leistungserstellungsprozesse und -ergebnisse bietet technikgestütztes Lernen zudem besonderes Potenzial im Hinblick auf innovative Lernformen, beispielweise virtuelle kollaborative Lernszenarien, bei denen größerer Raum für Interaktionen zwischen und mit den Lernenden geschaffen wird, um die Handlungskompetenz der Lernenden nachhaltig zu fördern (Brauchle, 2007, 2). Ein Beispiel dafür wäre mitunter der Einsatz von virtuellen sozialen Netzwerken in der Lehre (Bukvova et al., 2010). Dieser ermöglicht neben der Vermittlung einer kognitiven Bedeutung von Lerninhalten durch deren Verteilung auch eine verstärkte soziale Auseinandersetzung (Weber & Rothe, 2012). Gleichzeitig stellen technikgestützte Ansätze des Lehrens und Lernens (siehe beispielsweise #game, #virtuellewelt oder #ipad) die Akteure aber auch vor enorme Herausforderungen, da auf Seiten der Anbieter/innen oftmals erhebliche Investitionen erforderlich sind. Dies bezieht sich beispielsweise auf den Aufbau des erforderlichen interdisziplinären Know-hows, die erforderliche Infrastruktur sowie die Veränderung etablierter Abläufe und Regelungen (Arbeitsaufwand, Anerkennung von Lehrdeputaten, Betreuung der Studierenden und so weiter). Daneben müssen auch Entwicklung, Realisierung, Pflege und Wartung der notwendigen Lehr- und Lernmaterialien getätigt werden.

!

Effizienz beschreibt als ‚interner Leistungsmaßstab‘ das Streben nach einer möglichst günstigen Input-Output-Relation (‚ökonomisches Prinzip‘). Diese kann entweder mit einem bestimmten Ergebnis unter Einsatz möglichst geringer Ressourcen (‚Minimalziel‘), oder mit dem Erreichen eines möglichst hohen Ergebnisses bei gegebenen Ressourcen (‚Maximalziel‘), realisiert werden. Demgegenüber stellt die Effektivität als so genannter ‚externer Leistungsmaßstab‘ auf den Vergleich eines angestrebten und eines tatsächlich erreichten Outputs ab. Dabei beachtet man typischerweise die Erfüllung der Erwartungen und Anforderungen auf Kundenseite (Plinke 1992, 2000). Das Lern-Service-Engineering kann beispielsweise durch die Verbesserung des Lernerfolgs und der Lernzufriedenheit durch technikgestützte Lehr-/Lernkomponenten bei konstantem Budget sowohl das Effizienz- als auch das Effektivitätsziel unterstützen. Denkbar wäre auch nur die Verfolgung eines Effizienzzieles, zum Beispiel durch Minimierung des Ressourceneinsatzes bei im Vergleich zu vorherigen Lehr-/Lernarrangements konstantem Lernerfolg und gleicher Lernzufriedenheit.

Technisch unterstützte Ansätze des Lernens und Lehrens werden daher im Folgenden in Anlehnung an Gabriel et al. (2008) als Lern-Services – und damit aus einem ökonomischen Blickwinkel – thematisiert. Sie stellen als Dienstleistung grundsätzlich große Leistungspotenziale in Aussicht, müssen aber hinsichtlich ihrer systematischen Erstellung und Verwendung ökonomischen Ansprüchen genügen (‚Effizienz‘ und „Effektivität‘), um diese Potenziale nutzbar zu machen. Durch den Zusatz ‚Services‘ (Dienstleistungen) wird diese unmittelbare Bedeutung ökonomischer Konzepte hervorgehoben. Das bedeutet jedoch nicht, dass Lern-Services ein ausschließlich ökonomisch geprägter Betrachtungsgegenstand sind. Sie unterliegen stets auch technischen, didaktischen sowie organisatorischen Rahmenbedingungen. Durch die Nähe des Begriffs Lern-Services zu den ‚E(lectronic) Services‘ sowie die Entwicklung des Lern-Service-Engineering als Teilbereich der Wirtschaftsinformatik soll schließlich auch die Relevanz der elektronisch-technischen Unterstützung von Lehr- und Lernprozessen herausgestellt werden. Der Begriff Lern-Services bezieht sich unmittelbar auf Konzepte des technikgestützten Lernens und stellt deren interdisziplinären Charakter heraus.

Lern-Service-Engineering

Systematisierungsansatz für technikgestützte Lehr-/Lernkomponenten

Bevor näher auf die Gestaltung von Lern-Services eingegangen wird, werden im Folgenden verschiedene Formen von technikgestützten Lehr-/Lernkomponenten definiert. Lern-Services stellen stets Leistungsbündel dar, die sich aus diesen Komponenten sowie ergänzenden Leistungsteilergebnissen und entsprechenden Prozessen zusammensetzen. Die dargestellte Klassifizierung und die darin enthaltenen Typen von Lehr-/Lernkomponenten bilden damit den modularen Baukasten für die Erstellung von Lern-Services. Sie bieten aber gleichzeitig auch eine Einschätzung über den mit den einzelnen Ausprägungen von Lernmaterialien verbundenen Erstellungsaufwand.

Es werden im Folgenden drei Typen technikgestützter Lehr-/Lernkomponenten – ‚Web- Based Trainings (WBTs)‘, ‚Rapid E-Learning‘ sowie ‚Learner-Generated Content‘ – unterschieden. Diese divergieren insbesondere in Bezug auf Erstellungszeit und -aufwand.

  1. Als Web-Based Trainings (WBTs) (synonym: Lernmodul oder Selbstlerneinheit; Mair, 2005) bezeichnet man Lernprogramme, die auf Internet-Technologien basieren. Sie zeichnen sich durch aufeinander abgestimmte, multimediale Darstellung von Lerninhalten aus. Neben Texten, Grafiken, Tabellen, Videos, Ton können WBTs beispielsweise auch (interaktive) Animationen enthalten.
  2. Der Begriff des Rapid E-Learning ist eine Wortzusammensetzung aus Rapid Prototyping und E-Learning und bezieht sich somit auf technikgestützte Lerninhalte mit einem beschleunigten Erstellungsprozess. Dazu gehören E-Lectures, das heißt digital aufbereitete Vorträge, die aus einer Kombination von Audio- bzw. Video-Elementen mit synchronisierten Text- und Bildelementen bestehen (Gersch, Lehr & Fink, 2010; Reinmann & Mandl, 2009). Auf diesem Wege wird (im Vergleich zu WBTs) eine zeit- und kostengünstige Erstellung von technikgestützten Lerninhalten ermöglicht, die zudem weniger technische Kompetenz auf Seiten der Erstellenden voraussetzt.
  3. Ähnliches gilt auch für von Lernenden erstellte Lerninhalte (‚Learner-Generated Content‘). Das sind technikgestützte Lerninhalte, die im Rahmen von Lernarrangements durch die Lernenden selbst entwickelt, organisiert und technisch umgesetzt werden. Hierzu eignet sich insbesondere der Einsatz von Tools wie Wikis oder Blogs, die es den Lernenden ermöglichen, Inhalte kollaborativ mit den Mitlernenden zu entwickeln und somit eine sehr viel intensivere Auseinandersetzung mit den Lerninhalten fördern (Lehr, 2011). Die so erstellten Inhalte können zudem als Material für künftige Lernarrangements wiederverwendet werden (Wheeler et al., 2008).

Um einen nachhaltig erfolgversprechenden Rahmen für das technikgestützte Lehren und Lernen zu schaffen, muss die Wahl zwischen diesen drei Typen von Lehr-/Lernkomponenten auch unter Effizienzgesichtspunkten erfolgen. Ziel ist dabei ein möglichst positives Kosten-Nutzen-Verhältnis bei der Erstellung und Verwendung, um die knappen Ressourcen der Lehrenden und der Hochschule optimal einsetzen zu können. Grundlage hierfür bietet die Systematisierung der verschiedenen technikgestützten Lehr-/Lernkomponenten hinsichtlich ihrer Erstellungs- und Nutzungsprozesse. Hieraus lassen sich konkrete Handlungsempfehlungen für die Wahl beziehungsweise Kombination und den Einsatz der verschiedenen Inhaltsarten in konkreten Lernarrangements ableiten.

Im Folgenden werden die Lehr-/Lernkomponenten entsprechend anhand zweier Dimensionen systematisiert:

Abb. 1: Systematisierungsansatz von technikgestützten Lerninhaltsarten (Gersch et al., 2010)
Abb. 1: Systematisierungsansatz von technikgestützten Lerninhaltsarten (Gersch et al., 2010)

Der erste Punkt entspricht der Unterscheidung von anbieter- und nachfragergenerierten Inhalten. WBTs und E-Lectures sind dabei anbietergenerierten Inhalten zuzuordnen, während Learner-Generated Content entsprechend nutzergeneriert ist. Die zweite Dimension unterscheidet zwischen Slow und Fast Content. Dieser Begriff ist analog zur Einteilung in ‚Fast Food‘ und ‚Slow Food‘. Ebenso wie ‚Fast Food‘ in der Systemgastronomie einem stark standardisierten Produktionsprozess folgt, zeichnet sich Fast Content (beispielsweise Rapid-E-Learning-Inhalte) durch seine schnelle Umsetzbarkeit, meist mit Standardsoftware, aus. Gleichzeitig verspricht dieser ‚Fast Content‘ einen situativen Nutzen zu erbringen. Beispielsweise kann es nützlich sein, eine Vorlesung aufzunehmen und zur Nachbearbeitung der Inhalte zur Verfügung zu stellen. Dies kann jedoch mangels intensiver Planung mit Abstrichen in der technischen und didaktischen Qualität einhergehen, wenn etwa die Ton-/Bildqualität nicht hochwertig ist oder der beziehungsweise die Dozierende keinen dem Videoformat, dem Inhalt und der Adressatengruppe entsprechenden Spannungsbogen aufbaut. Ganz im Gegensatz dazu wird ‚Slow Content‘ aufwendiger geplant und produziert, was eine bessere Qualität der resultierenden Inhalte in Aussicht stellt (Gabriel et al., 2009; Gersch et al., 2010).

Mit Hilfe der fünf Merkmale Qualität, Kollaborativität, Produktionsaufwand, Flexibilität und Glaubwürdigkeit können die Felder der so entstehenden Matrix detailliert beschrieben und differenziert werden, um so Handlungsempfehlungen für den Einsatz und die Kombination der unterschiedlichen Typen technikgestützter Lehr-/Lernkomponenten zu erhalten.

Lern-Service-Engineering

Lern-Service-Engineering: Ansätze zur Unterstützung einer systematischen Entwicklung von Lern-Services

Vor dem Hintergrund der dargestellten Veränderungen, Herausforderungen und Lern-Service-Charakteristika (insbesondere auch dem Leistungsbündelcharakter) wurde das im Nachfolgenden skizzierte ‚Lern-Service-Engineering‘ als interdisziplinärer Erstellungsansatz für die Entwicklung von Lern-Services erarbeitet.

!

Der Begriff Lern-Service-Engineering nimmt Bezug auf das im Dienstleistungsmanagement etablierte ‚Service Engineering‘ sowie das in der Wirtschaftsinformatik etablierte ‚Software Engineering‘ und kann dementsprechend charakterisiert werden als interdisziplinäre Bereitstellung und systematische Verwendung von Prinzipien, Methoden und Werkzeugen für die zielorientierte (arbeitsteilige, ingenieurgleiche) Gestaltung und Entwicklung von Lehr-Lern-Leistungsangeboten.

Dabei steht in diesem Kapitel die ökonomische Seite des Lern-Service-Engineering im Vordergrund. Ziel ist die Umsetzung einer sogenannten Mass-Customization-Strategie in Bezug auf das technikgestützte Lehren und Lernen.

Im Kern geht es dabei um eine zielgerichtete Standardisierung von Teilleistungen und Teilprozessen im Rahmen einer Modularisierungsstrategie. Diese werden zu individualisierten beziehungsweise zielgruppenspezifischen Leistungsbündeln in Form hybrider Lernarrangements kombiniert (Da Silveira et al., 2001).

!

Das aus den Begriffen Mass Production und Customization zusammengesetzte Oxymoron Mass Customization bezeichnet ein zumeist technologisch gestütztes Konzept zur Auflösung der vermeintlichen Gegensätzlichkeit von Differenzierung und Kostenorientierung (Porter,1995; Piller, 2006). Damit ist der Gegensatz zwischen individuellen und daher häufig kostenintensiven Leistungsangeboten (Differenzierung) und möglichst standardisierten und deswegen kostengünstig realisierbaren Leistungsangeboten (Kostenorientierung) gemeint.

Nach Kunden (zum Beispiel Lernenden) differenzierte Leistungsangebote sollen durch Mass- Customization-Ansätze zu einem der Massenproduktion vergleichbaren Kostenniveau realisiert und angeboten werden können und dennoch verschiedene individuelle Kundenbedürfnisse befriedigen (Piller, 2006). Diesbezüglich zeigen Erfahrungen aus anderen Serviceindustrien, dass Standardisierung und Differenzierung/Individualisierung keineswegs unvereinbare Gegensätze darstellen. Ganz im Gegenteil kann die Standardisierung von Komponenten und Produktionsprozessen in Verbindung mit einer individualisierten Orchestrierung regelmäßig sogar mit einer – auch durch den Nachfrager beziehungsweise Nachfragerin empfundenen – Qualitätssteigerung des Leistungsangebots einhergehen. Es lassen sich im Kontext von technikgestütztem Lernen verschiedene Ansatzpunkte für eine Umsetzung erkennen, wie zum Beispiel eine Modularisierung von Leistungskomponenten (siehe die vorgestellten Typen von Lehr-/Lernkomponenten), die im Idealfall immer wieder zu differenzierten Leistungsbündeln (re-)kombiniert werden können (zu weiteren alternativen Umsetzungsmöglichkeiten einer Mass Customization siehe Büttgen, 2002). Im Folgenden steht die Umsetzung mit Hilfe sogenannter Serviceplattformen im Vordergrund. Diese eignen sich nicht nur zur wettbewerbsstrategischen Ausrichtung, sondern insbesondere auch zur Förderung der Verbreitung und des Einsatzes innovativer Lehr- und Lernkonzepte. Dies betrifft vor allem Institutionen mit dezentralen Strukturen sowie solche, innerhalb derer Kenntnisstände und Akzeptanzniveaus zu technikgestützter Lehre stark divergieren.

Serviceplattformen haben ihren Ursprung im industriellen Bereich und werden von Stauss (2006) als konzeptionelle Sets entwickelt, die sich durch optionale Teilelemente/-systeme und Schnittstellen charakterisieren lassen. Sie bilden darüber hinaus eine mehrfach verwendbare Struktur, auf deren Grundlage immer wieder differenzierte Leistungsangebote effizient und effektiv entwickelt und realisiert werden können. Nicht zu verwechseln sind Serviceplattformen als konzeptionelle Konstrukte mit Lernplattformen (Lernmanagementsysteme, LMS, siehe Kapitel #infosysteme, #systeme). Im Kontext des Lern-Service-Engineering stellen sie Veranstaltungsgrundtypen dar, die als Grundlage für verschiedene Bildungsangebote dienen (Gersch & Weber, 2007; Weber & Abuhamdieh, 2011).

Sie setzen sich aus idealtypischen Veranstaltungsphasen, Leistungspotenzialen (Web-Based Trainings, Fallstudien, E-Lectures, Betreuern und so weiter), Prozessen und Schnittstellen zusammen, die gemeinsam die Grundlage zur Entwicklung und Realisierung immer wieder differenzierter Leistungsangebote darstellen. Im Prozess des didaktischen Designs, welcher die Konkretisierung der abstrakten Serviceplattformen zu konkreten Lern-Services bezeichnet, trägt der Lehrende dafür Sorge, dass das zu konzipierende Leistungsangebot nicht nur effizient erstellt wird, sondern dass es auch den (Qualitäts-)Ansprüchen der jeweiligen Leistungsempfänger/innen entspricht und somit möglichst Effizienz- und Effektivitätsvorteile für Leistungsanbieter/innen begründet. Der Vorteil einer Serviceplattform zeigt sich vor allem dadurch, dass Lehrende zum einen gesamte Lernarrangements evaluieren und zum anderen auch einzelne Lehr-/Lernkomponenten verbessern können, die in anderen Lernarrangements anschließend erneut verwendet werden. Dem Konzept liegt auf dieser Ebene somit eine Unterscheidung von abstrakten Veranstaltungsgrundtypen (Lernszenarien beziehungsweise Serviceplattformen) und Lernarrangements als konkreten Lern-Services zugrunde. Abbildung 2 verdeutlicht den Zusammenhang und differenziert für die Betrachtung von Lern-Services zudem zwischen einer Makro-, einer Meso- und einer Mikroebene.

Abb. 2: Hierarchisches Begriffsverständnis
Abb. 2: Hierarchisches Begriffsverständnis

Auch innerhalb der Lernszenarien als Veranstaltungsgrundtypen lässt sich das Konzept der Mass Customization mit Hilfe von Serviceplattformen fortsetzen. So können Lernszenarien auf (teil-)standardisierten Veranstaltungsphasen aufbauen, die jeweils spezifischen Lernzielen verpflichtet sind. Die Standardisierung auf Ebene der Veranstaltungsphasen bezieht sich dabei auf eine idealtypische Vorkombination von Leistungskomponenten, die als Teilarrangements bestimmte Zielsetzungen und Abläufe repräsentieren, so dass im Ergebnis eine zweistufige Serviceplattformstrategie resultiert. Abbildung 3 verdeutlicht das Zusammenspiel von Leistungskomponenten, Veranstaltungsphasen und Lernszenarien, die anschließend im Prozess des didaktischen Designs zu Lernarrangements konkretisiert und fortlaufend evolutorisch weiterentwickelt werden können.

Abb. 3: Lern-Service-Engineering
Abb. 3: Lern-Service-Engineering

So verstandene Plattformen erlauben die systematische Entwicklung von neuen Lern-Services auf der Basis dokumentierter technischer, didaktischer und ökonomischer Erfahrungen und Erkenntnisse zu den verfügbaren Komponenten und deren Kombination. So können etwa positive Erfahrungen in Bezug auf eine bestimmte Verknüpfung von Inhaltstypen, Veranstaltungsphasen oder auch erfolgreiche Vorgehensweisen im Rahmen eines Lern-Szenarios bei der Neuentwicklung eines technikgestützten Lernangebotes zugrunde gelegt werden. Die systematische Wiederverwendung von Komponenten, Veranstaltungsphasen und Lernszenarien bietet dabei erhebliches ökonomisches Potenzial, insbesondere wenn die Lehr-/Lernkomponenten effizient erstellt und eingesetzt sowie effektiv orchestriert werden.

Lern-Service-Engineering

Ein neues Rollenverständnis von Lehrenden

Integriert man die aktuellen Entwicklungen im Web 2.0 in die Serviceplattform, muss zunächst festgestellt werden, dass die ehemals nahezu ausschließlich konsumierenden Studierenden nun auch zu Lehrmittel-Produzenten beziehungsweise Produzentinnen werden können. Die Rolle der Lehrenden entfernt sich mithin zunehmend von ehemals reinen Wissensvermittlern beziehungsweise Wissensvermittlerinnen, die eine 1:n-Beziehung aufbauen und erhalten müssen (Brauchle, 2007, 2). Das Selbstverständnis der Lehrenden wandelt sich daher zu Coaches und Moderator/innen, welche eine aus n:m-Beziehungen bestehende Struktur orchestrieren und koordinieren sollen. Dafür müssen Infrastrukturen geschaffen werden, die den Aufbau und Erhalt der Beziehungen steuern können und geeignet sind, die Lehrmittelproduktion integrativ zu gestalten.

Ein gutes Lernarrangement lässt sich somit als ein ziel- und nachfrageorientiertes Portfolio beschreiben, welches die curricularen Rahmenbedingungen erfüllt und sich an den konkret zu erreichenden Lerntypen orientiert. Bei der Auswahl geeigneter Module für ein Lernarrangement müssen jedoch nicht nur wissensvermittelnde E-Learning-Elemente berücksichtigt werden, sondern auch koordinierende Unterstützungssysteme. Dabei sollte abgewogen werden, wie zentralisiert die Koordination der Studierenden erfolgen soll. Bei der Nutzung von Lern-Management-Systemen, wie Moodle oder Blackboard, werden Informationen zentral ausgegeben und der Lehrende kontrolliert weitestgehend die Informationsverteilung. Vor dem Hintergrund zunehmender Erfahrung bei der digitalen Vernetzung kann es jedoch auch sinnvoll sein, virtuelle soziale Netzwerke in das Lehrkonzept zu integrieren. Diese ermöglichen eine (geleitete) Selbstkoordination der Studierenden bei der Teambildung, der Gruppenarbeit und im gemeinsamen Lernprozess (Bukvova et al., 2010). Virtuelle soziale Netzwerke können dabei die Interaktion zwischen Studierenden befördern und somit die Interaktion innerhalb virtueller Gruppen steigern (Weber & Rothe, 2012). Im Ergebnis kann vermutet werden, dass sich Netzeffekte zwischen eng verbundenen Studierenden einstellen, welche die gruppenspezifische Ergebnisproduktion und die Vermittlung von Lehrinhalten positiv moderieren (Lehr, 2011). Lehrende orchestrieren somit zunächst die Lehr-/Lernkomponenten in den Lernarrangements, begleiten die darauf folgenden Lernprozesse und treten als Coaches bei der Nutzung der Komponenten auf.

Lern-Service-Engineering

Fazit

Die gegenwärtigen Veränderungen im Bildungswesen begründen insbesondere aufgrund der Wettbewerbsintensivierung und der veränderten Rahmenbedingungen die Notwendigkeit einer sowohl ökonomisch als auch didaktisch tragfähigen Leistungserstellungsstrategie von Hochschulen und anderen Bildungseinrichtungen. Großes Potenzial in diesem Zusammenhang birgt die Übertragung erprobter und etablierter Konzepte aus anderen Dienstleistungs- bzw. Servicebranchen, was jedoch eine Interpretation von Bildungsangeboten als Dienstleistungen/Services (mit besonderen Eigenschaften und Rahmenbedingungen) impliziert. Das vorgeschlagene Serviceverständnis von Bildung eröffnet ein Tor zu einer Bandbreite erprobter Konzepte und Ansätze. Übertragen auf den Leistungsgegenstand der Lern-Services bietet beispielsweise der skizzierte Systematisierungsansatz von technikgestützten Lehr-/Lernkomponenten eine Grundlage für ein effizientes – also nach Kosten-/Nutzen-Gesichtspunkten verbessertes – Produktions- und Einsatzkonzept benötigter Lehr-/Lerninhalte. Gleichzeitig lassen diese sich an die Erfordernisse des jeweiligen Lernarrangements anpassen. Auch der dargestellte serviceplattformbasierte Mass-Customization-Ansatz bietet Bildungseinrichtungen Potenziale für eine standardisierungsbasierte Kostenorientierung. Er enthält gleichzeitig Möglichkeiten für eine auf Differenzierung ausgerichtete Individualisierung der Leistungsangebote. Zudem fördert der Ansatz über die systematische Entwicklung und Bereitstellung der Lernszenarien als Serviceplattformen die Verbreitung der Kenntnisse über den Einsatz und die Realisierung innovativer Lehr- und Lernkonzepte in Hochschulen. Serviceplattformen berücksichtigen dabei insbesondere auch den Grundgedanken der Orchestrierung unterschiedlicher Lehr-/Lernkomponenten, welche selbst erstellt, fremd erworben oder durch Kooperation erarbeitet werden können. Im Vordergrund des Lern-Service-Engineering steht daher allgemein die effiziente Übertragung, Adaption und Integration von konkreten Unterstützungsmöglichkeiten für die Leistungserstellung im Bildungswesen.

?

  1. In welcher Weise sind Microblogging-Aktivitäten von Lernenden im Seminar sowie Podcasts einer Bildungseinrichtung mit Interviews von Expertinnen und Experten in dem vorgestellten System zur Bewertung von Lerninhalten einzuordnen und zu beschreiben?
  2. Können Sie erklären, warum Differenzierung und Kostenorientierung sehr häufig als Gegensatz betrachtet wird?
  3. Nennen Sie Vorteile von Mass-Customization im Allgemeinen und des Lern-Service-Engineering im Speziellen aus Sicht von Anbietern beziehungsweise Anbieterinnen und Lernenden.
Lern-Service-Engineering

Literatur

Medientheorien

Ein Beitrag zum medienbasierten Lernen

Im Zuge der medialen Durchdringung aller Lebensbereiche sind Medien zum Gegenstand vieler Wissenschaften geworden. Medientheoretische Betrachtungen finden sich unter anderem in Publizistik und Kommunikationswissenschaft, Soziologie, Politologie, Philosophie und Literaturwissenschaft. Neben universalen Mediendebatten gibt es Diskurse zu Einzelmedien und je nach Perspektive treten ästhetischer Ausdruck, erzieherisches Potenzial, gesellschaftliche Auswirkungen oder individuelles Erleben in den Fokus. Verschiedene Definitionen des Medienbegriffs stellen entweder Technik, Funktion oder Inhalte in den Vordergrund. Folglich kann von „der“ Medientheorie nicht die Rede sein (Kloock & Spahr, 2000). Lernziel dieses Kapitels ist es, ausgewählte medientheoretische Fragestellungen und Ansätze in ihrer Bedeutung für das Lehren und Lernen mit digitalen Medien zu erschließen. Wer reflektiert, inwieweit Medien eine Grundbedingung unseres Denkens und Handelns darstellen, gewinnt an Urteilsvermögen hinsichtlich der Chancen und Grenzen spezifischer Medien im Informations- und Kommunikationsalltag. Medientheorien eröffnen zudem eine historische Perspektive auf aktuelle Debatten um Gefahren und Potenziale digitaler Erfahrungswelten.

Medientheorien

Metaphern, Medien und Dekonstruktion: „There is nothing outside the text“

Eine Metapher ist ein sprachlicher Ausdruck, bei dem ein Wort aus seinem Bedeutungszusammenhang in einen anderen Kontext übertragen und als Bild verwendet wird. Wir benutzen ganz selbstverständlich im alltäglichen Sprachgebrauch verschiedene Metaphern im Zusammenhang mit (neuen) Medien: Ausdrücke wie Datenautobahn, Netz-Surfer, Informationsflut, Cyberspace, globales Dorf, Datenmeer, Computervirus und Cyberpiraterie kommen uns flüssig über die Lippen, doch was genau meinen wir damit?

!

„There is nothing outside the text“, eine Proklamation von Jaques Derrida, verweist darauf, dass unser Wissen sprachlich codiert ist. Wir können nur in Medien über Medien nachdenken, in Sprache über Sprache reden. Wir können uns daher keinen neutralen Beobachtungsstandpunkt suchen. Der Dekonstruktivismus, ein Begriff den Jaques Derrida in den sechziger Jahren in Paris prägte, richtet die Aufmerksamkeit auf die genaue Lektüre von Metaphern und Bildern.

Their purpose is to demonstrate, through comparisons of a work's arguments and its metaphors, that writers contradict themselves – not just occasionally, but invariably – and that these contradictions reflect deep fissures in the very foundations of Western culture. In other words, deconstruction claims to have uncovered serious problems in the way Plato and Hemingway and you and I think about matters ranging from truth and friendship to politics.“ (Stephens, 1991).

Der Dekonstruktivismus sieht den inneren Widerspruch als Teil der Conditio Humana, als eine anthropologische Grundkonstante. Brüche und Widersprüche in unserem Medienverständnis gibt es reichlich. Nicht nur streiten die Gelehrten, was denn eine geeignete Definition von „Medien“ eigentlich sei, auch scheiden sich die Geister in der Bewertung von neuen Medientechnologien: Sind sie Heilsbringerinnen oder Teufelsboten? Bringen Medien Menschen näher zusammen oder lassen sie uns vereinsamen? Machen sie schlau oder dumm? Beginnen wir zunächst mit dem Medienbegriff. Um das Wechselspiel von Medium, Botschaft, Adressatinnen und Adressaten, Senderinnen und Sendern, Störung und Empfang zu beschreiben, hat die Kommunikations- und Medienwissenschaft eine Vielzahl phantasievoller Anleihen, Vergleiche und Metaphern hervorgebracht.

Marshall McLuhans These aus den frühen 1960er-Jahren, „das Medium ist die Botschaft“ genießt bis heute eine große Popularität. McLuhan versteht Medien als funktionale Erweiterungen des menschlichen Körpers. In dieser Sichtweise kann selbst ein Flugzeug, Geld oder die Elektrizität zum Medium werden (Vollbrecht, 2005). McLuhans universelles Bild des Organersatzes begründete einen eigenen medienwissenschaftlichen Ansatz, der Medien einen Werkzeugcharakter zuschreibt. Medien werden als „Instrumente zur Veränderung von Wirklichkeit“ interpretiert (Sandbothe, 2003). Diese so genannten „anthropomorphen“ Ansätze stellen den Menschen in den Mittelpunkt und sehen Medien als Werkzeug oder eben als Prothesen des menschlichen Körpers, Computer werden zu „global vernetzten Prothesen der Sinne“ (Coy, 1994, 37).

Kritiker/innen finden, diese Sichtweise greife zu kurz. So sieht Lutz Ellrich (2005) es als vordringlichste Aufgabe der Medienphilosophie „die Organersatztheorie zu hinterfragen und generell die notorische Anthropomorphisierung technischer Errungenschaften zu bekämpfen“ (S. 343). Was ist der Ursprung solch kampfeslustiger Polemik? Die technischen Medien, beispielsweise Internet und Fernsehen, haben großen Anteil an der Wirklichkeitsvorstellung unserer Kultur. Die Art und Weise, wie technische Medien unsere Wirklichkeit durchdringen und formen ist so komplex, dass sie nicht von Individuen gesteuert wird, sondern sowohl in Produktion als auch Rezeption ein kulturelles Kollektiv widerspiegelt (Hartmann, 2003). Medien sind also nicht nur Organ oder Werkzeug der Welterschließung, sondern erzeugen gleichzeitig eine Medienwelt, die uns als „mediale Wirklichkeit“ bzw. „Medienöffentlichkeit“ im Alltag umgibt. Medien sind keineswegs neutrale Überträger von Information, sondern konstituieren das Kommunizierte selbst: „zum einen erhält nur was kommuniziert, mitgeteilt und überliefert werden kann, eine Bedeutung, und zum anderen formt die Gestalt der Mitteilung (eine Handschrift, ein gedrucktes Buch, ein technisches Bild) auch ihren Inhalt“ (Kloock & Spahr, 2000, 9).

In Kommunikations- und Medienwissenschaft hat sich ein globaler Medienbegriff wie von McLuhan vertreten in der Breite nicht durchgesetzt. Stattdessen wird meist zwischen Sprache und technischen Medien unterschieden.

!

Eine klassische Einteilung der Medienwissenschaft geht auf Harry Pross zurück (1972). Dieser differenziert zwischen Primärmedien, die nicht technisch vermittelt sind, wie die direkte Rede; Sekundärmedien, bei denen der Technikeinsatz auf der Senderseite liegt, etwa der Buchdruck; und Tertiärmedien, bei denen sowohl für Produktion wie Rezeption technische Apparaturen nötig sind, beispielsweise Fernsehen und Internet.

Ein Grund, warum es schwer fällt, Medien begrifflich zu fassen, ist ihre Flüchtigkeit. Für die Philosophin Sybille Krämer (2008) ist die Figur des Nachrichtenboten in der Antike eine Personifizierung des Medienbegriffs: Wenn der Bote eine Meldung überträgt, tritt er nicht als eigenständiger Akteur auf, sondern bleibt stets im Hintergrund. Erst wenn es eine Störung in der reibungslosen Übertragung gibt, wird die Materialität des Mediums bewusst. Der Bote wird erst dann eine Figur in der Kommunikation, wenn er die Botschaft beispielsweise vergisst. Ansonsten hat das Vermittelte als Unmittelbares zu erscheinen. Medien werden also erst dann sichtbar, wenn sie nicht funktionieren, gestört sind oder nicht beherrscht werden.

Daraus ergibt sich ein Paradox im Diskurs um netzbasiertes Lernen und Lehren. Es gibt diesen Diskurs, eben weil das Lernen und Lehren mit Technologien noch nicht reibungslos funktioniert – netzbasierte Lehre ist dann erfolgreich etabliert, wenn die Medien wieder in den Hintergrund treten oder, anders gesagt, das Online-Lernen kein Thema mehr ist. Ein Widerspruch, an dessen Dekonstruktion Jaques Derrida Gefallen gefunden hätte.

Medientheorien

Neue Medien zwischen Gefahr und Chance: Romane als Opiumrauch

Neue Medien haben stets sowohl utopisch-verklärende als auch dystopisch-warnende Prognosen evoziert. Die Angst vor dem Werteverfall begleitet jedes neue Medium, vom Buch bis zum Internet. So wurde noch bis Ende des 19. Jahrhunderts vor den Konsequenzen der Lektüre von Romanen gewarnt (Postner, 2005). Edward Shorthouse vergleicht im Jahr 1892 Romanleser mit Opiumrauchern:

„Even the better class of fiction fills the mind with absurd emotions about unreal imaginary totally fictitious heroes and heroines who never existed or ever will exist and too often with immoral thoughts and suggestions. […] The habitual novel reader like the sensation theatre goer, the concert hall attender or like the inebriate or opium smoker must ever have some fresh excitement. […] Novel Readers can weep with gush and false Sentiment over the entirely imaginary sorrows of a bogus hero or heroine who never existed but will not give a Shilling to alleviate actual distress or destitution around them.“ (S. 670).

Was Shorthouse an der Romanlektüre kritisiert, wird später in der Medienwissenschaft unter den Begriffen „Immersion“ und „parasoziale Beziehungen“ diskutiert: Das völlige Eintauchen in eine mediale Realität und das Kommunikationsverhältnis zu fiktionalen oder unerreichbaren Charakteren (bspw. Protagonisten einer Fernsehserie, Nachrichtensprecher /innen). In aller Regel ist es ein harmloses Vergnügen, in den Abenteuern von Harry Potter zu versinken oder Helga Beimer aus der Lindenstraße als „Mutter der Nation“ anzusehen. Die Fiktion ist weniger anspruchsvoll als der Umgang mit realen Personen: Ein Mausklick schließt das Computerprogramm, per Knopfdruck ist der Fernseher aus und mit einem Knall das Buch zugeschlagen – und die Geschichte steht, ohne nachtragend zu sein, bei Bedarf jeder Zeit wieder zur Verfügung. Kein Wunder also, dass wir Medienkonsum entspannend finden.

Ab wann gleitet diese Entspannung in ein Abhängigkeitsverhältnis ab? Laut dem Drogen- und Suchtbericht der Bundesregierung (2012) gelten auf Basis einer repräsentativen Befragung in der Gruppe der 14- bis 64-Jährigen ca. 560.000 Menschen als internetabhängig und ca. 2,5 Mio. Menschen als problematische Internetnutzer/innen. Die Klassifizierung "Internetsucht" beruht dabei nicht allein auf der online verbrachten Zeit, sondern auf der Fähigkeit, auch außerhalb virtueller Gemeinschaften am gesellschaftlichen Leben teilzuhaben. Eine besondere Rolle nehmen dabei Online-Spiele ein, die Nutzer oft Stunden, manchmal Tage an den Bildschirm fesseln. Mediengeschichtlich ist die Angst vor dem Verschwinden in der fiktionalen Welt bereits im 19. Jahrhundert in der Figur des Don Quijote beschrieben. Nach Lektüre zahlreicher Abenteuerromane wird „der sinnreiche Junker Don Quijote von der Mancha“ zum Ritter, der gegen Windmühlen kämpft - ein tragischer Fall von 'Buchsucht'.

Sind Medien prinzipiell mit Vorsicht zu genießen? Die Frage, ob Medien unser Leben bereichern oder verarmen lassen, ist eine wiederkehrende gesellschaftliche Debatte. Medienkritische Äußerungen, besonders in Bezug auf Fernsehen, Computer und Internet, haben dabei Konjunktur - und werden oft selbst zum medialen Ereignis. Ein Beispiel ist Manfred Spitzer (2012), wenn er vor der um sich greifenden digitalen Demenz warnt. In der Medienwissenschaft ist seit den Arbeiten von Blumer und Katz (1974) das Prinzip "uses and gratifications" ein weithin anerkanntes Paradigma. Demnach erfolgt der Medienkonsum zweckrational; Nutzung und Nutzen sind miteinander verwoben. Wir konsumieren Medien gezielt, um bestimmte Bedürfnisse zu befriedigen.

Dies offeriert einen Erklärungsansatz für problematischen Medienkonsum: Die Mediennutzung gerät dann in Schieflage, wenn die Bedürfnislage aus dem Gleichgewicht ist. Gleichzeitig haben wir in der Auseinandersetzung um den Medienbegriff jedoch gesehen, dass Medien keine neutralen Vermittler sind. Es ist also möglich, dass Medien Bedürfnisse nicht nur befriedigen, sondern auch erzeugen bzw. verstärken. Die renommierte Medienwissenschaftlerin Shelley Turkle stellt in ihren qualitativen Forschungen zu Social Software fest, dass wir die Omnipräsenz in digitalen Netzwerken wie Twitter und Facebook mit einer verminderten Fähigkeit zur Kommunikation im 'Hier und Jetzt' erkaufen (Turkle, 2012). Stimmt es also, dass online gepflegte Beziehungen keine „echten“ Freundschaften sind und digitale Kommunikation prinzipiell dem Austausch Angesicht zu Angesicht unterlegen ist? Forschungen zu computervermittelter Kommunikation bestätigen solche pauschalen Annahmen nicht. Computervermittelte Kommunikation ist nicht prinzipiell defizitär gegenüber face-to-face-Kommunikation, sondern weist eigene Qualitäten auf. Unterschiedliche technologische Ausprägungen ermöglichen eine Bandbreite an Ausdrucksformen, die wiederum hinsichtlich ihrer kommunikativen Expressivität und Zielsetzung eine hohe Varianz aufweisen. Wie der Kommunikationswissenschaftler Rice (1999) bemerkt, „new media are often compared to, or critiqued from, a privileged, artifactual, idealized notion of interpersonal communication“ (S. 26). Wichtiger als das Medium ist die „Medialität“, also die Art und Weise, wie wir Medien in spezifischen Situationen gebrauchen (Krämer, 2008).

Ebenso wenig wie heraufbeschworene Gefahren haben sich die euphorischen Erwartungen bewahrheitet, die besonders das Lernen per Computer und Internet begleitet haben. Ende der 90er Jahre prognostizierte ein Expertengremium der Bertelsmann Stiftung, die traditionelle Hochschule sei im Begriff zu verschwinden. Im Jahr 2005 sollten Bildungsbroker/innen über Maklerinnen und Makler auf dem durch Angebot und Nachfrage regulierten Markt der Online-Studiengänge führen: „Was findet ein typischer Studienanfänger – nennen wir ihn Thomas S. – in naher Zukunft vor? Wird sein erster Gedanke sein, sich eine Hochschule nach ihrem allgemeinen Renommee auszusuchen? Wird er sie lieber in einer Großstadt oder eher in einem Städtchen besuchen wollen? Soll seine erste Alma Mater eher in der Nähe (wegen der Freundin) oder doch lieber weiter fort (wegen der Eltern) liegen? Nichts dergleichen wird ihn beschäftigen. Stattdessen wird Thomas S. das Internet absuchen, um sich – mit Hilfe verschiedener Online-Bildungsbroker – über die weltweit angebotenen Kurse und Abschlüsse zu informieren. [...] Seminare und Vorlesungen, Kurse und Betreuung werden als multimediale Websites oder als „training in the box“ angeboten.“ (Bertelsmann Stiftung & Heinz Nixdorf Stiftung, 2001, 18).

Die Studienwahl per Online-Bildungsbrokering ist keineswegs Realität geworden. Vielmehr zeigt sich, dass neue Medien in der Lehre das Repertoire der Lehrmethoden ergänzen, stellenweise auch verändern, aber keineswegs ersetzen. Dies wird in den Kommunikationswissenschaften als 'Riepelsches Gesetz' bezeichnet.

!

Riepel, Historiker und Journalist, formuliert 1913 in seiner Dissertation ein „Grundgesetz der Entwicklung des Nachrichtenwesens“, das nach wie vor in der kommunikationswissenschaftlichen Debatte vielfach zitiert wird. Demnach komplementierten neue Übertragungstechniken die alten, verdrängen sie dagegen selten völlig.

Diese Merkregel lohnt es sich im Hinterkopf zu haben, wenn in aktuellen Debatten davon die Rede ist, dass 'Massive Open Online Courses' (MOOCs) die traditionelle Universität bald obsolet werden lassen.

Medientheorien

Das Neue an den Neuen Medien

Im vorangegangenen Abschnitt wurde auf Parallelen in der gesellschaftlichen Bewertung von Buchdruck und Internet verwiesen. Wie ähnlich, wie unterschiedlich sind beide Medien? Anders gefragt: Was bedeutet es, wenn wir lesend und schreibend, produzierend und rezipierend im Netz unterwegs sind? Was ist das Neue an den neuen Medien und wie lange ist das Attribut 'neu' eigentlich noch zeitgemäß?

!

Computer und Internet sind Medien, die sich zwischen den Polen Massen- bzw. Individualmedium bewegen. Alle Rezipientinnen und Rezipienten nutzen, wenn auch über verschiedene Zugangswege (Browser, Plattformen und Provider) dasselbe Netz. Gleichzeitig verfügen Nutzer/innen über individuelle Filter und Zugänge, zum Beispiel RSS-Feeds, Bookmarks, subskribierte Mailinglisten, Avatare und Agenten, Portalmitgliedschaften, etc. Faßler (1999) hat für diesen Umstand den Begriff „MassenIndividualMedium“ geprägt. Elektronischer Text ist prinzipiell wandelbar, der Zugang zu Publikationsmöglichkeiten nicht exklusiv und die Rückkopplung der Lesenden durch die Vernetzung jederzeit möglich.

Wie gut verstehen wir dieses „MassenIndividualMedium“? In der ersten Ausgabe des Magazins „New Media & Society“ stellt Herausgeber Roger Silverstone 1999 die Frage, was denn eigentlich das Neue an den neuen Medien sei: „To ask the question‚ What’s new about new media?’ is, of course, to ask a question about the relationship between continuity and change; a question that requires an investigation into the complexities of innovation as both a technological and a social process […] Do new media create new meanings? Do they enable or disable social and cultural change? How are we to disentangle the various components of media and technology change as they affect, or are presumed to affect, organizations, the political process, global commerce, everyday life? What is this space called cyber?“ (Silverstone, 1999, 10-11).

Technische Innovation und soziale Praxis wirken zusammen und geben gemeinsam digitalen Netzmedien eine Gestalt – auch aus diesem Grund sind die von Silverstone aufgeworfenen Fragen keineswegs als gelöst zu betrachten, sondern begegnen uns in neuem Gewand immer wieder, aktuell in der Diskussion um Web 2.0. Diese Ko-Evolution von Anwendung und Herstellung wird in der Forschung zur Technikgenese (engl. „social construction of technology“ auch „social informatics“) untersucht. Demzufolge ist die Implementierung neuer Technologien das Ergebnis von Verhandlungsprozessen und Handlungen verschiedener sozialer Akteurinnen und Akteure mit individuellen Zielstellungen, Interessen und unterschiedlichen infrastrukturellen und kulturellen Hintergründen. Der virtuelle Raum transzendiert nicht den realen Raum, sondern drückt eine soziale und gesellschaftliche Realität aus. Der Medienforscher Rob Kling hat in den 1990er Jahren begonnen, aus soziologischer Perspektive digitale Informations- und Kommunikationstechnologien in Organisationen zu untersuchen und dabei ein so genanntes „Web-Modell“ entwickelt. Soziale Rollen, vorhandene Infrastrukturen und zeitliche Verläufe wirken zusammen, wenn sich ein neues Kommunikationsmedium durchsetzt – oder wieder verschwindet (Kling, 1991).

Technische Errungenschaften sind nicht nur „Möglichkeitsmaschinen“ (Großklaus, 1997), sondern ziehen auch Einschränkungen nach sich. Walter Benjamins Aufsatz „Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit“ aus dem Jahr 1939 reflektiert die umwälzenden Wirkungen des Films und anderer technischer Medien auf die Kunst und zieht Rückschlüsse auf deren Stellung und Funktion innerhalb der Gesellschaft. Die Möglichkeit der massenhaften Reproduktion führt zum Verlust der „Aura“ eines Kunstwerks.

„Noch bei der höchstvollendeten Reproduktion fällt eines aus: das Hier und Jetzt des Kunstwerks – sein einmaliges Dasein an dem Orte, an dem es sich befindet. […] Das Hier und Jetzt des Originals macht den Begriff seiner Echtheit aus. […] Während das Echte aber der manuellen Reproduktion gegenüber, die von ihm im Regelfalle als Fälschung abgestempelt wurde, seine volle Autorität bewahrt, ist das der technischen Reproduktion gegenüber nicht der Fall. […] Die Kathedrale verlässt ihren Platz, um in dem Studio eines Kunstfreundes Aufnahme zu finden; das Chorwerk, das in einem Saal oder unter freiem Himmel exekutiert wurde, lässt sich in einem Zimmer vernehmen“(Benjamin, 1939, 4).

Benjamins ästhetische Überlegungen – einer theoretischen Linse gleich – ermöglichen uns die Effekte der Digitaltechnologie in Hinblick auf die Erlebnisqualität in medial vermittelten Lernsituationen zu betrachten. So geht beispielsweise bei der Aufzeichnung von Lehrveranstaltungen das Ursprüngliche eines Vortrags in Teilen verloren. Das erklärt, warum Studierende trotzdem noch in den Hörsaal gehen, wenn alles im Netz verfügbar ist. Und was passiert, wenn die Kopie vom Original nicht mehr unterscheidbar ist? Worin besteht die Aura eines Hypertextes oder eines PDF-Dokuments? Über den Schutz von Urheberrechten hinausgehend gibt es einen Bedarf solche Fragen konstruktiv zu erörtern.

In der Praxis: Ringvorlesung „Medien und Bildung"

„Eine Pädagogik, die ohne Mittel und Mittler auskommt – un-mittelbar sozusagen –, ist nicht denkbar“, so beschreibt die Ringvorlesung „Medien und Bildung“ die Bedeutung von Informations- und Kommunikationstechnologien für das Lehren und Lernen. Die auf dem Portal podcampus bereitgestellte Ringvorlesung erkundet das interdisziplinäre Feld der Medientheorie aus der Perspektive von Philosophie über die Kunst-, Medien- und Kulturwissenschaften bis zur Informatik. http://www.podcampus.de/channels/47

Medientheorien

Medientheorien und die Gestaltung neuer Medien

Unsere oftmals impliziten Vorstellungen von digitalen Medien beeinflussen Interaktionsformen und Gestaltungsspielräume. Auf der Schnittstelle von Literaturwissenschaft und Informatik sind zahlreiche Arbeiten entstanden, die sich mit der Ästhetik digitaler Medien, Narration im Netz und „Human Computer Interaction“ befassen. Beispiele sind die Arbeiten von Brenda Laurel, Aspen Aarseth, Janet Murray und George Landow.

George Landow, Professor für englische Literatur und Kunstgeschichte an der Brown University, ist vielen seiner Fachkollegen hauptsächlich als Experte für das viktorianische Zeitalter bekannt. Seine Begeisterung für Hypertexte begann mit dem Online-Kurs „The Victorian Web“, eine frei zugängliche Lernressource, die inzwischen über 40.000 Dokumente umfasst. In seinen Arbeiten zu Hypertext und Hypermedia befasst er sich mit erkenntnistheoretischen Fragen, die mit dem Wandel von geschlossenen Autorensystemen zu offenen, hypertextuellen Systemen einhergehen (Landow, 2006).

Brenda Laurel erweiterte in den 1990er Jahren unser Verständnis für das Medium Computer durch Rückgriff auf die Aristotelische Dramentheorie. Ihre Dissertation prägte das Bild des „Computers als Bühne“. Diese Metapher lenkt das Augenmerk weg von den Programmroutinen des Computers hin auf die Handlung am Bildschirm aus der Perspektive der Benutzerinnen und Benutzer. In Laurels Theatermetapher entspricht die grafische Benutzer/innen-Schnittstelle einer ‚Bühne’, auf der sich die Handlung vollzieht. Die Technologie, die die Aufführung ermöglicht, ist selbst gar nicht sichtbar, sondern – wie im Theater – ‚hinter den Kulissen’ tätig. Wenn Personen mit einer Software (inter-)agieren, spielt sich eine Handlung ab, bei der der Computer selbst als kommunikatives Gegenüber wahrgenommen wird. Aus Sicht der Benutzerinnen und Benutzer agiert das jeweilige Programm, was sich in Aussagen wie „Ich hab gar nichts gemacht, er hat sich einfach ausgeschaltet“ oder „Word hat einen Fehler gefunden“ widerspiegelt. (#ant) Eine Aufgabe des Interfacedesigns liegt darin, schlüssige Charaktere zu schaffen: „Computer-based agents, like dramatic characters, do not have to think [...]; they simply have to provide a representation from which thought may be inferred“ (Laurel, 1993, 57). Bei der Gestaltung von Lerntechnologien können narrative Ansätze und dramaturgische Inszenierungen die Interaktion mit der Lernumgebung authentischer, einfacher und angenehmer machen.

Mit der Inszenierung digitaler Welten und ihrem narrativen Potenzial hat sich in der Publikation „Hamlet on the Holodeck“ (1997) Janet Murray befasst. Sie identifiziert vier grundsätzliche Eigenschaften digitaler Medien – Prozeduralität, Partizipation, Räumlichkeit, Enzyklopädik – , aus denen sie drei spezifische Erlebnisqualitäten virtueller Umgebungen ableitet. Durch seine Prozeduralität ist ein Computer in der Lage, Prozesse nicht nur abzubilden, sondern tatsächlich ablaufen zu lassen. Inhalte in einem digitalen Medium können deswegen inhärent dynamisch sein, während traditionelle Medien ausschließlich statische Inhalte verbreiten können. Die zweite Eigenschaft sind Partizipationsmöglichkeiten in digitalen Umgebungen. Computeranwendungen erzeugen Interesse, weil ihre Aktionen potenziell beeinflussbar sind und die Nutzerinnen und Nutzer in ablaufende Prozesse eingreifen können. Als dritte Eigenschaft von digitalen Umgebungen führt Murray die Räumlichkeit an – digitale Medien bilden „Räume“ und „Umgebungen“, in denen wir uns orientieren können. Murrays vierte Eigenschaft, die Enzyklopädik, zielt auf die Effizienz der Digitaltechnologie ab, für einen Menschen unübersehbare Mengen an Daten zu speichern, zu verarbeiten und auch zu präsentieren.

Aus diesen Eigenschaften folgert Murray drei „pleasures“, also „Genüsse“ oder „Annehmlichkeiten“. Sie beginnt mit der Immersion, also dem Gefühl des „Eintauchens in eine andere Welt“. Wenn die Handlungen, die eine Person innerhalb einer digitalen Umgebung vollzieht, wahrnehmbare Folgen und Ergebnisse haben, dann erlebt die nutzende Person nach Murray den zweiten charakteristischen Genuss digitaler Umgebungen: die sogenannte Agency. Der Begriff beschreibt den Grad, mit dem Dinge nach dem Willen der Benutzerinnen und Benutzer innerhalb einer Umgebung gestaltbar sind. Die dritte von Murray identifizierte Qualität digitaler Umgebungen ist die Transformation. So ist es in einer digitalen Umgebung möglich, einen anderen Charakter anzunehmen und Facetten der eigenen Person weitgehend risikofrei zu explorieren.

Oberflächlich betrachtet könnte man meinen, Computer und Internet seien eigentlich nur Distributionskanäle für die traditionellen Medienformen Print, Audio und Video – es ist also nichts Neues, sondern „alter Wein in neuen Schläuchen“, ein Vorwurf, dem sich die E-Learning-Didaktik mehrfach ausgesetzt sieht. Der Germanist und Fachdidaktiker Bernd Switalla (2001) hat in seinen Arbeiten wiederholt erläutert, worin sich die Lektüre zwischen zwei Buchdeckeln von der Navigation im Internet unterscheidet und was daraus für die Produzenten von Lernmedien folgt. Schon lange bevor Hypertexttechnologien erfunden waren, wurden Texte geschrieben, die eine non-lineare Lektüre nahelegten. Dazu zählen Arno Schmitts „Zettels Traum“, Wittgensteins „Philosophische Untersuchungen“ und Lichtenbergs „Sudelbuch“. Nichtsdestotrotz macht es einen großen Unterschied, ob wir auf dem Bildschirm lesen oder auf dem Papier. Der französische Historiker Roger Chartier bezeichnet dies als die „Materialität“ des Textes (Chartier & Cavallo, 1999). Des Weiteren bewegen wir uns in Hypertexten in einem Verweisraum, den ein anderer über den Text gelegt hat und welcher entsprechend assoziative Verknüpfungen der Autorinnen und Autoren widerspiegelt, die den eigenen Ansprüchen und Erwartungen als Lesende oder „Nutzer/innen“ unter Umständen zuwiderlaufen. Auch wenn eine Gestalterin oder ein Gestalter nicht mitteilt oder vielleicht selbst gar nicht ausdrücken kann, worin der Sinn eines Hyperlinks besteht, so wird doch von den Lesenden erwartet, dass sie spüren oder verstehen, auf welchen Pfaden der Hypertext sinnvoll zu erschließen sei.

Diesen Aspekt betont auch der Medientheoretiker Aspen Aarseth. In „Cybertext. Perspectives on Ergodic Literature“ beschreibt er „ergodische“ Texträume, die nur durch Aufwand der Benutzerinnen und Benutzer durchquert werden können (Aarseth, 1997).

In der Praxis: Der Hypertext "Pastperfect"

Pastperfect ist ein Hypertext zu Geschichtswissenschaft, bei dem Produktion und texttheoretische Reflexion Hand in Hand gehen. Der Erfolg des Projekts – die Webseite gewann im Jahr 2004 den MedidaPrix – zeigt, dass Medientheorie kein abwegiges „Schmetterlingsthema“ ist, sondern einen Platz im konzeptionellen Repertoire von Instruktionsdesigner/innen verdient. URL: http://www.pastperfect.at/ [2011-01-24]

Medientheorien

Zusammenfassung

Dieses Kapitel hat einen breiten Bogen über das facettenreiche Feld der Medientheorien gespannt – vom Dekonstruktivismus Jaques Derridas über soziotechnische Forschungsansätze bis hin zu medienästhetischen Vorstellungen. Welche zentralen Ergebnisse lassen sich abschließend festhalten? Zunächst ist da die Erkenntnis, dass implizite Vorstellungen vom Wesen der Medien unsere instruktionalen Gestaltungsentscheidungen stets begleiten. Wenn wir diese alltagstheoretischen Überzeugungen auf den Prüfstand setzen, gewinnen wir Distanz, um in der technologisch diktierten Entwicklungslandschaft den Überblick zu behalten. Wer medientheoretisch reflektiert an das didaktische Design von medienbasierten Lernumgebungen herangeht, kann das Potenzial digitaler Medien besser ausschöpfen und Potenziale, Nutzen, Chancen und Risiken für Lehre und Unterricht realistisch einschätzen.

Das beginnt mit einer Positionierung hinsichtlich des Medienbegriffs. Medienbegriff und medientheoretische Reflexionsebene sind eng miteinander verwoben. So operationalisieren Semiotik und Informationswissenschaft Medien als Zeichenvorrat, während Kommunikationswissenschaftler Medien als technische Kanäle begreifen. Ästhetik, Literatur- und Kulturwissenschaften produzieren in aller Regel Einzelmedientheorien. Wenn wir im Bildungskontext von „Medien“ sprechen, meinen wir in der Regel „technische Medien“, wie zum Beispiel Film und Computer, die eine eigenständige Medienwirklichkeit erzeugen. Im Gegensatz dazu steht ein universeller Medienbegriff, der in kulturwissenschaftlichen Mediendiskursen ebenfalls verbreitet ist. Ein Beispiel ist Marshall McLuhans Vorstellung von Medien als Erweiterungen des Menschen.

Den eigenen Medienbegriff zu reflektieren ist hilfreich, um angesichts des interdisziplinären Charakters der Forschung zu medienbasiertem Lehren und Lernen einen analytischen Orientierungspunkt zu gewinnen. Eng damit zusammen hängt eine geschichtliche Einbettung medienbezogener Debatten. Medienumbrüche in Spätmittelalter und früher Neuzeit sind nicht nur als ferner Spiegel unserer Gegenwart von Interesse. Es handelt sich um eine Epoche, die als Versuchslabor zum Verhältnis alter und neuer Medien betrachtet werden kann (Burkhardt & Werkstetter, 2005). Medienhistorisches Hintergrundwissen erlaubt, die Gestaltungsspielräume neuer Lehr- und Lernmedien konstruktiv zu nutzen, anstatt sie technikfeindlich zu ignorieren oder technikgläubig zu verspielen.

Wer über Medien debattiert, sollte ein Auge für geeignete Metaphern entwickeln und gleichzeitig in der Lage sein, Metaphern und Bilder zu dekonstruieren und für Brüche und Widersprüche in der Medienwahrnehmung offen zu bleiben. Medientheoretische Ansätze können Impulse für die konkrete Gestaltung geben. Laurels Bild des „Computers als Bühne“ bildet aus anwendungsbezogener Sicht einen nachvollziehbaren Ansatz für die Interfacegestaltung. Statt die Prozeduren des Rechners „aufzuführen“, sollten Nutzerinnen und Nutzer die Handlung verstehen können. In diesem Zusammenhang kommt Janet Murrays Bild des Computers als unendlicher Enzyklopädie in den Sinn – eine Eigenschaft, die der didaktischen Reduktion in Lernumgebungen nicht immer zuträglich ist.

Aus medientheoretischen Erkenntnissen ergeben sich praktische Konsequenzen, die für die Entwicklung von Lernumgebungen gelten. Statt sich selbstverständlich an durch Printmedien tradierten Organisationsprinzipien wie Seiten, Fußnoten, Anmerkungen und Kapitel zu orientieren, lohnt es sich einen offenen Blick für Gestaltungsmöglichkeiten zu entwickeln (Switalla, 2001). Neben der Immersion sollte das Augenmerk dabei vor allem auf dem Bereich Agency liegen – die Lernenden sollen das Geschehen aktiv beeinflussen können. Allerdings ist keine Lernumgebung per se eine konstruktivistische Wunderwaffe. Hier gilt es Medium und Medialität zu unterscheiden: Es kommt weniger auf die Eigenschaften des Artefakts an, sondern mehr auf die Instrumentalisierung durch die Lernenden. Statt die Potentiale digitaler Lernumgebungen pauschal zu beurteilen, wird es Zeit, das Medienhandeln ins Zentrum zu setzen.

?

Medientheorien

Literatur

Das Gesammelte interpretieren

Educational Data Mining und Learning Analytics

In den allgemeinen Prozess der Digitalisierung sind zunehmend auch die Pädagogik und ihre mediennahen Forschungsbereiche involviert. Dabei entstehen, bei immer mehr Aktionen und Abläufen, zunehmend Bestände maschinenlesbarer Dokumentationen, also eine große Anzahl an Daten. Diese werden nicht nur immer umfangreicheren, sondern darüber hinaus auch rein automatischen Analysen, Steuerungen und Handhabungen überlassen. Völlig neue Einsichten zur Optimierung von Bildungsangeboten können hier unter Einbezug zweier Perspektiven gewonnen werden: einerseits unter der umfassenderen Perspektive von Educational Datamining (EDM) und andererseits unter der stärker auf das individuelle Lernen konzentrierten Sicht von Learning Analytics (LA). Hier zeigen sich ungeahnte Chancen und große Herausforderungen. Dieser Artikel führt in das Themenfeld ein und stellt das Potentiale, aber auch potentielle Gefahren von Datenanalysen im Lehr- und Lernbereich dar.

Das Gesammelte interpretieren

Datenanalysen sind so alt wie der Computer selbst

Seit der Errichtung der ersten Rechenzentren gibt es Überlegungen, wie Computerleistung zur Unterstützung und zur Verbesserung von Unterricht verwendet werden könnte. Neben hohen Erwartungen an den Computer als Unterstützung oder als Substitut für die Lehrperson wurde auch über den Einsatz bei ganz spezifischen diagnostischen Problemen geforscht (Brown, 1980). Einen neuen Schub bekam diese Bewegung mit dem Erscheinen von Computern (PC) in den Klassenzimmern (Schön, 1985). Bei diesen Überlegungen ist die leitende Idee: „Computer können viel größere Mengen von Daten speichern als es einzelne Lehrpersonen auch beim bestem Bemühen könnten. Computerprogramme können auch ganz unerwartete Zusammenhänge zwischen Daten der Lernenden und dem Erreichen des Kurszieles aufdecken“ (Educause, 2011). Dies führte zur Entwicklung des Forschungsbereiches Educational Datamining (EDM). In den letzten Jahren kommt der neue Begriff Learning Analytics (LA) hinzu, der durchaus große Überschneidungen mit EDM hat, so dass Göldi (2012) zurecht auf seinem Blog die Frage stellt: „Ist Learning Analytics wirklich neu?“. Dieser Beitrag soll in beide Begriffe einführen, sie voneinander abgrenzen und anhand von Beispielen zeigen, warum dieser Forschungsbereich zukünftig großes Entwicklungspotential hat.

Das Gesammelte interpretieren

Educational Dataminig (EDM)

Seit den 1980er Jahren wird, mangels eines deutschen Begriffes, das Datensammeln als solches, der Prozess der Auswertung und die Konsequenzen als Datamining bezeichnet. Zusammengefasst geht es dabei im Endeffekt um eine große Anzahl von (zum Teil unspezifisch) erfassten Daten, deren (mögliche) Interpretationen und daraus entstehende Konsequenzen. Geschieht dies im Bildungskontext, redet man seit etwa 1995 von Educational Datamining (nach Romero & Ventura, 2007). Die wachsende Verbreitung der Internetzugänge, die Entwicklungen rund um das Web 2.0 und die damit verbundene erhöhten Interaktivität, die zunehmende Nutzung von sozialen Netzwerken und auch die Tendenz, immer mehr Prozesse mit IT zu bearbeiten, führen dazu, dass fast beliebig Daten gesammelt werden, welche Prozesse, wie beispielweise Arbeitsabläufe von der Einlasskontrolle bis zu den täglichen Abläufen, beschreiben (engl. ‚Big Data‘).

!

Unter Big Data versteht man eine unüberschaubare Anhäufung von Daten durch die Nutzung verschiedenster webbasierter Dienste zu deren Analyse und Interpretation.

Bei der Datensammlung wird die stark unterschiedliche Struktur der Daten deutlich: Viele Prozesse werden mit festen Strukturen protokolliert. Zum Beispiel das Aufrufen einer Webseite und der Kontakt mit der eigenen IP-Adresse, gegebenenfalls das individuelle Authentifizieren, der Aufruf bestimmter Angebote, das Absolvieren von Tests und bestimmte Auswahlen werden in Datenbanken hinterlegt.

Daneben entstehen zunehmend Texte, die häufig per Chat, E-Mail, in Wikis, Blogs und Foren, oder per Upload in verschiedensten Lernumgebungen produziert und ausgetauscht werden. Immer mehr werden unterrichtliche Angebote nicht mehr nur in Präsenzformaten ‚vor Ort‘ (Seminare, Vorlesungen), sondern auch als Telefon- und Videokonferenzen synchron und als Podcasts asynchron durchgeführt. Hier fallen die Verbindungsdaten und entsprechende Aktivitätszeiten als strukturiertes Datenmaterial an, aus denen dem Aktivitätsanteile und Dominanz- oder Partizipationswerte als Charakteristik der Kommunikation abgeleitet werden können. Aus pädagogischer Sicht ist es darüber hinaus selbstverständlich von höchstem Interesse, was inhaltlich vorgefallen ist. Worüber wurde gesprochen, in welchem Zusammenhang? Die automatische Klassifikation und inhaltliche Zuordnung (semantische Analyse) solcher Daten ist ein ganz eigenes und wesentlich komplexeres Problem und steckt heute noch in den Kinderschuhen (Spies, 2013), wiewohl es schon erste vielversprechende Ansätze gibt (Softic et al., 2010). Noch viel aufwändiger ist die Untersuchung der Bewegungsmuster und der Mimik.

Das Ziel von EDM ist also, aus einer riesigen Datenmenge heraus überschaubare Typen, Profile, Cluster und darauf bezogen typische inhaltsbezogene Abfolgen und auch kritische Werte zu ermitteln. Pädagogisch geht es darum, Muster in den Daten zu erkennen, um daraus notwendige oder empfehlenswerte Handlungen planen zu können. Dies kann im Einzelfall eine Alarmmeldung sein, die sich auf das globale Verhalten (Engagement, Fleiß, Präsenz) bezieht, oder aber im Detail auf Prozesse, bei denen die weiteren Entfaltungsschritte durch Sackgassen, falsche Arbeitstechniken, Routinen oder Kenntnislücken blockiert sind. Zum Einsatz kommen kann dabei ein automatisches adaptives Online-Hilfsangebot oder konkrete Interventionen von Lehrpersonen, die in kritischen Alarmfällen vorgeschlagen werden. Unter einem eher ökonomischen Aspekt werden durch die Kombination verschiedener Verfahren Zusammenhänge zwischen Eingangs- und Prozessparametern und dem jeweiligen Erfolg ermittelt. Dabei wird versucht, Schulungs- und Bildungsmaßnahmen statistisch zu erklären und Prognosen für den Erfolg und auch Misserfolg konkret einzelner Akteure zu berechnen und natürlich auch Erwartungswerte für deren Gesamtheit zu prognostizieren.

!

Das Ziel von Educational Data Mining ist es, aus riesigen Datenmengen überschaubare Typen, Profile, Zusammenhänge, Cluster und darauf bezogen typische Abfolgen, Zusammenhänge und kritische Werte zu ermitteln, um daraus Prognosen zu errechnen und Empfehlungen für sinnvolle pädagogische Handlungen ableiten zu können.

Mit der Einführung des Begriffes „Educational Datamining“ waren und sind natürlich Hoffnungen verbunden, die traditionellen Methoden aus der künstlichen Intelligenzforschung, dem Bereich des Maschinen-Lernen und der Statistik bzw. Mustererkennung zusammenzufassen und im Bildungskontext gezielt einzusetzen (ALMazroui, 2013, 9).

LMazroui (2013) referiert folgende Techniken und Inhaltsbereiche:

Differenzierung Datamining und Educational Datamining

Es besteht eine gewisse Nähe zwischen kommerziellem Datamining und EDM: Beim einen geht es darum, Kundinnen und Kunden zu beeinflussen, um mehr Profit zu generieren und damit den Verdienst zu erhöhen. Beim EDM dienen die Daten als Grundlage dafür, Lernerfolge zu ermöglichen und Kompetenzen zu vermitteln. Der Erfolg zeigt sich im kommerziellen Umfeld, indem Kundinnen und Kunden ihre Zufriedenheit mit bestimmten Aktionen bekunden. Im EDM wird ermittelt, welche Aktion mit entsprechendem Fortschritt und der Zielerreichung oder dem Gegenteil zusammenhängt.

In der Praxis des Datamining zeigt sich, dass, ausgelöst von akuten Praxisfragen, Datenmengen untersucht und im Forschungsprozess neue Fragen aufgeworfen werden, die bis dahin gar nicht im Raum standen. Wir könnten so zum Beispiel durch die abweichenden Zeitstempel und damit verbundenen Daten feststellen, dass es bei bestimmten Lehrpersonen immer und ohne systematischen Grund länger dauert, bis die Klasse online präsent ist. Weiterhin lassen sich zum Beispiel Phänomene abbilden, bei denen spezielle Ziele abseits des vollzogenen Lehrplans ohne das Zutun einer Lehrperson plötzlich erreicht werden.

Andererseits muss hier auch betont werden, dass der praktische Einsatz von EDM in Klassenräumen und Lehrsälen überschaubar ist, was daran liegt, dass die oft hochgesteckten Erwartungen nur bedingt erfüllbar sind – also viel technologischer Einsatz einem vergleichsweise bescheidenem Ergebnis gegenübersteht. Auch heute noch verlassen die meisten Entwicklungen nicht die Forschungslabore.

?

Denken Sie an Ihre eigene Lernerfahrung. Ließe sich bezogen auf längere Episoden (Schuljahre) Ihr Lernen durch eine systematische Datenerfassung erheblich und nachhaltig optimieren und beschleunigen? Versuchen Sie an einem konkreten Beispiel aus Ihrer Erfahrung darzustellen, welche Daten erhoben werden sollten und wie deren automatisierte Interpretation Ihnen helfen könnte.

Das Gesammelte interpretieren

Learning Analytics (LA)

Der Begriff Learning Analytics tauchte erstmalig, eingebunden in eine ökonomische Analyse, in der Aufzählung von „key opportunities“ bei John Mitchell und Stuart Costello (2000, 16) auf. Danach dauerte es gut zehn Jahre, bis sich im Umfeld von George Siemens und den Learning Analytics & Knowledge Konferenzen (LAK) ein Konsens herausgebildet hat, unter Learning Analytics das Sammeln von Daten von Lernenden zu verstehen, um deren Lernen unterstützen und den Erfolg prognostizieren zu können: „Learning analytics is the use of intelligent data, learner-produced data, and analysis models to discover information and social connections for predicting and advising people's learning.“ (Siemens, 2010).

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Seit dem erfährt der Forschungsbereich stetigen Aufschwung, was sich auch in der Nennung des Horizon Report (siehe #zukunft) nachhaltig niederschlägt, in dem von anerkannten Expertinnen und Experten dieser Tätigkeitsbereich als einer der wichtigsten in den nächsten Jahren deklariert wurde (Buckingham Sum, 2012).

!

Learning Analytics ist die Interpretation von lernerinnen- und lernerspezifischen Daten, um individuelle Lernprozesse gezielt zu verbessern. LA stellt dazu dem Lehrpersonal Werkzeuge bereit. Lehrpersonen gelangen so an Informationen, die sie ohne solche Tools eventuell gar nicht einholen könnten, bleiben aber auch im Zentrum des pädagogischen Handelns.

Diese im Merksatz dargestellte Auffassung von LA bedeutet eine gewisse Überlagerung mit dem Forschungsgebiet des EDM, jedoch bleibt bei LA die Lehrperson im Zentrum des pädagogischen Handelns. Nach dieser Definition erhält LA auch einen besonderen Akzent durch das Bemühen, Lernerfolge vorherzusagen und das Lernen zu unterstützen. Duval (2010) bemüht sich um Klärung des Verhältnisses, und akzentuiert sein Interesse am pädagogischen Aspekt des Datensammelns. Seiner Ansicht nach geht es darum, Spuren von Lernenden zu sammeln und für die Verbesserung des Lernens zu verwenden, wobei die Lehrperson (als Lernprozessbegleiter/in) die Interpretation vornehmen soll.

Analog zur Ausbreitung von EDM steigt die Bedeutung von LA in dem Maße, wie im Unterricht das Element des Vortragens immer mehr zurücktritt und die Inhalte, der Content, zunehmend über digitale Prozesse vermittelt werden. Somit erhält LA quasi automatisch eine schnell wachsende Datenbasis, um die Spuren von Lernprozessen zu verfolgen – ob die Analysen gehaltvoller werden, muss auch weiterhin einer kritischen Beobachtung unterzogen werden. Laut dem U.S. Department of Education & Office of Educational Technology (2012, 5) geht es zukünftig nicht darum, dass alle Lernenden das gleiche Seminar besuchen, die gleichen Hausübungen in gleicher Abfolge erledigen und alles in derselben vorgegebenen Zeit vollziehen. Stattdessen steht die Förderung des Individuums mit Hilfe individueller digitaler Lernunterlagen und anhand individueller Lernprozesse im Mittelpunkt.

Die Stärke von Learning Analytics liegt in der Möglichkeit, feinkörnige Beobachtungen von Prozessen auch mit sehr großen Probandinnen- und Probandenzahlen zu betreiben. Vor dieser Möglichkeit wurden von Forscherinnen und Forschern auch im pädagogischen Feld zur Datenreduktion schon ‚auf Papier‘ Detaildaten zu Testwerten zusammengefasst und verrechnet, dabei waren viele komplexere Auswertungsverfahren aus Speichergründen auf 50 bis 80 Variablen begrenzt. Es zeichnet sich nun also ab, dass mit den heutigen und zukünftigen technischen Möglichkeiten des Internets und zentralen Datenspeicherungen auf einem sehr differenzierten Niveau individuell gezeichnete Spuren verfolgt werden können.

Hiermit eröffnen sich ganz neue Forschungsfragen und -felder. Die großen Datenmengen erlauben Statistikerinnen und Statistikern sowie anderen fachkundigen Personen gänzlich neue Einblicke. Allerdings soll auch mit Boyd und Crawford (2011, 2) kritisch unter anderem auf das Phänomen der Apophänie, hingewiesen sein. Apophänie meint die Tendenz unserer Wahrnehmung, Muster und Beziehungen auch in gänzlich zufälligen, bedeutungslosen Einzelheiten zu konstruieren – dabei liefern die aufwändigen Verfahren den Forschenden implizit immer ‚irgendwelche‘ Ergebnisse. Chatti et al. (2012) weisen in ihrem Referenzmodell ebenfalls auf die Komplexität von LA hin, indem sie vier Bereiche benennen, die es zu bedenken gibt: Daten und Umgebungen (Was?), Stakeholder (Wer?), Ziel (Warum?) und die Methoden (Wie?).

?

Unter welchen Bedingungen fühlen Sie sich als Lehrperson durch LA in Ihrem Umfeld belastet? Worin könnte eine Entlastung liegen?

In der Praxis: Mathetrainer der TU Graz

An der Technischen Universität Graz werden mathematische Trainer entwickelt, die helfen sollen, die mathematische Grundausbildung der Grundschule zu unterstützen. Unter http://mathe.tugraz.at sind derzeit der Einmal-Eins-Trainer, der Additions- und Subtraktions-Trainer und der mehrstellige Multiplikations-Trainer verfügbar. Alle Ressourcen sind frei zugänglich und können sowohl von Schulen als auch Privatpersonen genutzt werden (Beschreibung siehe Ebner et al., 2013b).

Der an der TU Graz entwickelte Einmal-Eins-Trainer http://einmaleins.tugraz.at) verfügt über einen intelligenten Algorithmus, welcher versucht, den Wissenstand der Lernenden zu ermitteln und danach ein entsprechendes (weder zu leichtes noch zu schwieriges) Beispiel zu präsentieren. Wird ein Beispiel zweimal hintereinander richtig gelöst, wird es als ‚gut gekonnt‘ markiert. Das Trainer gilt als abgeschlossen, wenn alle Rechnungen gut gekonnt werden. Für die Lehrperson wird eine Übersicht angeboten (siehe Abb. 1), in der genau der Lernstand der Schulkinder nachvollzogen werden kann. Dunkelgrün entspricht gut gekonnt, grün heißt gekonnt, rot meint falsch und grau bedeutet noch nicht zugewiesen. Entscheidend ist aber die Markierung unter der Spalte ‚Skill‘. Hier wird in den Ampelfarben markiert, ob eine pädagogische Intervention vorgeschlagen wird:

Der Algorithmus erkennt, wenn über eine längere Periode falsche Lösungen eingegeben werden und stellt dies in der Farbe rot dar, gelb bedeutet, dass in letzter Zeit vermehrt Fehler aufgetreten sind, und grün, dass die einzelnen Lernenden vorankommen, Lernzuwachs verzeichnen. Also auch bei der Signalfarbe grün dürfen Fehler gemacht werden, aber insgesamt ist ein Lernzuwachs zu verzeichnen. Der Einmal-Eins-Trainer verfügt mit Stand August 2013 über mehr als 250000 Einträge von Rechnungen in der Datenbank und ist insofern weltweit einzigartig. Als Ergebnis zeigt sich, dass zum Beispiel die Rechnungen 6*8 und 7*8 eine höhere Fehlerrate aufweisen als die umgekehrten Operation (8*6 und 8*7). Eine mögliche Erklärung ist, dass in der Schulklasse zwar die 6er-Reihe gelernt und automatisiert wird, die Umkehrung aber sehr lange als eigenständige Rechnung der später gelernten 8er-Reihe betrachtet wird.

Abb. 1: Einmal-Eins-Trainer ([http://einmaleins.tugraz.at](http://einmaleins.tugraz.at)) - Übersicht über eine Klasse (anonymisiert)
Abb. 1: Einmal-Eins-Trainer ([http://einmaleins.tugraz.at](http://einmaleins.tugraz.at)) - Übersicht über eine Klasse (anonymisiert)
Das Gesammelte interpretieren

EDM und LA im Spannungsfeld des Datenschutzes

‚Was mit Daten passieren kann, wird passieren‘. Dieses Sprichwort der Informatik weist darauf hin, dass Daten sowohl im positiven als auch negativen Sinne interpretiert und ausgewertet werden können. Aus dem Blickwinkel der Forschung besteht selbstverständlich das Bedürfnis, aus analytischen Gründen weiter Daten zu gewinnen. Wird zum Beispiel beim Abruf eines Videos in den Logfiles des Servers aufgezeichnet, ob dabei auch vor- oder zurückgespult wurde oder ob Pausen gemacht wurden, stellt sich Wissenschaftlerinnen und Wissenschaftlern die Frage, ob das Video mit Aufmerksamkeit verfolgt wurde. Dazu werden weitere Datenspuren gesucht oder weitere Systemkomponenten geschaffen, die entsprechende Daten erzeugen (Ebner et al, 2013a). Wenn in der Datenbank sichtbar wird, dass Aufgaben nicht gelöst wurden, steht die Frage im Raum, ob die Fehler nach konzentrierten Überlegungen und vielleicht systematisch durch Anwendung falscher Regeln entstanden sind oder vielmehr zufällig durch oberflächliche Eingabe des Ergebnisses. Mit einem Mikrofon lässt sich ein möglicherweise störender Geräuschpegel ermitteln, mit einer Kamera gelingt es, Gesichtsausdrücke zu bestimmen. Aus oft ganz unscheinbaren Daten, wie den Zeitstempeln der Beobachtungen, lassen sich allerdings auch ganz andere Untersuchungen betreiben und zum Beispiel Rückschlüsse auf das Unterrichtsverhalten der Lehrpersonen ziehen. Damit stellt sich die Frage, wieweit durch ein solches Setting bei allen Beteiligten der Eindruck einer Überwachung entsteht und sie spezifisch darauf reagieren, also ihr normales Verhalten ändern und womöglich den Einsatz solcher Tools überhaupt sabotieren.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Durch das Sammeln von Daten besteht zweifelsfrei ein hoher Anspruch an den Datenschutz. Bei dem Tool, welches hier in der Rubrik ‚### In der Praxis‘ beschrieben ist, sind die beteiligten Personen über eine beliebige E-Mail-Adresse identifiziert, man kann also nicht wirklich von personenbezogenen Daten sprechen. In einem typischen LMS (Lernmanagmentsystem) verhält sich das ganz anders, im Hinblick auf den Erwerb von Qualifikationen ist eine Authentifizierung der Teilnehmenden obligatorisch. Bei allem Enthusiasmus, der LA entgegen gebracht wird, ist es zwingend nötig, Lehrende und Lernende darüber aufzuklären, welche Daten zu welchem Zweck gespeichert, analysiert und möglicherweise weitergegeben werden. Auch sollten Mechanismen und Sicherheiten eingebaut werden, die es gewährleisten, dass auch später keine missbräuchliche Verwendung stattfindet.

?

Wo sehen Sie Eingriffe in Ihr Persönlichkeitsrecht, wenn in Ihrem Umfeld Daten für LA erhoben werden? Stellen Sie sich dabei in beiden Rollen vor!

Das Gesammelte interpretieren

Wirkung von EDM und LA auf Unterrichtsgestaltung

Grundsätzlich sollte von der Idee, Prozesse bei Individuen steuerbar zu machen, Abstand genommen werden, nur weil pädagogische Abläufe detailliert erfasst werden können. Dieser sehr technischen Auffassung von Unterrichten wird hier erwidert, dass die Kunst des Unterrichtens im Wesentlichen darin besteht, mit verschiedenen Vorgaben Handlungsräume festzulegen, die den Lernenden individuelle Lernfortschritte ermöglichen. Lernende treffen im Umfeld solcher Angebote subjektive und oft ganz spontane Entscheidungen, Optionen werden eingebunden oder sie weisen aus gänzlich subjektiven Gegebenheiten das Angebot zurück (Hattie, 2013, 2). Die Daten zeigen, Lernen erfolgt im Detail nicht immer stetig, wie es eine vorausbedachte Konstruktion als Ideal vorgibt (Schön et al., 2012, 78-89). Gerade die empirische Beschreibung und Bestätigung dieser praktischen Erfahrung ist ein wichtiges Ergebnis von Detail-Erhebungen, wie sie mit Learning Analytics und Educational Datamining möglich geworden sind. Neue Einsichten über Lehr- und Lernprozesse werden dabei gewonnen, wobei deutlich wird, warum Bildung sich als ein derart komplexer Prozess präsentiert.

Aus rein praktischer Sicht ist auch der Einsatz von LA noch sehr in den Kinderschuhen, so gibt es zwar vereinzelte Berichte über die Analyse im Bereich von Lernumgebungen (Softic et al., 2013), der große Durchbruch steht aber noch aus. Nichtsdestotrotz gehen die Autoren davon aus, dass diese Entwicklung stetig voranschreiten wird.

Es sei hier nochmals ausdrücklich darauf hingewiesen, dass die gewonnenen Daten und eine etwaige anschließende Analyse nicht als unfehlbare Quelle des Wissens anzusehen sind und dass man zu keiner Zeit die kritische Auseinandersetzung vergessen darf. Je umfassender Prozesse automatisiert werden, desto größer ist die Gefahr, dass man sich zu weitgehend auf diese verlässt und Förderansätze vernachlässigt werden.

?

Planen Sie einen Unterricht mit dem Einmal-Eins-Trainer (http://einmaleins.tugraz.at). Lesen Sie dafür nochmals die Rubrik ‚### In der Praxis‘ und überlegen Sie sich die Anweisungen an die Lernenden und wie Sie mit den Ergebnissen umgehen. Vergleichen Sie kritisch diese Möglichkeit mit dem traditionellen Unterricht und halten Sie Vor- beziehungsweise Nachteile fest.

?

Besuchen Sie die Webseite http://mathe.tugraz.at und registrieren Sie einen Account. Spielen Sie mit den Programmen und machen Sie bewusste Fehler. Halten Sie fest, ob und wie das Programm darauf reagiert.

Das Gesammelte interpretieren

Literatur

Wissensmanagement

Informelles Lernen im betrieblichen Kontext

Der Begriff des Wissensmanagements (nachfolgend WM) begegnet uns in der heutigen ‚Wissensgesellschaft‘ (Drucker, 1993; Kübler, 2009) vor allem im ökonomischen Kontext immer wieder. Der Begriff besitzt diverse Ausprägungen. Je nach Perspektive beziehungsweise Profession unterscheidet sich das Verständnis jedoch deutlich.

Der vorliegende Artikel stellt die wichtigsten Begriffe sowie zentrale Ansätze des WM dar. Ausgewählte Rahmenbedingungen beziehungsweise Voraussetzungen für den Wissenserwerb im beruflichen Kontext werden skizziert und diskutiert. Dazu werden zuerst hilfreiche Definitionen und Konzepte erläutert oder genannt, um anschließend aktuelle Trends aufzugreifen, insbesondere das informelle Lernen. Dabei gehen wir davon aus, dass Wissen immer an den Menschen gebunden ist und betrachten WM deshalb vorwiegend aus ökonomisch-pädagogischer Perspektive, wohlwissend, dass auch andere Zugänge möglich und relevant sind.

Wissensmanagement

Grundlagen des Wissensmanagements

Im Folgenden werden zentrale Begriffe, mit denen sich WM beschäftigt, erläutert und darauf eingegangen, für welche Probleme WM Konzepte anbietet.

Wissen aus der Managementperspektive zu betrachten, gibt einen eingeschränkten Korridor an Interpretationsmöglichkeiten des Wissensbegriffs vor. Der Managementbegriff beschreibt entweder eine Personengruppe mit bestimmten Rollen und Tätigkeiten in einer Organisation (institutionale Sicht nach Haun, 2002, 30-31) oder eine Funktion welche vor allem mit den Tätigkeiten der Planung, des Kontrollierens und Entscheidens betraut ist (funktionale Sicht nach Schulte-Zurhausen, 1999, 13).

In beiden Fällen zielt WM darauf ab, Geschäftsziele systematisch zu unterstützen. WM dient also der Problemlösung ökonomischer Aufgaben wie beispielsweise der Optimierung der Ressourcenallokation (welche sich mit der Frage „Wovon benötige ich wie viel an welcher Stelle zu welchem Zeitpunkt?“ beschäftigt) oder der Generierung von Wettbewerbsvorteilen. Wie wichtig WM für die deutsche Wirtschaft ist, stellen Pawlowsky et al. (2010) im Rahmen der Studie ‚Wettbewerbsfaktor Wissensmanagement 2010‘ deutlich heraus. Die konkrete Aufgabe des WM ist es nach Reinmann und Eppler (2008) dabei ein „Unternehmen wissensbasiert zu gestalten oder organisationale Lernprozesse so zu steuern, dass man die Ressource Wissen optimal nutzen kann“ (Reinmann & Eppler, 2008, 27.). Auch Probst et al. (2006) halten fest: „Wissensmanagement bildet ein integriertes Interventionskonzept, dass sich mit den Möglichkeiten der Gestaltung der organisatorischen Wissensbasis befasst“ (Probst et al., 2006, 23).

Abb. 1: Informelles Lernen im Spannungsfeld des betrieblichen Wissensmanagements
Abb. 1: Informelles Lernen im Spannungsfeld des betrieblichen Wissensmanagements

Da wir in diesem Artikel eine kurze Einführung in die Ausprägungen des WM geben wollen, bedeutet das, dass viele Ansätze des WM ausgeblendet werden, insbesondere auch das persönliche Wissensmanagement (zum persönlichen WM siehe Ausführungen von Reinmann und Eppler auf www.persoenliches-wissensmanagement.com). Wie Abbildung 1 verdeutlicht, gilt dies auch für den Bereich des Lernens. Wir gehen nur auf das informelle Lernen im betrieblichen Kontext ein, welches einen Teilbereich des informellen Lernens darstellt, da es verbindlich an Geschäftszielen ausgerichtet sein sollte.

!

Lernen im betrieblichen Kontext sollte immer die Geschäftsziele unterstützen!

Denn wie im Kapitel #unternehmen erläutert, entscheidet die Geschäftsführung über die langfristige Ausrichtung der Weiterbildung, die bestehende Infrastruktur und darüber, wer, wozu qualifiziert werden soll. Wie Robes dort unter anderem feststellt, eignet sich das informelle Lernen insbesondere für Zielgruppen, die selbstorganisiert lernen und arbeiten können. Entsprechend kommen informelle Lernformen besonders Expertinnen und Experten oder sogenannte Wissensarbeiterinnen und Wissensarbeitern (North und Güldenberg, 2008, 79 ff.) entgegen, was auch die Auswahl der Befragten in der aktuellen Hays Studie ‚Wissensarbeiter und Unternehmen im Spannungsfeld‘ (Stiehler et al., 2013) widerspiegelt. Trotzdem bleibt festzuhalten, dass prinzipiell alle Mitarbeiter/innen informell lernen können und dies mehrheitlich auch tun. Entsprechende Rahmenbedingungen, die durch das Unternehmen gesetzt werden, können die Selbstlernkompetenzen fördern.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Diese Selbstlernkompetenz könnte man auch als das Vorhandensein eines Sets bestimmter Kenntnisse und Vorstellungen beziehungsweise Erfahrungen beschreiben, wie man selbstgesteuert lernt. Spezialbegriffe spielen in der Begriffslandschaft des WM eine große Rolle, können aufgrund ihrer Vielzahl aber an dieser Stelle nicht angemessen erläutert werden.

Darum haben wir uns entschlossen die wichtigsten Begriffe nachfolgend als Tag-Cloud abzubilden und die Begriffserläuterung auf eine Google-Page auszulagern. Dies ermöglicht zugleich eine vielfältige Interaktion für die Lesenden und ermöglicht weitere eigene informelle Lernerfahrungen.

Abb. 2: Begriffslandschaft des Wissensmanagements
Abb. 2: Begriffslandschaft des Wissensmanagements

Die entsprechenden Erläuterungen der Begriffe aus Abbildung 2 sind unter http://tinyurl.com/mpxjc9h abzurufen. Wir möchten alle Interessierten an dieser Stelle damit einladen sich zu beteiligen, um aus dem L3T-Artikel ein informelles Lernprojekt zu machen.

?

Kommentieren Sie einen der oben genannten Begriffe oder ergänzen Sie eine weitere Definition auf der Google-Page: http://tinyurl.com/mpxjc9h

Wissensmanagement

Modelle und Trends

Das hier skizzierte WM ist stark vom Informationsmanagement geprägt, also der Frage wie Daten zu Informationen verarbeitet und verteilt werden. Diese Fragestellung greifen sowohl das Genfer Modell (Probst et al., 2006), das SECI-Modell bzw. die Wissensspirale (Nonaka, 1994), als auch die Wissenstreppe (North, 2002) auf. Diese drei, sowie das Münchner Modell (Reinmann et al., 2001) und das Konzept der Lernenden Organisation (Senge, 2006) können als zentrale Modelle des WM gesehen werden (Lehner, 2006).

Obwohl die Ansätze teilweise vor über 15 Jahren entwickelt wurden, bieten sie Erklärungen für aktuelle Trends wie

Gerade vor dem Hintergrund des Konnektivismus lohnt es sich, diese Trends im Hinblick auf informelles Lernen genauer zu untersuchen, um WM-Aktivitäten und Lernprozesse eng zu verzahnen.

?

Informieren Sie sich über zwei WM-Modelle anhand der Verweise am Ende des Artikels und beschreiben Sie, welche Rolle das Lernen in dem jeweiligen Modell spielt.

Wissensmanagement

Informelles Lernen im betrieblichen Kontext

Der folgende Abschnitt beschäftigt sich mit informellem Lernen und wie es im betrieblichen Kontext stattfindet. Wenn man informelles Lernen fassen möchte, findet man wiederum eine Vielzahl von Definitionen und Abgrenzungen. Der europäische Rat grenzt zum Beispiel in seiner Empfehlung vom 20. Dezember 2012 zur Validierung nichtformalen und informellen Lernens formales, non-formales und informelles Lernen ab. Formale Lernprozesse werden hierbei in die Systeme der allgemeinen Bildung, der beruflichen Erstausbildung und der Hochschulbildung verwiesen. Die innerbetriebliche Weiterbildung stellt in diesem Rahmen ein typisches Beispiel nicht-formalen Lernens dar. Am Arbeitsplatz erworbene Fähigkeiten gelten nach dieser Definition als informell erlernt, wenn Lernziele und Lernzeiten nicht festgelegt und der Lernprozess weder strukturiert noch organisiert ist.

Nach Dehnbostel (2009) findet informelles Lernen im betrieblichen Kontext zum Beispiel „durch Zusehen, Nachmachen, Mitmachen, Helfen und Probieren“ (S. 23) statt. Informelles Lernen „ergibt sich aus Arbeits- und Handlungserfordernissen und ist nicht institutionell organisiert, bewirkt ein Ergebnis, das aus Situationsbewältigungen und Problemlösungen hervorgeht, wird – soweit es nicht im Rahmen einer formellen Lernorganisation abläuft – nicht professionell pädagogisch begleitet.“ (Dehnbostel, 2009, 47). Allerdings schlägt er beispielsweise Seminare, Workshops, Lehrgänge und ‚Structured Learning on the Job‘ dem formellen Lernen zu (Dehnboste, 2009, 50).

Grundlegend gehen wir davon aus, dass es zwei Perspektiven auf informelles Lernen gibt. Zum einen die Perspektive des Subjekts, die gekennzeichnet ist durch die individuellen Wahrnehmung und fragt, ob das Lernen bewusst oder unbewusst passiert und ob es auf ein bestimmtes Lernziel gerichtet ist. Zum anderen die Perspektive, die den Kontext betrachtet, also die Bedingungen, unter denen informelles Lernen stattfinden kann (Rohs, 2013). Je nach Perspektive verwischen hierbei die Grenzen zwischen formalem und informellem Lernen und ein breites Spektrum an Mischformen entsteht, wobeiwobei das nichtformale Lernen als Zwischenkategorie Orientierung gibt. Kooperations- und Kommunikationsprozesse spielen hierbei eine wichtige Rolle (Erpenbeck & Sauter, 2007, 100-102).

!

Je nach Definition ist ein Seminar der betrieblichen Weiterbildung ein formaler oder nichtformaler Lernanlass. Durch die Struktur wirkt das Seminar formal, die Pausengespräche, kollegialer Austausch und Intervision, Kooperation und Austausch fördernde . Kooperations- und Kommunikationsprozesse spielen hierbei eine wichtige Rolle (Erpenbeck & Sauter, 2007, 100-102). Social Media, mobile Endgeräte und intuitiv nutzbare Technologien auf der Basis von Intra- und Internet unterstützen und motivieren dabei die Mitarbeiter/innen ihr Wissen zu teilen und zu vernetzen.

Aufgabenstellungen, schaffen jedoch informelle Lernanlässe. Genau darin liegen große Potenziale für das WM, wenn es gelingt dieses informell erworbene Wissen zu mobilisieren.

Die Wissensbewahrung im Blick, können Unternehmen nun wiederum Lerngelegenheiten schaffen, indem sie Zeit und Raum zur Verfügung stellen und den Zugang zu Informationen ermöglichen (Rohs, 2013). Social Media, mobile Endgeräte und intuitiv nutzbare Technologien auf der Basis von Intra- und Internet unterstützen und motivieren dabei die Mitarbeiterinnen und Mitarbeiter ihr Wissen zu teilen und zu vernetzen. (siehe Kapitel #unternehmen).

Allerdings ist es trotzdem notwendig, die Mitarbeiter/innen zur Wissensteilung zu motivieren. Die Bereitstellung von Technik und das Schaffen von Lerngelegenheiten setzen noch keinen Wissensfluss in Gang. Dies kann nur in einem angstfreien, motivierenden Arbeitsklima geschehen, das von Partizipationsmöglichkeiten, Transparenz und Selbstbestimmung geprägt ist (Hupfer, 2006, 3). Denn Wissen ist an Menschen gebunden und „letztlich kann aber niemand dazu gezwungen werden, sich Wissen anzueignen, sein Wissen anderen mitzuteilen oder es produktiv für andere […] einzusetzen“ (Wiater, 2007, 135).

!

Wissen ist immer an Menschen gebunden!

?

Inwieweit verändert und unterstützt Technologie informelles Lernen im betrieblichen Kontext?

Wissensmanagement

Mensch und Ökonomie

Da Wissen immer an den Menschen gebunden ist, wird im folgenden Abschnitt behandelt, was dafür spricht den Menschen in den Mittelpunkt zu rücken. Informelles Lernen erweitert das Wissen des Individuums und im Austausch, beispielsweise mit Kolleginnen und Kollegen und Vorgesetzten, fließt dieses Wissen in das Unternehmen zurück. Ein Wissensmanagement, das diesen Wissensfluss unterstützt, verankert das Wissen im Unternehmen und wirkt Wissensverlusten, Wissenslücken und Wissensbarrieren entgegen (Reinmann, 2009, 17 ff.). Wissen als Ressource im Blick ist eine Investition in passende Rahmenbedingungen und für die Mitarbeiter/innen auch ökonomisch sinnvoll.

Darauf weist auch die Mittelstandsstudie 2007 hin: 73,3 % der befragten Unternehmen gaben an, dass sie versuchen Rahmenbedingungen zu schaffen, die geeignet sind, die informelle Kommunikation zwischen Mitarbeitern und Mitarbeiterinnen zu fördern (Pfau et al., 2007).)

?

Nennen Sie weitere Gründe, warum es für ein Unternehmen sinnvoll sein kann, informelles Lernen zu unterstützen.

Wissensmanagement

Fazit

Lernen kann intentional erfolgen oder ‚zufällig‘ geschehen, findet aber in jedem Fall statt. Bewusst und stimmig gestaltetes Wissensmanagement erhöht jedoch die Wahrscheinlichkeit, dass organisationsrelevantes Wissen entwickelt wird und bei Bedarf verfügbar ist. Wissen ist, als Ergebnis von Lernen, im Gegensatz zur Information immer an Menschen gebunden. Unternehmen sollten deshalb stimmige Rahmenbedingungen schaffen, welche die Mitarbeiter/innen in den Mittelpunkt der Überlegungen stellen. Eine Möglichkeit die Rahmenbedingungen zu verbessern, sind E-Learning Aktivitäten. Die folgenden Kapitel geben Anregungen wie das informelle Lernen unterstützt werden kann: #kollaboration, #multimedia, #mobil, #blogging.

Die Auswahl sollte auf Basis der Unternehmenskultur und des Wissensmanagement-Reifegrades erfolgen, welcher überraschenderweise weniger abhängig von Unternehmensgröße und Branche, als von Geschäftsstrategien und Kernkompetenzen ist (Pawlowsky et al., 2010, 22.).

!

Empfehlungen zur weiteren Lektüre:

!

Weiterführende Studien finden Sie unter:

Wissensmanagement

Literatur

Sieht gut aus

Visuelle Gestaltung auf wahrnehmungspsychologischen Grundlagen

In diesem Kapitel wird die visuelle Gestaltung von Lernmaterialien und -Applikationen aus zwei Perspektiven betrachtet: In einem ersten Teil geht es darum, ein Bewusstsein für wahrnehmungspsychologische Prozesse zu schaffen, welche uns bei der Rezeption von visuellen Informationen beeinflussen. Im zweiten Teil werden auf dieser Basis praktische Tipps zur Gestaltung von visuellen Anwendungs-Oberflächen und Textmaterialien gegeben. Im abschließenden dritten Teil werden zwei Übungsaufgaben vorgestellt, welche die bereits behandelten Inhalte vertiefen sollen. Ziel dieses Kapitels ist es, die Lesenden dafür zu sensibilisieren, die visuelle Gestaltung im Bereich des mediengestützten Lernens nicht zu vernachlässigen: Die Gestaltung von Lernmaterialien und -Applikationen soll nicht als unnötiger Mehraufwand, sondern stattdessen als Chance oder Potenzial zur Unterstützung von Lernaktivitäten und -prozessen aufgefasst werden - die Lernenden werden es Ihnen danken!

Sieht gut aus

Einleitung

Lern- und Lehrprozesse sollen erfolgreich sein. Dies gilt auch in Bezug auf das Lernen und Lehren mit Technologien. Erfolgreich bedeutet, Lern- und Lehrprozesse sollen wirksam (effektiv), jeweils für sich in einem angemessenen Verhältnis von Aufwand und Ertrag stehend (effizient) sowie angenehm zu nutzen (zufriedenstellend) sein. (Näheres zum Begriff der „Learning Usability“ beispielsweise online unter http://www.learningusability.ch). Dieses Dreigestirn aus Effektivität, Effizienz und Zufriedenheit ist dabei von unterschiedlichen Faktoren abhängig - beim Lernen und Lehren mit Technologien unter anderem auch von der Ausgestaltung der Technologie selber. Technologische Lern- und Lehranwendungen wie Software, Online-Plattformen oder Applikationen für mobile Endgeräte (sogenannte Apps, beispielsweise für Tablets) und die über sie dargebotenen Inhalte sind folglich so auszugestalten, dass sie das Lernen und Lehren entsprechend begünstigen.

Die Nutzung technologischer Lern- und Lehranwendungen geschieht in der Regel vor allem über grafische Benutzer/innen-Oberflächen, also über Bildschirme. Die visuelle Gestaltung der Anwendungs-Oberfläche ist dabei von großer Bedeutung. Bestimmt haben Sie auch schon einmal die Erfahrung gemacht, bei der Arbeit mit einer neuen Software mehr Zeit für die reine Handhabung der Software als für die eigentliche Arbeit damit aufwenden zu müssen. Eine visuell ansprechende, intuitiv verständliche Benutzer/innen-Oberfläche kann dem entgegenwirken. Neben der Gestaltung der Benutzer/innen-Oberfläche ist die visuelle Aufbereitung der damit dargebotenen Inhalte (beispielsweise der Lernmaterialien) von großer Bedeutung. Probieren Sie doch einmal Folgendes aus: Lesen Sie am Computer einen kurzen Text mit hellblauer Schrift, zuerst auf weißem und dann auf blauem Hintergrund. Wie liest es sich angenehmer?

Technologien sollen wie gesagt Lern- und Lehrprozesse unterstützen und nicht beeinträchtigen. Forschungserkenntnisse unter anderem aus der Wahrnehmungspsychologie können dabei helfen, Benutzer/innen-Oberflächen von technologischen Lern- und Lehranwendungen sowie die damit dargebotenen Inhalte visuell derart zu gestalten, dass sie bestmöglich dem menschlichen Sehen entsprechen und somit dem Lernen (auch auf unbewusster Ebene) dienlich sind. Dabei ist aber zu beachten, dass nicht jedes Lernthema sowie jeder Lerninhalt für jede Lerntechnologie oder jedes Medium gleichermaßen geeignet ist.

Im Folgenden werden zunächst wesentliche Grundlagen der visuellen Wahrnehmung aufgezeigt. Hierdurch soll ein Grundverständnis für unser Sehen und dessen Bedeutung in Bezug auf das Lernen und Lehren mit Technologien geschaffen werden.

Sieht gut aus

Grundlagen der visuellen Wahrnehmung

Unsere Sinnesorgane bilden gewissermaßen das Tor zu unserer Umwelt. Über diese Schnittstellen nehmen wir Informationen unserer Umgebung auf, welche wiederum die Grundlage für ein angemessenes Agieren und Handeln in einer Situation sind. Diese Informationen treffen dabei als physikalische Reize auf unsere Sinnesorgane, werden in einem komplexen Prozess über mehrere Stufen hinweg verarbeitet und münden schließlich in unserem subjektiven Erleben der Umwelt. Diesen Wahrnehmungsprozess zu verstehen, ist das Ziel der Wahrnehmungspsychologie (Goldstein, 2008, 8).

Wir befassen uns hier ausschließlich mit visueller Wahrnehmung. Am Beispiel der Betrachtung eines Apfels wird kurz die Funktionsweise des Auges erklärt (Abbildung 1): Lichtstrahlen treffen auf den Apfel, werden dort reflektiert und fallen hierbei als physikalische Reize durch die Linse des Auges hindurch auf die Netzhaut. Auf ihr entsteht dadurch ein Abbild des Apfels. Die von außen eintreffenden physikalischen Reize werden von auf der Netzhaut befindlichen Fotorezeptoren in elektrische Signale umgewandelt. Diese Signale gelangen nun über Nervenbahnen ins Gehirn. Die Verarbeitung der Informationen geschieht dabei äußerst rasch (Goldstein, 2008).

Unser Sehvermögen vermittelt uns, dass wir alles in unserem Blickfeld lückenlos wahrnehmen. Tatsächlich ist die visuelle Wahrnehmung aber staccatoartig und ein ständiges Wechselspiel zwischen kurzen Verweilzeiten auf Objekten unseres Interesses (Fixationen) und Sprüngen zu neuen Umweltreizen (Sakkaden). Diese Strategie ist notwendig, da der Umfang der einwirkenden visuellen Umweltreize enorm ist und es ohne diesen Selektionsprozess zu einer kognitiven Überlastung des Gehirns kommen würde. Außerdem können lediglich zwei Grad unseres visuellen Sehfeldes scharf wahrgenommen werden. Dies können Sie in einem kleinen Experiment selber erforschen: Wenn Sie Ihren Arm ausstrecken und Ihren Daumen betrachten, dann ist ungefähr die Dicke Ihres Daumens scharf, der Rest Ihres Sichtfeldes wirkt unscharf (Duchowski, 2007).

Abb. 1: Funktionsweise des Auges.
Abb. 1: Funktionsweise des Auges.

Wesentlich für das menschliche visuelle System ist des Weiteren, dass die Steuerung der Aufmerksamkeit sowohl bewusst als auch unbewusst stattfindet. Der Mensch glaubt, die Wahrnehmung ständig zu lenken, jedoch sind viele unbewusst ablaufende Vorselektionsprozesse aktiv. Diese können für das Lernen und Lehren mit Technologien ausgenutzt werden, um die Aufmerksamkeit der Lernenden im Sinne der oben angesprochenen Steigerung der Effektivität, Effizienz oder Zufriedenheit zu lenken. Als Beispiel kann der sogenannte Pop-Out-Effekt genannt werden, welcher in der Infobox näher erläutert wird. Tipps aus der Praxis, wie Sie einen Mehrwert erreichen können, werden im nachfolgenden Kapitel angeführt.

Als eines der markantesten Beispiele der unbewussten Aufmerksamkeits-steuerung kann der Pop-Out-Effekt genannt werden. Dieser kann in jener Art eingesetzt werden, dass im Laufe des Lernprozesses bestimmte Inhalte visuell nicht übersehen, respektive leicht fokussiert werden können. Vereinfacht ausgedrückt springen diese Inhalte sozusagen in das Auge der Betrachtenden. Des Weiteren ermöglicht der Pop-Out-Effekt eine schnelle Informationsverarbeitung, ohne dabei auf die bewusste Aufmerksamkeit der Lernenden angewiesen zu sein.

Als Beispiel sei an dieser Stelle das Zählen der Ziffer 3 in einer langen Zahlenkette zu nennen (Ware, 2000). Ohne farbliche Formatierung wäre eine länger andauernde sequenzielle Abarbeitung der Zeichenkette notwendig, um die entsprechenden Ziffern zu finden. Der Pop-Out-Effekt, welcher in diesem Fall durch den Kontrastunterschied entsteht, begünstigt ein visuelles „Abheben des Zielreizes“ von den Ablenkern, wie es in Abbildung 2 dargestellt ist. Neben Kontrasten (zum Beispiel Helligkeit, Farbe oder Form) kann ein Pop-Out-Effekt besonders gut auch durch Bewegungen oder Blinken erzeugt werden (Goldstein, 2008).

Menschliche Wahrnehmung ist aber nicht nur sprunghaft, sondern auch aktiv (Ware, 2008). Menschen wenden sich Bereichen zu, in denen sie interessante und wesentliche Informationen vermuten. In der Regel haben sie bestimmte Hypothesen darüber, wo es wesentliche Informationen gibt und wie diese zu interpretieren sind (zum Beispiel Lindsay & Norman, 1981). Wenn wir einen Text lesen, haben wir in der Regel vorab schon bestimmte Erwartungen, welche Informationen dieser Text enthalten wird. Wenn diese Erwartungen nicht erfüllt sind, kommt es manchmal zu Störungen in der Wahrnehmung. Da wir beispielsweise davon ausgehen, dass Texte korrekt getippt sind, fällt es uns schwer, Tippfehler zu entdecken. Wahrnehmungsprozesse funktionieren daher nicht nur bottom-up (von den Reizen zur Speicherung im Gedächtnis), sondern auch top-down (vom Gedächtnis zu den Sinnesorganen, deren Funktionieren von den Erwartungen geleitet wird). Die Einbeziehung der Erwartungen und des Kontexts führen dazu, dass menschliche Wahrnehmung sehr rasch abläuft, aber dafür auch fehleranfällig ist. Derartige Prozesse sollten im Design von Lernsystemen berücksichtigt werden.

Abb. 2: Der Pop-Out-Effekt begünstigt eine rasche Informationsverarbeitung.
Abb. 2: Der Pop-Out-Effekt begünstigt eine rasche Informationsverarbeitung.

Es gibt eine Wahrnehmungstheorie, die für das Design von Benutzer/innen-Oberflächen besonders wesentlich ist - die Gestaltpsychologie. Diese Theorie besagt, dass wir Dinge ganzheitlich wahrnehmen und Gegenstände gruppieren. Objekte, die nahe beieinander angeordnet und durch einfache geometrische Formen von anderen Objekten abgegrenzt sind, werden als zusammengehörig empfunden. Einfachstes Beispiel hierzu sind die in vielen Betriebssystemen verwendeten Fenster für die Gruppierung von Dateien. Diese Tatsache wird in der visuellen Gestaltung dazu genutzt, die Wahrnehmung auch zu führen.

Doch wie werden nun die Augenbewegungen aufgezeichnet und für die gestalterische Optimierung visueller Reize nutzbar gemacht? Heutzutage kommt gerade im kommerziellen Bereich (beispielsweise im Marketing und in der Werbeforschung) meist die Infrarotmethode zum Einsatz, weshalb hier aus Gründen der Übersichtlichkeit nur diese kurz vorgestellt werden soll. Bei dieser Methode wird infrarotes Licht von einem Gerät, dem sogenannten Eye-Tracker, ausgestrahlt und das von der Hornhaut (Cornea) reflektierte Infrarotlicht dann von einem Sensor des Eye-Trackers wieder aufgefangen. Aufgrund eines vorherigen Kalibrierungsprozesses kann anhand der Geometrie dieser Reflexionspunkte anschließend die Blickrichtung sehr präzise bestimmt werden (Zu weiteren Methoden der Blickregistrierung siehe beispielsweise Duchowski, 2007).

Wieso aber sind Blickbewegungen für das Lernen so wichtig? Grundsätzlich legt man zwei Annahmen von Just und Carpenter (1980) der Interpretation von Augenbewegungen zu Grunde: Erstens die Eye-Mind-Assumption, welche unterstellt, dass die aktuell betrachtete visuelle Information auch aktuell kognitiv erfasst/verarbeitet wird. Visuelle Informationen, welche in günstiger Form dargeboten werden (siehe die Gestaltungsempfehlungen im nachfolgenden Kapitel), können demzufolge einfacher erfasst und verarbeitet werden, was die kognitiven Ressourcen der Lernenden schont. Zweitens die Immediacy-Assumption, wonach die längere Fixation eines visuellen Reizes auch eine intensivere geistige Bearbeitung bedeutet. Allerdings können lange Betrachtungszeiten auch gerade ein Hinweis darauf sein, dass der betrachtete Stimulus entweder sehr schwer erkennbar (beispielsweise sehr klein gedruckter Text) oder aber sehr schwer zu verstehen (beispielsweise in einer Fremdsprache verfasster Text) ist. Blickbewegungen können demzufolge einen Rückschluss auf Aufmerksamkeitsprozesse zulassen (mehr zu spezifischen Interpretationsansätzen von Sakkaden und Fixationen siehe Holmqvist et al.,2011).

Die Relevanz der visuellen Wahrnehmung und damit auch der Notwendigkeit geeigneter Messmethoden kann also nicht genug betont werden: Untersuchungen aus dem Bereich der Arbeitspsychologie zeigen beispielsweise, dass ein Großteil der relevanten Arbeitsinformationen visueller Natur sind (Holmqvist et al., 2011). Dies dürfte beim Lernen nicht anders sein.

Sieht gut aus

Visuelle Gestaltung in der Praxis

Während uns die psychologische Forschung ermöglicht, die Grundlagen der visuellen Wahrnehmung zu verstehen, ergänzt das traditionsreiche Berufsfeld des Visual Design diesen Forschungsansatz um die praktische Umsetzung von Gestaltungsmaßnahmen. ### In der Praxis können wir daher die aus der Forschung bekannten Effekte im Diskurs der visuellen Gestaltung wiedererkennen; sie werden meist schon geraume Zeit für die Fokussierung und Steuerung von Wahrnehmungsprozessen genutzt (beispielsweise der oben erwähnte Pop-Out-Effekt).

Wenn wir hier nach Regeln für gute visuelle Gestaltung fragen, so ist es zunächst wichtig festzuhalten, dass wir von der Gestaltung zur Optimierung der Wahrnehmungssituation (zum Beispiel Lesbarkeit, Erkennbarkeit) sprechen und nicht von der reinen Ausschmückung eines Textes. Betrachtet man das Dreigestirn Effektivität, Effizienz sowie Zufriedenheit, spielen natürlich gerade beim letzten Punkt die Ästhetik, Emotionen, andere individuelle Präferenzen etc. eine wesentliche Rolle, die durchaus ein erfolgreiches Lernen begründen. Siehe hierzu beispielsweise Norman (2005).

Die gestalterische Reduktion und Strukturierung von Inhalten mit hoher Informationsdichte gibt dem Auge des Lernenden erst den nötigen Raum, um sich beispielsweise auf dem Papier oder Bildschirm orientieren zu können. Wie bereits oben erwähnt, kann dabei die Wahrnehmungssteuerung sowohl bottom-up als auch top-down vorgenommen werden. Einfach ausgedrückt: Die Gestaltung soll den Lernprozess gewinnbringend unterstützen!

Die optimale Form für einen Inhalt wird auf der Ebene des Zielpublikums, der (regelmäßigen) Struktur der Wahrnehmungsfläche oder des Medienkanals (klare, einheitliche Layouts beziehungsweise Grundraster) und der angemessenen Typografie (klares, einheitliches Schrift-, Bild- sowie Farbkonzept) erarbeitet. Vor diesem Hintergrund sind die wichtigsten Praxistipps aus Sicht des Visual Design zunächst sehr allgemein:

Gestaltungsempfehlungen

Folgende beispielhafte Tipps aus der Praxis nach Rakoczi (2010) können Sie einsetzen, um die Augen der Lernenden (unbewusst) zu lenken:

An dieser Stelle sei zudem darauf hingewiesen, dass für die visuelle Gestaltung zahlreiche auf Heuristiken basierende Richtlinien, Guidelines, Faustregeln etc. existieren. Diese sind nicht in jedem Fall empirisch fundiert und liegen nicht im Fokus dieser Arbeit. Lesende werden daher auf eine weiterführende Recherche verwiesen.

Veränderungen sichtbar machen

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Das Lernen mit Technologien findet heute kaum mehr primär über statische Benutzer/innen-Oberflächen statt - wie dies zum Beispiel bei einem gedruckten Buch ausschließlich der Fall ist. Im Gegenteil, technologische Lernanwendungen stehen geradezu für dynamische Inhaltsdarstellungen sowie für Interaktionen zwischen Mensch und System. Werden dabei über Benutzer/innen-Oberflächen neue Inhalte dargeboten, kann es sein, dass für Lernende diese Veränderung keineswegs unmittelbar visuell ersichtlich ist. Beispielsweise nehmen Sie an einem Onlinetest teil. Sie glauben, die Fragen der aktuellen Seite im Browser beantwortet zu haben und klicken auf „Weiter“. Doch es geschieht nichts - denken Sie!

Erst nach einiger Zeit bemerken Sie den Hinweis des Systems unterhalb einer noch nicht beantworteten Frage, dass Sie auch diese beantworten müssen. Die Rückmeldung des Systems ist Ihnen nicht „ins Auge gesprungen“. Der bereits in der Infobox erwähnte Pop-Out-Effekt kam hier also nicht zustande. Die Veränderung bei der Bildschirmdarstellung war zu unauffällig, das heißt visuell nicht salient genug. Auch hier gilt, dass die Augen der Betrachtenden beziehungsweise ihre Aufmerksamkeit auf die erfolgte Veränderung gelenkt werden muss. Dies ist grundsätzlich immer dann notwendig, wenn neu dargebotene Bildschirminhalte (zum Beispiel wichtige Informationen) gesehen werden sollen bzw. müssen, jedoch Gefahr laufen, übersehen zu werden. Übersehen werden sie etwa, weil die Veränderung von einer Bildschirmdarstellung zur nachfolgenden nur geringfügig ist, oder weil konkurrierende Objekte auf der Benutzer/innen-Oberfläche die Aufmerksamkeit von der Veränderung ablenken. Die erfolgte Veränderung sollte demzufolge hervorgehoben werden, beispielsweise durch einen Pfeilverweis, eine Einrahmung, farbliche Hinterlegung, Fettschrift, größere Schrift, Blinken u. a. Die Wahl eines Mittels ist dabei immer abhängig von der übrigen Gestaltung. Eine für alle Situationen gültige Empfehlung kann nicht gegeben werden. Letztlich muss die Veränderung so gestaltet werden, dass sie auffällt.

Textgestaltung für das Lesen am Bildschirm

Im Bereich der digitalisierten Lern- und Lehrmaterialien stellt sich immer wieder die ganz grundsätzliche Frage nach der Lesbarkeit von Texten. Ältere Forschungsergebnisse weisen zwar auf negative Effekte des Bildschirmlesens hin, allerdings konnten neue Studien hier keine bedeutsamen Unterschiede hinsichtlich den beteiligten Augenbewegungen (Holzinger et al., 2011; Siegenthaler et al., 2011) und der Ermüdung beim Lesen (Siegenthaler et al., 2012) zwischen dem Lesen von auf Papier gedrucktem Text und am Bildschirm nachweisen. Objektiv betrachtet spielt es hinsichtlich der beteiligten Blickbewegungen demzufolge keine Rolle, auf welchem Medium gelesen wird - das subjektive Empfinden ist aber in den meisten Fällen anders: Lesen von digitalem Textmaterial wird von den meisten Menschen als mühsam erlebt. Dieser Umstand jedoch dürfte seine Ursache nicht nur im darstellenden Medium haben: Digitales Textmaterial kann von jeder und jedem leicht selbst erstellt und mit anderen geteilt werden. Dabei ist aber die Produktions- und auch Gestaltungszeit häufig sehr kurz, was leider dazu führt, dass solche Materialien unter wahrnehmungspsychologischen Aspekten in vielen Fällen mangelhaft sind. Die folgenden Ratschläge sollten daher bei der Textgestaltung berücksichtigt werden, um das visuelle System optimal anzusprechen:

Zusammenfassend soll angemerkt werden, dass der Einsatz bzw. die Kombination von Gestaltungsmaßnahmen stets mit Bedacht anzuwenden ist. Visual Design verinnerlicht immerwährend subjektive sowie kulturvariante Aspekte und liegt nicht selten ‚im Auge der Betrachterin oder des Betrachters‘. Dennoch können Lehrende beim überlegten Einsatz von Gestaltungsempfehlungen mehr richtig als falsch machen.

?

Wir haben zwei Übungsaufgaben vorbereitet, die Ihnen die Möglichkeit geben, die in diesem Kapitel vorgestellten Inhalte zu reflektieren und visuelle Wahrnehmung selbst zu erfahren. Die beiden Übungsaufgaben finden Sie unter dem nachfolgenden Link: http://learningcenter.ffhs.ch/?p=1825
Viel Spaß beim Lösen!

Sieht gut aus

Limitierung, Konklusion

Menschen sind außerordentlich flexibel und anpassungsfähig, daher fällt es manchmal nicht unmittelbar auf, wenn Software verwirrend gestaltet ist. Allerdings sollten gerade Lernende optimal bei ihrem Lernprozess unterstützt werden. Da durch eine entsprechende visuelle Gestaltung Aufmerksamkeitsprozesse gesteuert werden können, sollten die Lernenden zum Beispiel dabei unterstützt werden, sich einen guten Überblick über das Lernmaterial verschaffen zu können. Das klingt trivial, ist aber in manchen Lernsystemen nicht verwirklicht. Daher ist es notwendig, sich mit den Besonderheiten der menschlichen Wahrnehmung zu beschäftigen. Dieses Kapitel gibt einen ersten Überblick über Grundlagen und Gestaltungsrichtlinien in diesem Bereich. Daneben gibt es noch wesentlich mehr Forschungsergebnisse der Wahrnehmungspsychologie, die für diesen Bereich relevant sein könnten. Zum Beispiel spielt Animation im E-Learning eine zunehmende Rolle. Daher gibt es eine große Zahl spannender Untersuchungen, die sich damit beschäftigen, wie Animationen so gestaltet werden können, dass Veränderungen auch effektiv wahrgenommen werden können.

Die Berücksichtigung von Wahrnehmungsprozessen beim Design von Lernsystemen ist nicht immer einfach. Da die Ergebnisse der Wahrnehmungspsychologie manchmal eher allgemein sind und man keine präzisen Guidelines ableiten kann, können sie nicht immer auf das Design von Lernsystemen angewendet werden. Oft muss man auch den Kontext berücksichtigen. Im Kapitel über Gestaltungsrichtlinien wurde beispielsweise bereits erwähnt, dass es keine allgemeingültige Richtlinie dafür gibt, wie die Aufmerksamkeit optimal auf Veränderungen gelenkt werden kann, da dies von der Aufgabenstellung und der Gruppe der Benutzer/innen abhängt. Das ist kein grundsätzlicher Nachteil, verlangt allerdings von den Designerinnen und Designern, dass sie kritisch darüber reflektieren, wie die Gestaltungsempfehlungen angewendet werden sollten und nicht einfach Guidelines umsetzen.

Trotz dieser Schwierigkeiten ist es aber für Lehrende notwendig, sich mit menschlicher Wahrnehmung zu beschäftigen und entsprechende Richtlinien im Design zu berücksichtigen, um wirklich gute Lernsysteme zu entwerfen. Der Lernprozess in der Onlinewelt läuft - wie es hoffentlich in diesem Kapitel gezeigt werden konnte - nicht „automatisch“ durch ein einfaches zur Verfügung stellen von Inhalten und Materialien ab, sondern Sie haben in der Rolle des ‚Gestalters beziehungsweise der Gestalterin‘ einen wesentlichen Einfluss darauf. Durch gestalterische Mittel haben Sie es in der Hand, den Lernprozess der Studierenden durch Lenkung ihrer Aufmerksamkeit im Voraus zu bestimmen. Viel Erfolg beim Schöpfen dieses Potenzials!

Sieht gut aus

Literatur

Urheberrecht & Co. in der Hochschullehre

Rechtliche Aspekte des Technologieeinsatzes beim Lehren und Lernen

Beim Erstellen von Lehrmaterial und bei der Verwaltung von Kursen mit Material, das durch Studierende erstellt wird, bekommen Rechtsfragen eine zunehmende Bedeutung. Die digitale Lehre ist kein rechtsfreier Raum. Besonders das Urheberrecht und das Datenschutzrecht bestimmen, was erlaubt und was verboten ist. Dabei kommt es nicht selten zu Unsicherheiten bei allen Anwenderinnen und Anwendern. Was darf ich, was darf ich nicht? In diesem Kapitel werden das deutsche Urheberrecht und das deutsche Datenschutzrecht näher betrachtet. Anhand von Beispielen aus dem E-Learning-Alltag an Hochschulen werden wesentliche Rechtsfragen diskutiert und pragmatische Lösungen vorgestellt.

Urheberrecht & Co. in der Hochschullehre

Digitale Lehre im Visier

Die digitale Lehre gewinnt zunehmend an Bedeutung. Mobiles, vernetztes Arbeiten, Lehren und Lernen gilt als Erfolgsstrategie mit einem hohen Potenzial für unsere Informations- und Wissensgesellschaft. Medienportale wie Moodle, BSCW, Wordpress, Mahara gehören zur etablierten Infrastruktur einer Hochschule.

Ein weiterer Trend ist die fortschreitende Einbindung von externen IT-Services wie Microsoft 365, Facebook, Twitter, GoogleDocs und Dropbox. Dabei gewinnen Technologien wie Smartphone und Tablet mit ihren vielfältigen Apps zunehmend an Beliebtheit. Immer häufiger werden eigene Lerninhalte mit Technologien wie Blogs, Wikis, Facebook und YouTube ins Netz gestellt. Auch in dieser neuen Welt gelten die Regeln des Urheberrechts. Der organisierte Umgang mit geistigem Eigentum hat hohen Wert für eine Zivilgesellschaft. Dies kann man daran erkennen, dass der Ausgleich zwischen den Interessen von Urheberinnen und Urhebern und Nutzerinnen und Nutzern in die Allgemeine Erklärung der Menschenrechte der UNO aufgenommen wurde (Universal Declaration of Human Rights, Art. 27).

Die folgende Darstellung beschreibt primär die Rechtslage in Deutschland. In Österreich und in der Schweiz ist die Rechtslage im Wesentlichen vergleichbar. Wenn in Österreich und in der Schweiz andere Regelungen getroffen worden sind, werden die Unterschiede beschrieben.

Urheberrecht & Co. in der Hochschullehre

Urheberrecht

Im Grundgesetz steht in Art. 5 Abs. 3: „Kunst und Wissenschaft, Forschung und Lehre sind frei“. Bei dieser Formulierung liegt der Gedanke nahe, dass wissenschaftliche Inhalte, und damit auch Lehrmaterial, kostenfrei zugänglich sein müssen. So ist es aber nicht gemeint. Art. 5 des Grundgesetzes formuliert ein Grundrecht. Grundrechte haben das Ziel, die Bürger/innen vor Übergriffen des Staates zu schützen. Deshalb schützt das Grundrecht der Wissenschaftsfreiheit die Wissenschaft davor, vom Staat aus politischen Gründen behindert zu werden. Dieses Grundrecht gibt einzelnen Nutzerinnen und Nutzern nicht das Recht, kostenfrei die Inhalte von anderen für das eigene Lehrmaterial zu verwenden.

!

Inhalte aus dem Internet sind nicht per se kostenfrei.

Das Urheberrecht hat eine einfache Grundstruktur. Es gibt eine Regel und es gibt zwei Ausnahmen.

Regel

Die Regel lautet: Inhalte, die anderen gehören, dürfen nicht genutzt werden (§§ 7-10 UrhG). Die Regel führt dazu, dass alle Autorinnen beziehungsweise Autoren mit den Inhalten, die sie selber erzeugt haben, frei umgehen können. Diese Freiheit hört aber da auf, wo sie auf Inhalte zugreifen wollen, die andere erstellt haben.

Ausnahme

Zum Glück ist es so, dass Juristinnen und Juristen zwei Dinge mögen: Sie mögen Regeln und sie mögen Ausnahmen. Das Zusammenspiel von Regeln und Ausnahmen macht die Sache interessant. So ist es auch im Urheberrecht. Zu der Verbots-Regel gibt es zwei Ausnahmen. Die Nutzung fremder Inhalte ist in zwei Fällen erlaubt: 1. Die Rechteinhaber/innen haben in die Nutzung eingewilligt. 2. Im Gesetz ist die Nutzung fremder Inhalte ausdrücklich gestattet (§§ 44a ff UrhG).

Doch bevor Sie mehr über das Zusammenspiel von Regel und Ausnahmen erfahren, müssen Sie mehr darüber wissen, ob das Lehrmaterial immer den Anforderungen des Urheberrechts unterworfen ist.

Ist Lehrmaterial immer von den Regeln des Urheberrechts erfasst?

Wissenschaftliche Darstellungen aller Art, Texte, Filme, Fotos, Grafiken, Tondokumente sind prinzipiell erfasst ( § 2 UrhG). Ob diese Darstellungen auf Papier oder in elektronischen Formaten genutzt werden, spielt dabei keine Rolle. Das Urheberrecht bestimmt die Nutzung der Materialien aber nur dann, wenn die Materialien etwas Neues enthalten, wenn sie etwas Eigenes, Individuelles zeigen im Vergleich zu den Materialien, die es bereits gibt. Die Juristinnen und Juristen nennen diese Eigenschaft „persönliche geistige Schöpfung“ (§ 2 Abs. 2 UrhG).

!

Wer Lehrmaterial herstellt, begründet die Qualität des Lehrmaterials mit der Art der Darstellung.

Wenn zum Beispiel die Professorin W. einen Lehrbeitrag für das L3T-Buchprojekt herstellt, begründet sie die Qualität des Lehrmaterials mit der Art der Darstellung. Die Struktur ihres Lehrbeitrages ist die Folge einer Reihe von Entscheidungen über den Umfang, die Gliederung, die Schwerpunkte, die Lücken, die Beispiele, den Sprachstil, das Seitenlayout, etc. Alle diese Entscheidungen führen dazu, dass der Beitrag von Professorin W. eine individuelle Qualität hat. Damit ist der Lehrbeitrag im Kern des Bereiches, den das Urheberrecht regelt.

Die Regeln des Urheberrechts erfassen aber nicht die dargestellten wissenschaftlichen Inhalte. Die Nutzung wissenschaftlicher Erkenntnisse als solche wird nicht durch das Urheberrecht eingeschränkt. Das Urheberrecht betrifft nur die Art der Darstellung. Sie dürfen die gleichen wissenschaftlichen Inhalte in Ihrem eigenen Lehrbuch darstellen, mit denen sich auch die Professorin W. befasst hat. Sie dürfen aber nicht die Art der Darstellung übernehmen, die Professorin W. gewählt hat.

Die Urheber/innen, in unserem Fall die Professorin W., bestimmen darüber, wer ihre Beiträge (Werke) zu welchen Bedingungen nutzen darf (§§ 11 ff UrhG). Sie haben somit zunächst einmal alle Rechte. Besonders interessant für das E-Learning sind die sogenannten Verwertungsrechte (§§ 15-23 UrhG). Mit diesen Rechten setzen die Urheber/innen die Bedingungen der Nutzung. So kann die Professorin W. über die Vervielfältigung (§ 16 UrhG), die Verbreitung (§ 17 UrhG) und die Bearbeitung (§ 23 UrhG) bestimmen. Damit hat sie als Urheberin die Nutzung ihrer Werke unter Kontrolle.

!

In der Schweiz ist gemäß Art. 16 Abs.1 URG das Urheberrecht übertragbar (educa.ch, 2009) Informationen zum Urheberrecht in Österreich finden sich online zugänglich in Haller (2003).

Weil die Verwertungsrechte genauso wie ein Tisch oder Lehrbuch verkauft, vermietet, verschenkt oder verliehen werden können, wandern die Verwertungsrechte oft von den Urheberinnen bezwiehungsweise Urhebern zu Verlagen oder zu Produktionsfirmen, die geschützte Werke als Teil einer Film- oder CD-Produktion verwenden. Deshalb haben es Lehrende in vielen Fällen nicht mit Urheberinnen oder Urhebern, sondern mit Verwertungsorganisationen zu tun. Dies ist der juristische Hintergrund der Regel, dass man Werke, die anderen gehören, nicht ohne deren Erlaubnis nutzen darf.

In unserem Beispiel überträgt die Professorin W. Nutzungsrechte am Beitrag für das L3T-Buchprojekt im Rahmen einer Creative-Commons-Lizenz. Auf der Website der Creative Commons finden Sie weitere Informationen dazu: http://de.creativecommons.org.

?

Überlegen Sie, was ist ein Werk im Sinne des Urheberrechts und wer hat die Rechte am Werk?

Urheberrecht & Co. in der Hochschullehre

Erlaubte Nutzung von urheberrechtlich geschützten Werken

Zu dieser sehr strengen Regel gibt es im Gesetz Ausnahmen. Diese Ausnahmen würden es zum Beispiel einem Dozenten, nennen wir ihn Werner K., erlauben, in eigenen Beiträgen fremde Werke ohne die Erlaubnis der Rechteinhaber/innen zu nutzen.

!

Für Unterricht und Forschung dürfen Lehrende und Studierende fremde Werke zugänglich machen, sofern sie sich an die gesetzlichen Regeln halten.

Nutzungsrechte

Die Nutzung fremder Werke in Lernplattformen ist an eine Reihe von Voraussetzungen gebunden (§ 52a Abs. 1 Nr. 1 UrhG). Alle Voraussetzungen müssen erfüllt sein, damit sich Lehrende oder Studierende auf die Ausnahmen berufen können. Sobald nur eine der Voraussetzungen nicht erfüllt werden kann, ist die Ausnahme nicht anwendbar und die Lehrenden und Studierenden sind auf eine Genehmigung der Rechteinhaber/innen angewiesen.

Lehrende und Studierende öffentlicher Hochschulen können sich auf die Ausnahme berufen.

?

Darf der Dozent Werner K. das Buch von Professorin W. in einem Moodle-Kurs als PDF-Ausgabe für die Studierenden zugänglich machen?

Der Zugang zum Material darf nur den Teilnehmenden einzelner Veranstaltungen gewährt werden. Der Zugang muss durch Passwörter geschützt werden. Die Teilnehmenden müssen darauf verpflichtet werden, die Materialien nicht außerhalb des Kurses zu nutzen und sie nicht an Unbeteiligte weiter zu geben. Diese Verpflichtung kann elektronisch erfolgen.

Kleine Teile eines veröffentlichten Werkes dürfen verwendet werden (vgl. LG Stuttgart, 2011). Circa zehn Prozent werden als kleiner Teil angesehen. Bilder, Zeitungsartikel und wissenschaftliche Aufsätze können oft nur dann sinnvoll verwendet werden, wenn sie im Ganzen übernommen werden. Diese sogenannten kleinen Werke dürfen vollständig genutzt werden, wenn nur die vollständige Nutzung sinnvoll ist.

Die Nutzung ist nur dann erlaubt, wenn es keine finanziell und organisatorisch zumutbaren Alternativen gibt, zum Beispiel wenn Sie Lehrbücher kaufen können. Wenn Sie eine Sachfrage darstellen möchten, müssen Sie Ihre Eingriffe verteilen und dürfen von jeder geeigneten Quelle nur einen Teil „klauen“. Falls es das Budget Ihres Institutes erlauben würde, das Kursmaterial zu kaufen, müssen Sie es kaufen.

Die Regelung zur Nutzung fremder Materialien in Österreich ist einerseits großzügiger, andererseits strenger als in Deutschland (42 Abs. 6 UrhG Ö). Der Umfang der genutzten Werke ist nicht auf zehn Prozent beschränkt. Umfangreiche Werke dürfen zwar nicht vollständig verwendet werden, es ist aber erlaubt, diejenigen Teile zu nutzen, die für den jeweiligen Zusammenhang erforderlich sind. Das können auch mehr als zehn Prozent sein. Dabei dürfen einzelne Rechteinhaber nicht mehr belastet werden, als es notwendig ist. Zeitungsartikel, Aufsätze, Bilder und Grafiken dürfen vollständig verwendet werden, wenn es erforderlich ist.

Strenger ist die Regelung, weil nur einzelne elektronische Exemplare per Mail verschickt werden dürfen. Die Speicherung auf einem Server zum Abruf durch andere ist verboten. So soll sichergestellt werden, dass nur die unmittelbare Zielgruppe Zugriff erhält.

In der Schweiz ist die Nutzung fremder Materialien im Unterricht im Bundesgesetz über das Urheberrecht und verwandte Schutzrechte geregelt. Für didaktische Zwecke dürfen elektronische Materialien für Kursteilnehmer/innen auf Internetservern gespeichert werden. Sogar in Intranets, die nicht auf Teilnehmende einzelner Kurse beschränkt sind, dürfen die fremden Materialien zugänglich gemacht werden. Lediglich die Öffnung für alle ist verboten (Art. 19 Abs. 1 b UrhG CH). Der Anteil größerer Werke, der genutzt werden darf, erstreckt sich auf das Erforderliche im jeweiligen didaktischen Zusammenhang. Auch diese Grenze ist relativ weit gefasst. Zeitungsartikel, Grafiken, Bilder dürfen vollständig verwendet werden, wenn es erforderlich ist.

Das Zitatrecht

Eine andere gesetzliche Erlaubnis ist das Zitatrecht (§ 51 UrhG). Auch diese Ausnahme steht Ihnen nur dann offen, wenn Sie mehrere strenge Voraussetzungen erfüllen. Sobald Sie eine der Voraussetzungen nicht erfüllen können, dürfen Sie sich nicht auf die Ausnahme berufen. Der Schwerpunkt muss das eigene Werk sein. So könnte zum Beispiel der Dozent Werner K. nicht sagen: „Mein Lehrmaterial besteht zu 100 Prozent aus einem Zitat des Lehrbuchs vom Kollegen X“. Seine eigene Konzeption des Materials muss im Vordergrund stehen.

Dabei gilt:

!

Die gesetzliche Erlaubnis „Privatkopie” ist für die Hochschullehre nicht anwendbar.

Das Gesetz erlaubt es, Kopien ohne Einwilligung der Rechteinhaber/innen zu machen, wenn die Kopien nur privat im engen Freundeskreis verwendet werden. Der Einsatz von Lehrmaterial in der Hochschule liegt im beruflichen Umfeld der Lehrenden. Studierende bewegen sich an der Hochschule ebenfalls nicht im privaten Umfeld. Facebook-Freundschaften sind nicht die wirklichen Freundschaften des engen privaten Kreises.

Das Zitatrecht ist in Österreich in § 46 UrhG Ö geregelt. Die Anforderungen an ein rechtmäßiges Zitat sind mit den Anforderungen in Deutschland vergleichbar. Besondere Regelungen gibt es für die Nutzung von Bildern und Musik (§§ 52, 54 UrhG Ö). Dort sind die Anforderungen sehr streng. Ganze Bilder dürfen nur in Ausnahmefällen verwendet werden, wenn es keine zumutbare Alternative gibt. Die Nutzung von Musik ist auf kleine Teile beschränkt, deren Umfang sich aus dem jeweiligen Zusammenhang ergibt. Dabei dürfen die Nutzer/innen nicht zu ihren Gunsten großzügig sein.

Die Regelungen des Zitatrechts entsprechen in der Schweiz im Wesentlichen den für Deutschland beschriebenen Regelungen (Art. 25 UrhG CH). Die Nutzung von Bildern wird aber etwas strenger geregelt als in Deutschland. Ganze Bilder dürfen nur dann verwendet werden, wenn es keine zumutbaren Alternativen gibt. Soweit es möglich ist, muss die Nutzung von fremden Bildern eingeschränkt werden.

Einzelaspekte

Social Media wie Blogs, Facebook, Twitter etc. sind durch ihre Offenheit gekennzeichnet. Sie sind auf Verbreitung ausgelegt. Die Grenzen der Erlaubnisse im Urheberrecht sind sehr eng. Nur wenn der Zugriff auf die Teilnehmenden einzelner Veranstaltungen beschränkt ist und wenn auch alle anderen Anforderungen der Erlaubnisse erfüllt sind, dürfen in Social Media fremde Werke ohne Einwilligung der Rechteinhaber/innen genutzt werden. Die Grenzen der Erlaubnisse gelten genauso für Lehrende wie für Studierende. Deshalb dürfen keine fremden Materialien ohne die Einwilligung der Rechteinhaber/innen verwendet werden, wenn sich Betreiber/innen von Plattformen in den Nutzungsbedingungen das Recht vorbehalten, auf alle Inhalte der Plattform zugreifen zu können. Die Betreiber/innen haben dann auch Zugriff auf solche Inhalte, die durch Passwörter geschützt sind. Fremde Inhalte könnten in so einer Umgebung verschlüsselt gespeichert werden.

Die Aufzeichnung von Veranstaltungen ist nur dann erlaubt, wenn die abgebildeten Dozentinnen bzw. Dozenten mit der Aufzeichnung einverstanden sind (§ 22 KUG). Das Einverständnis muss auch die Nutzung der Aufzeichnung umfassen. Darf die Aufzeichnung nur intern genutzt oder darf sie öffentlich verwendet werden? Erlaubt ist nur das, was das Einverständnis abdeckt. Um Missverständnisse zu vermeiden, ist es sinnvoll, das Einverständnis im Vorfeld schriftlich zu fixieren. Wenn sich Studierende an Diskussionen beteiligen, ist auch deren Einwilligung in die Aufzeichnung notwendig. Die Einwilligung können sich die Veranstalter/innen schriftlich geben lassen. Sie können aber auch die Studierenden mit Aushängen über die Aufzeichnungen informieren und diejenigen, die sich wegen der Aufzeichnung nicht an einer Diskussion beteiligen wollen, nach der Aufzeichnung die Möglichkeit geben, sich „nicht-öffentlich“ zu beteiligen.

Die Beiträge von Studierenden werden juristisch genauso behandelt wie die Beiträge von Lehrenden: Sowohl bei der Zusammenstellung des Materials als auch bei der Verbreitung des Materials gelten die Grenzen der Erlaubnisse im UrhG. Beiträge für ein öffentliches Wiki verlassen den engen Rahmen, den die Erlaubnisse im UrhG setzen. Fremde Materialien dürfen nur mit Einwilligung der Rechteinhaber/innen genutzt werden. Dies gilt auch für das Zitatrecht. Wenn ein Wiki mit Beiträgen von Lehrenden und Studierenden semesterübergreifend angeboten wird und wenn das Material von anderen Studierenden weiterbearbeitet werden soll, ist dies nur dann erlaubt, wenn die Autorinnen bzw. Autoren mit der Weiterbearbeitung einverstanden sind.

Die Erlaubnisse im UrhG gelten nur für die Nutzung und Verbreitung fremder Werke, nicht für die Veränderung fremder Werke. Je mehr Autorinnen bzw. Autoren an einem Werk beteiligt sind, umso mehr Mit-Urheber/innen gibt es, die nur gemeinsam darüber bestimmen können, wie das Werk genutzt werden darf. Später hinzukommende Autorinnen bzw. Autoren können sich den vorher geschlossenen Vereinbarungen anschließen. Sie können die Vereinbarungen ihrer Vorgänger/innen aber nicht einseitig ändern (§§ 8, § 9 UrhG).

?

Die studentische Theatergruppe „FlipFlop” will einen Podcast zur richtigen Darstellung einzelner Figuren drehen. Der Podcast soll auf Wunsch von Dozent W. auf YouTube veröffentlicht werden. Kann der Dozent W. die Veröffentlichung durchsetzen?

Auf YouTube ist eine Veröffentlichung nur mit Einwilligung der Autorenschaft möglich. Die Einwilligung zur Veröffentlichung darf nicht erzwungen werden (§ 11 UrhG). Deshalb dürfen Veranstaltungsformate, die eine Veröffentlichung auf YouTube vorsehen, nur im Wahlbereich angeboten werden. Im Wahlbereich muss es eine Alternative geben, die ohne Veröffentlichung auf YouTube auskommt.

Urheberrecht & Co. in der Hochschullehre

Datenschutz

Die Regeln des Datenschutzes sind auf mehrere Gesetze verteilt. Regelungen zum Datenschutz finden sich unter anderen im Bundesdatenschutzgesetz (BDSG), in den Landesdatenschutzgesetzen der Bundesländer sowie im Telekommunikationsgesetz (TKG) und im Telemediengesetz (TMG). Alle diese Datenschutzregeln haben dasselbe Ziel: Jeder Mensch soll sich frei und ohne Überwachung bewegen können. Dieser Grundsatz wird aus der Entscheidung des Bundesverfassungsgesetzes zur informationellen Selbstbestimmung hergeleitet. Das Recht auf informationelle Selbstbestimmung wird aus dem Grundrecht Art.1 Abs. 1 (Menschenwürde) und Art. 2 Abs.1 (Handlungsfreiheit) hergeleitet.

Struktur des Datenschutzes

Die Struktur des Datenschutzrechts ist einfach. Es gibt eine Regel und zwei Ausnahmen:

Personenbezogene Daten

Die Regeln des Datenschutzes bestimmen die Nutzung von Daten nur dann, wenn es sich um personenbezogene Daten handelt. Zu den personenbezogenen Daten nach § 3 Abs. 1 BDSG gehören Angaben beziehungsweise Informationen zu einer bestimmten oder bestimmbaren Person wie an folgendem Beispiel von Leon aufgezeigt:

Mit dem Zeitpunkt der Immatrikulation bekommt der Student Leon vom Studierendensekretariat Post mit Matrikelnummer und PIN. Zeitnah bekommt auch der zentrale IT-Service der Hochschule Daten wie den Namen des Studierenden, die Matrikelnummer, die verschlüsselte PIN, das Geburtsdatum sowie die Studienrichtung übermittelt. Diese Personenstammdaten werden jetzt in das Identity Management (IDM) zur Account-Verwaltung, Passwortverwaltung unter anderem gesendet. Im IDM einer Hochschule werden Personenstammdaten der Hochschulangehörigen aus den Verwaltungssystemen übernommen, die dann der IT-Infrastruktur zur Verfügung gestellt werden. Leon kann sich jetzt auch mit der Matrikelnummer und PIN ein Passwort setzen. Die personenbezogenen Daten werden auch von den Diensten wie zum Beispiel E-Mail, Moodle, BSCW verwendet. Bei der Nutzung der Dienste ist die Erstellung eines Verfahrensverzeichnisses erforderlich. Leon kann jetzt mit Matrikelnummer und Passwort auf die internen IT-Dienste der Universität zugreifen.

Weitere Beispiele für personenbezogene Daten nach § 3 BDSG sind IP-Adressen, Personalausweisnummer, Telefonnummer sowie die Sozialversicherungsnummer.

?

Diskutieren Sie, welche personenbezogenen Daten möchten Sie von sich nicht weitergeben.

Verbot der Nutzung personenbezogener Daten

Die Datenerhebung, -verarbeitung und -nutzung von personenbezogenen Daten ist verboten (§ 4 Abs. 1 BDSG). Durch diese grundsätzliche Regelung macht der Gesetzgeber klar, dass personenbezogene Daten ein wertvolles, empfindliches Gut sind, mit dem sorgsam umgegangen werden muss.

!

Deine Daten gehören Dir.

Gesetzliche Erlaubnis

Die erste Ausnahme zum grundsätzlichen Verbot ist die gesetzliche Erlaubnis. Soweit die Erhebung, Verarbeitung und Nutzung personenbezogener Daten durch ein Gesetz oder eine Rechtsvorschrift erlaubt sind, dürfen personenbezogene Daten verwendet werden (siehe dazu § 4 BDSG). Die Betroffenen sind daran gebunden und müssen die Nutzung der Daten dulden.

In der Praxis

Ein Beispiel zur Regelung der E-Prüfungen findet man in der Rahmenprüfungsordnung (Seite 13) bei der Universität Duisburg-Essen:

http://www.uni-due.de/imperia/md/content/zentralverwaltung/bereinigte_sammlung/8_00_5.pdf

Eine Ordnung für E-Learning-Verfahren können Sie bei der Bergischen Universität Wuppertal einsehen (http://www.verwaltung.uni-wuppertal.de/am/2012/am12057.pdf) . Die Ordnung regelt netzangebundene Lern-, Lehr- und Prüfverfahren, die personenbezogene Daten zum Zwecke der wissenschaftlichen Ausbildung erheben, verarbeiten und nutzen. Hier werden die Datennutzung im Rahmen neuer Veranstaltungsformen aufgezeigt und geregelt.

Einwilligung

Die Erhebung solcher Daten, die üblicherweise in Präsenzveranstaltungen genutzt werden, ist durch die existierenden rechtlichen Regelungen gedeckt. Ungewöhnliche, neue Veranstaltungsformen, die das Potential von Lernplattformen nutzen und bei denen zum Beispiel Daten über das Verhalten der Studierenden laufend erhoben und gespeichert werden, um eine Verlaufsleistung der Studierenden zu bewerten, müssen durch eine Einwilligung der Studierenden gedeckt sein. Dies ist zum Beispiel dann der Fall, wenn in einem Kurs zum Projektmanagement die Studierenden ein begrenztes Budget an Zeit und an virtuellem Geld erhalten und jede ihrer Aktionen von der Plattform festgehalten und durch die Dozentinnen und Dozenten bewertet werden.

Wirksamkeit der Einwilligung. Allerdings ist eine Einwilligung gem. § 4a BDSG nur dann wirksam, wenn

Bei einer Einwilligung für Veranstaltungsformate, bei denen mehr personenbezogene Daten erhoben werden, als es in Präsenzveranstaltungen üblich ist, müssen mehrere Randbedingungen beachtet werden:

Missbrauch der Einwilligung. Der Text der Einwilligung muss auch den Hinweis enthalten, dass die Einwilligung jederzeit ohne negative Folgen für die Betroffenen zurückgezogen werden kann. Dies könnte Studierende mit schlechten Klausurergebnissen dazu verleiten, am Ende einer Veranstaltung die Einwilligung zurückzuziehen. Das folgenlose Zurückziehen der Einwilligung könnte dazu führen, dass den Studierenden kein Fehlversuch angerechnet wird und sie eine Prüfung so lange wiederholen, bis Ihnen das Ergebnis zusagt. So ein Verhalten ist nicht erlaubt. Die Hochschule muss das nicht dulden, denn die Studierenden missbrauchen ihre formale Rechtsposition (§ 242 BGB).

Einwilligung zur Nutzung von Facebook. Professor K. bietet zur Gruppenarbeit seiner Studierenden eine Facebook-Seite an. Das ist ein Online-Angebot der Hochschule. Selbst wenn die Studierenden in die Nutzung von Facebook freiwillig einwilligen, ist die Wirksamkeit der Einwilligung trotzdem zweifelhaft. Die Datenschutzbestimmungen von Facebook genügen wegen ihrer Unklarheit nicht den Anforderungen des deutschen Datenschutzrechts. Die Datenschutzbestimmungen von Facebook sind zwar sehr lang, enthalten aber weder klare Angaben zum Umfang der erhobenen Daten noch enthalten sie klare Angaben zur Verwendung der Daten. So wird zum Beispiel erklärt, dass Daten zur Verbesserung der Dienste an Dritte weitergegeben werden. Unklar bleibt, wann welche Daten an wen weitergegeben werden. Eine Einwilligung, die auf unvollständigen Informationen beruht, ist nicht bindend. Allerdings ist aufgrund der Organisationsstruktur von Facebook nicht deutsches, sondern irisches Datenschutzrecht für die Beurteilung der Rechtmäßigkeit relevant (OVG Schleswig Holstein, 2013). Damit ist die Unklarheit der Datenschutzbestimmungen bei Facebook mit deutschem Datenschutzrecht nicht angreifbar. Die Datenschutzbestimmungen werden aber unter dem Gesichtspunkt des Verbraucherschutzes mit deutschem Recht angegriffen (LG Berlin, http://www.vzbv.de/8981.htm). Die einschlägigen Gerichtsverfahren sind noch nicht abgeschlossen. Damit ist juristisch noch nicht endgültig geklärt, ob die Datenschutzerklärungen von Facebook eine ausreichende Grundlage für bindende Einwilligungen sind. Professor K. sollte sehr vorsichtig damit sein, Facebook-Seiten für seinen Unterricht einzusetzen.

!

Schütze Deine Privatsphäre.

Apps/Cloud Computing. Die Nutzung von Apps wird aus Sicht einer Hochschule dann problematisch, wenn in den Apps personenbezogene Daten der Studierenden an Dritte übertragen werden. Viele Apps nutzen nicht nur die Daten, die die Nutzer/innen eigenhändig in die App eingeben, sie nutzen auch das Umfeld des Betriebssystems, um weitreichende personenbezogene Daten zu erheben und an Dritte weiter zu verkaufen. Da die Weitergabe von personenbezogenen Daten an Dritte bei vielen App-Anbietern beziehungsweise -anbieterinnen das Geschäftsmodell ausmacht, wird die Hochschule wenig Erfolg bei dem Versuch haben, die App-Betreiber/innen zum Verzicht auf die Daten-Weitergabe zu bewegen. Die Hochschule muss dann auf den Einsatz verzichten.

Die Nutzung von Cloud Computing kann ebenfalls problematisch werden, wenn die Nutzungsbedingungen eine Kontrolle der Daten nicht garantieren. Die Nutzungsbedingungen von Google sind ähnlich unscharf wie die Nutzungsbedingungen von Facebook. Die Professorin W. würde die Daten ihrer Studierenden gefährden, wenn sie Google Drive zum Schreiben von Texten in ihrem Seminar einsetzen würde.

?

Überlegen Sie noch einmal, was ist eine gesetzliche Erlaubnis? Vergleichen Sie Ihre Gedanken mit Abschnitt 5.

In der Praxis

Die FH Düsseldorf hat im Juni 2013 den Service von Microsoft „Office 365” für Studierende auf Cloud-Basis eingeführt. Einwilligungen der Studierenden tragen den Prozess. Der Prozess wurde mit der Landesdatenschutzbehörde abgestimmt. Dies ist eine gelungene Auslagerung von Datenverarbeitung durch eine Hochschule.

http://www.fh-duesseldorf.de/a_fh/zeigeNewsLang?c_id=c20130620095024

!

Eine Hochschule muss auf die Nutzung eines Cloud-Dienstes verzichten, wenn der Cloud-Anbieter die Einhaltung des Datenschutzes nicht garantieren kann (§ 11 BDSG).

Die Struktur des Datenschutzrechts in Österreich richtet sich nach den gleichen Grundprinzipien: Die Verwendung personenbezogener Daten ist verboten. Sie ist erlaubt, wenn ein Gesetz die Verwendung ausdrücklich gestattet oder wenn die Betroffenen der Verwendung zustimmen (§ 1 Abs. 2 DSG Ö). Die Zustimmung muss freiwillig, umfassend und in Kenntnis der Sachlage erfolgen (§ 4 Nr. 14 DSG Ö). Damit sind die Ausführungen für das Datenschutzrecht auf Österreich übertragbar.

In der Schweiz finden sich Regelungen zum Datenschutz in Gesetzen des Bundes und in Gesetzen der Kantone. Das Bundesgesetz über den Datenschutz regelt die grundlegende Struktur. Auch in der Schweiz ist die Verwendung personenbezogener Daten verboten, es sei denn, dass ein Gesetz die Verwendung ausdrücklich erlaubt oder dass die Betroffenen in die Verwendung eingewilligt haben (Art 17 DSG CH). Die Einwilligung muss freiwillig, umfassend und in Kenntnis der Sachlage erfolgen (Art. 4 Abs. 5 DSG CH). Damit sind die Ausführungen für das Datenschutzrecht auf die Schweiz übertragbar.

!

Zahlreiche weiterführenden Links und Literaturhinweise finden Sie bei Diigo, versehen mit den Schlagworten #l3t, #recht, #de bzw. #at und #ch.

Urheberrecht & Co. in der Hochschullehre

Literatur

Interessen und Kompetenzen fördern

Programmieren und kreatives Konstruieren

Der Beitrag bietet einen einführenden Überblick über Methoden, die technologisches Grundwissen vermitteln helfen, wie z. B. Robotik für Kinder. Diese Tätigkeiten bieten insbesondere für das projektorientierte kreative Lernen und die Heranführung an naturwissenschaftlich-technische Denkweisen großes Potenzial. Lernangebote werden für unterschiedliche Einsatzszenarien beschrieben, wie zum Beispiel in der Schule, in der Freizeit, in der Sozialarbeit und in Ferienworkshops.

Der Beitrag vermittelt einen groben Überblick über die Möglichkeiten der Entwicklung von Technologiekenntnissen und beleuchtet die Relevanz des Lernens über (digitale) Technologien. Wer in die Planung ähnlicher Projekte einsteigen möchte, findet Ansprechpartner/innen und Unterstützungsstellen. Der Beitrag wird abgerundet mit Verweisen auf frei erhältliche Anleitungen, Hinweisen für die Gestaltung von Lerneinheiten und einer beispielhaften Auflistung benötigter Materialien und Kosten.

Interessen und Kompetenzen fördern

Einleitung

Ein Raum voller Laptops, Mikrocontroller, Bastelmaterialien, Lötkolben und vieler eifriger Kinder. Das Signal zur Mittagspause wurde überhört. Was ist denn hier los? Wir befinden uns in einem Kinder-Workshop zum Bauen und Programmieren von kleinen Robotern. Die Kinder entwickeln eine Abenteuergeschichte, in der diese Roboter Aufgaben lösen müssen. Die Geschichte, die Roboter, die Aufgaben: Alles erfinden die Kinder selbst. Sie gestalten sowohl die Idee als auch die Maschinen und tüfteln an Fehlern in der Programmierung, wenn der Roboter nicht tut, was er soll.

Der vorliegende Beitrag beschreibt eine Art des Lernens, bei der nicht die Inhalte des Lernens durch eine Lerntechnologie vermittelt werden, sondern bei der die Technologie selbst zum Lerngegenstand wird. Digitale Technologien verändern unseren Alltag und die Gesellschaft. Überall in unserer Umgebung ist Technologie zu finden – kleine Computer sind in vielen Alltagsgegenständen verbaut und steuern Systeme z. B. im Auto, im Küchenherd und im Geldautomaten. Was müssen Anwender/innen über die Funktionsprinzipien wissen? Wie kann ihr Interesse gefördert werden? Wie können sie technisches Verständnis über die Funktionsweise, für die Entwicklung und Veränderung von Technologien gewinnen, ohne eine technische Grundausbildung zu absolvieren? Der Beitrag stellt mögliche Aktivitäten und Projektideen vor und zeigt die pädagogischen Relevanzen auf.

Interessen und Kompetenzen fördern

Lernmöglichkeiten und Bildungspotenziale

Konstruierendes Programmieren bietet diverse Potenziale, die sich zum einen auf den Erwerb von Fähigkeiten und Kenntnissen, zum anderen auf die Förderung einer Allgemeinbildung in der technisierten Gesellschaft beziehen.

Technisierte Gesellschaft verstehen und gestalten

Die automatisierte, algorithmusgesteuerte Verarbeitung von Informationen unterscheidet die neuen digitalen von den traditionellen Medien. Sie erfordert daher auch eine verstärkte Auseinandersetzung mit der dahinter liegenden Technologie. Wie bedeutsam eine grundlegende Kenntnis der technologischen Funktionsprinzipien nicht nur für das Individuum, sondern auch für Gesellschaft und Politik ist, zeigt die Häufung datenschutzrechtlicher Skandale, wie zuletzt die automatisierte Durchleuchtung des globalen E-Mail-Verkehrs durch Geheimdienste.

Die großen technologischen Entwicklungen beeinflussen die Gesellschaftsentwicklung auf allen Ebenen, zum Beispiel Kultur, Wirtschaft und Politik, sie verändern aber auch das individuelle Alltagsleben. Technologische Medien nutzen zu können, reicht als Bildungsziel nicht aus. Ihre Funktionsweisen und Auswirkungen müssen verstanden werden, da Technologisierung unser Leben unabhängig davon beeinflusst, ob wir Technologien nutzen (wollen) oder nicht. Die Verbindung technischer Kenntnisse mit Überlegungen zu ihrer gesellschaftlich-kulturellen Relevanz ist daher essenziell, um eine reflexive Positionierung der Lernenden in einer technisierten Welt anzuregen (Zorn, 2012).

Mathematisch-technische Fähigkeiten

Als einer der ersten Erfinder/innen pädagogischer Lernsettings mit konstruierendem Programmieren entwickelte Seymour Papert – angelehnt an den Konstruktivismus (siehe #lerntheorien) – eine Lerntheorie, die er ‚Konstruktionismus‘ nannte (Papert, 1980; Harel & Papert, 1991). Der Konstruktionismus basiert – wie der Konstruktivismus – auf der Vorstellung, dass Wissen von den Lernenden selbst ‚konstruiert‘ wird, und dass sich für diese Konstruktion insbesondere die Erstellung von Artefakten eignet. Papert zeigte auf, wie Kinder durch die Programmierung der Bewegung kleiner Schildkröten auf dem Bildschirm (sogenannte Turtles) elementare Grundprinzipien von Mathematik und Logik verstehen lernen und anwenden. Als bedeutsam hob er hervor, dass sie diese Prinzipien aufgrund der eigenen kreativen Konstruktion herausfinden, ihre Bedeutung verstehen und diese auf ihren eigenen Bedarf anwenden können, ohne Lehrbuchtexte auswendig zu lernen. Dadurch erhalten mathematische, programmiertechnische Kenntnisse eine Relevanz im Leben der Lernenden, was zum einen ihr Interesse, zum anderen ihre Fähigkeiten positiv beeinflusst.

Fachkräftemangel MINT-Berufe

Während in kreativen Lernkontexten in Asien und USA Lernaktivitäten, bei denen Technologien eine zentrale Rolle spielen, in Freizeit, Schule und Hochschule immer häufiger angeboten und beschrieben werden, beginnt ihre Popularität im deutschsprachigen Raum erst zu wachsen. Die Möglichkeiten zur Erhöhung des naturwissenschaftlich-technischen Interesses und einer MINT-bezogenen Berufswahl (MINT steht für:

Mathematik, Ingenieurwissenschaften, Naturwissenschaften, Technik) sind vielfältig und im deutschsprachigen Raum mehr als notwendig. Die Förderung von MINT-Interessen bei jungen Menschen ist beispielsweise in der Schweiz mittlerweile zu einem Politikum geworden, wie der Bericht „Der MINT-Fachkräftemangel in der Schweiz“ des Bundesrats zeigt (Gehrig et al., 2010). Da deutlich weniger Mädchen als Jungen einen MINT-Beruf wählen, wird empfohlen, einen besonderen Fokus darauf zu richten, „die geschlechterspezifische Interessenssozialisation zu durchbrechen. Diesbezüglich ist eine Sensibilisierung von Betreuungs- und Lehrkräften wünschenswert, die in Kindertagesstätten, der Primarschule oder der Sekundarstufe I tätig sind” (Gehring et al., 2010, VII). Ähnliche Bestrebungen finden sich auch in Deutschland und Österreich, sodass derzeit diverse Initiativen entwickelt und gefördert werden. Eine exemplarische Übersicht über bestehende Angebote sowohl für Erzieher/innen und Lehrer/innen als auch für Kinder und Schüler/innen in Deutschland finden sich nach Fokus und Bildungsphase sortiert bei Solga und Pfahl (2009, 210-219).

Lernprojekte mit Programmier- und Konstruktionstätigkeiten werden als geeignete Möglichkeiten gesehen, MINT-bezogene Interessen und Fähigkeiten zu fördern (Projektadressen siehe Infobox „Angebote/Projekte”).

Abb. 1: Teilnehmer/innen basteln und programmieren den „Eichbär
Abb. 1: Teilnehmer/innen basteln und programmieren den „Eichbär" im Rahmen des Projektes „informattraktiv” (siehe Infobox „Angebote/Projekte”). Die Mischung aus Eichhörnchen und Bär zeigt die Uhrzeit an und reagiert auf seine Umwelt mit leuchtenden Augen.

Frühpädagogik

Obwohl sich viele pädagogische Technologieprojekte an ältere Kinder und Jugendliche richten, kommt der Frühpädagogik eine große Bedeutung beim Heranführen an und Fördern von mathematisch-naturwissenschaftlichen sowie technischen Bereichen zu (Prenzel et al., 2009, 19). Junge Menschen interessieren sich eher und nachhaltiger für naturwissenschaftlich-technische Themen, wenn ihre Affinität frühzeitig und deutlich vor der Pubertät gefördert wird (acatech, 2011). Der Bedarf, Kinder früh im Bereich Technik zu fördern, zeigt sich auch in der Schwerpunktsetzung des Bildungsrahmenplans 2009 für elementare Bildungseinrichtungen in Österreich: In zwei seiner sechs Bildungsbereiche geht er auf die Themen Informations- und Kommunikationstechnologien (IKT) (Bildungsbereich ‚Sprache und Kommunikation‘) sowie Natur und Technik (eigener Bildungsbereich) ein. IKT sind aus dem Alltag nicht mehr wegzudenken und die Fähigkeit von Kindern, unterschiedliche Medien selbstgesteuert und kritisch zu nutzen, ist eine Herausforderung für die zeitgemäße elementare Bildung (Hartmann et al., 2009, 15). Bereits im Kindergarten können zum Beispiel Roboter unter anderem zum Erlernen von Zahlen, Zerlegen von Wegen von A nach B in Einzelschritte, zur Förderung der Sprache, der Kreativität, des logischen Denkens und des räumlichen Vorstellungsvermögens eingesetzt werden (Stöckelmayr et. al., 2011).

Interessen und Kompetenzen fördern

Hinweise zur Gestaltung von Angeboten

Bei der Gestaltung der Aufgaben und der Lernumgebungen empfiehlt es sich, dem konstruktivistischen Lernparadigma zu folgen. Die Lehrenden agieren in beratender und unterstützender Funktion und lassen die Lernenden bevorzugt als Gruppe durch Interaktionen mit ihrer Umwelt ihr Wissen selbst konstruieren. Die Lernaktivitäten sollen möglichst realistisch und an der ‚realen Welt‘ sowie an den Interessen der Lernenden orientiert sein - wie zum Beispiel bei den ‚Rescue‘- bzw. „Soccer”-Aufgaben der in Kapitel 4 näher vorgestellten RoboCupJunior-Initiative. Hier müssen wie bei einem Rettungseinsatz Roboter durch ein Labyrinth mit Hindernissen gelotst werden, um ein Opfer zu retten, oder zwei Roboter-Teams spielen Fußball und die Spielzüge der Roboter müssen geplant und programmiert werden.

Die Wissenskonstruktion sollte spielerisch erfolgen, da durch das Spiel, oftmals ganz nebenbei, unbewusst Fähigkeiten und Fertigkeiten erlangt werden (Rapeepisarn et al., 2006, 29). Im Kontext des „Lernens durch Spiel” nehmen traditionelle Bastelmaterialien eine große Rolle ein.

Durch den Einsatz von ‚intelligenten Lernmaterialien‘, wie etwa Bodenrobotern, können Lernende Programmierlösungen durch die unmittelbaren Reaktionen der Roboter auf die Programmierung überprüfen (Baerendsen et al., 2009, 400).

Die Beschäftigung mit Technologien muss nicht nur im Informatikunterricht stattfinden. Am Beispiel der RoboCupJunior ‚-„Dance‘-Kategorie kann veranschaulicht werden, wie die Beschäftigung mit Technologie kreativitätsfördernd und interdisziplinär im Schulunterricht verankert werden kann. In dieser Kategorie programmieren die Teilnehmer/innen tanzende Roboter, entwerfen das Bühnenbild und sorgen für die passende Musik. Während die Programmierung der Roboter in Informatik erfolgt, kann der Bau der Roboter Teil des Physikunterrichts, die Gestaltung des Bühnenbilds und die Verkleidung der Roboter Teil des Kunstunterrichts und die Zusammenstellung oder Komposition der Hintergrundmusik beziehungsweise des Videos Teil des Musikunterrichts sein. Das Einstudieren der Choreografie der menschlichen Teilnehmenden könnte im Sportunterricht angesiedelt werden.

Der bewusste Einsatz diverser Materialien kann den Zugang zu Technologie auch für Menschen ebnen, die sich eher nicht von traditionellen technischen Angeboten angesprochen fühlen.

Smart Textiles‘ beispielsweise sind leitfähige Stoffe und Garne in Verbindung mit programmierbaren Bauteilen, die ein ähnliches Lernen wie Robotertechnologien ermöglichen. Diese ‚intelligenten Materialien‘ können in Verbindung mit Komponenten wie Leuchtdioden und Geschwindigkeitssensoren beispielsweise im Modedesign, in der Gestaltung von Schmuck oder beim Bau von Musikinstrumenten Verwendung finden (Trappe, 2012).

Abb. 2: Zwei Mädchen entwickeln und programmieren technologisch angereicherte Kleidung.
Abb. 2: Zwei Mädchen entwickeln und programmieren technologisch angereicherte Kleidung.
Interessen und Kompetenzen fördern

Beispiele für Bildungsangebote

Durch die Auswahl von Materialien und Themen können Projekte auch für jene Menschen attraktiv werden, die sich selbst zunächst nicht in der Rolle der Technologiegestalter/innen sehen. In welchem Rahmen (Tageszeitung, Internet, Schule, interkulturelles Jugendzentrum, Mädchengruppe, etc.) und durch welche Vorbilder öffentliche Veranstaltungen wie Workshops beworben und ausgeschrieben werden, beeinflusst die Zusammensetzung der Gruppe der Teilnehmenden z. B. bezüglich vorhandenem Technikinteresse, Geschlecht, Migrationsstatus oder Bildungshintergrund. Dieser Abschnitt zeigt anhand von fünf konkreten Beispielen unterschiedliche Rahmen, in denen konstruierendes Lernen mit Technologie umgesetzt werden kann.

TechnikBasteln

Bei TechnikBasteln (http://www.technikbasteln.net) sollen Kinder in Workshops für IKT begeistert, aber auch ausführlich über verschiedene Technologien informiert werden. In Workshops zur Funktionsweise von Computern wird die Geschichte der Entwicklung von Computern erläutert und die diversen Hardware-Komponenten sowohl in ihrer Funktionsweise als auch in ihrem Beitrag im Gesamtsystem erfahrbar gemacht. Dabei werden den Kindern die Komponenten wie Prozessoren, Festplatten, Arbeitsspeicher und Motherboards im Sinne einer haptischen Erfahrung auch zum ‚Be-greifen‘ angeboten.

Im Hauptteil des Workshops zerlegen die Kinder in Kleingruppen dann Laptops, um Einblicke in das Innenleben zu erhalten und die Scheu vor dem Anfassen technologischer Bauteile zu verlieren und um selbst tätig zu werden. In anderen Workshops werden anhand von spielerischen Einzel- und Gruppenaktivitäten Themen wie die Auswahl von sicheren Passwörtern erarbeitet oder die grundlegende Funktionsweise des Versands von E-Mails mithilfe einer Wäscheleine, Papier und Bleistift erklärt.

Innovationscamp

Ferienprogramme ermöglichen Kindern und Jugendlichen eine vielseitige Auseinandersetzung mit Technologie außerhalb etablierter pädagogischer Institutionen. Das Innovationscamp Bremen, eine Initiative der Universität Bremen, der Jacobs University und der Handelskammer, nutzte die Räumlichkeiten der Jugendherberge, um eine Woche lang anhand der Themen ‚Sport und Technologie‘, ‚Mobile Roboter‘ und ‚Humanoide Roboter‘ den kreativen Umgang mit Technologie zu vermitteln (http://www.innovationscamp.de). Dabei waren die Jugendlichen in Altersgruppen von 9-13, 11-15 und 13-17 Jahren aufgeteilt. 15 Teilnehmende pro Gruppe wurden akzeptiert, wobei auf eine ausreichende Betreuung durch Wissenschaftler/innen und Studierende der Universitäten geachtet wurde.

Robotik

Für Jugendliche im Alter von 10-19 Jahren bietet die internationale Bildungsinitiative RoboCupJunior die Möglichkeit, im Rahmen von nationalen und internationalen Team-Wettbewerben ihre im Unterricht oder in der Freizeit entwickelten und programmierten Roboter gegeneinander antreten zu lassen. Die Aufgaben in den drei frei wählbaren Kategorien ‚Dance‘, ‚Rescue‘ oder ‚Soccer‘ werden meist mit *Lego®-Mindstorms-NXT-*Robotern oder mit Robotern auf Arduino-Basis gelöst (Arduino dargestellt in Abbildung 3). Die nationalen RoboCupJunior-Vereinigungen unterstützen Gruppen und Betreuende beim Einstieg in RoboCupJunior.

Für Kinder im Kindergarten-, Vorschul- und Primarstufenalter werden allgemein immer mehr sogenannte Bodenroboter zum spielerischen Programmieren verwendet. Einer der bekanntesten Hersteller in diesem Bereich ist die TTS Group mit ihren Bodenrobotern Bee-Bot und Pro-Bot. Während der Bee-Bot einfache Befehlsabfolgen (mit Tastendruck – vorwärts, rückwärts, Links- und Rechtsdrehung) beherrscht, kann der Pro-Bot direkt per Tastendruck oder über USB-Kabel mit PC-Software programmiert werden. Basis ist die Programmiersprache Logo, die von Papert entwickelt wurde (Stöckelmayr et al., 2011). Eine Alternative ist zum Beispiel der Roamer, welcher ebenfalls auf der Programmiersprache Logo basiert. (Nähere Informationen unter: http://www.valiant-technology.com/uk/pages/roamer_diversity.php)

Abb. 3: Der programmierbare Mikrocontroller Arduino kann in Workshops vielseitig Verwendung finden. Es können zum Beispiel Lichter oder Motoren gesteuert und durch angeschlossene Sensoren unterschiedliche Aspekte der Umwelt gemessen werden.
Abb. 3: Der programmierbare Mikrocontroller Arduino kann in Workshops vielseitig Verwendung finden. Es können zum Beispiel Lichter oder Motoren gesteuert und durch angeschlossene Sensoren unterschiedliche Aspekte der Umwelt gemessen werden.

Pädagogik-Studium

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Das Technologieinteresse bei pädagogischen Fachkräften sollte idealerweise schon in der Ausbildung geweckt werden, damit diese später eine Vorbildfunktion einnehmen können. In medienpädagogischen Seminaren für (programmierunerfahrene) Studierende des Lehramts oder der Sozialpädagogik kann durch eine spielerische Herangehensweise an das Programmieren eine mögliche anfängliche Unsicherheit abgebaut werden. Der Einstieg in die Grundprinzipien der Sensorsteuerung und die Reflexion ihres Vorkommens in der Alltagsumgebung mit dem Ziel, Technologieinteresse zu wecken, könnte über kurze Internet-Videos erfolgen.

In anschließenden Präsenzeinheiten können verblüffende Konstruktionen und Programmierungen mit Arduino-Microcontrollern, LED-Lampen und Piezo-Lautsprechern experimentell durchgeführt werden. Abschließend könnten Erfahrungen reflektiert und die Relevanz von technologischen Entwicklungen für die Gesellschaftsentwicklung diskutiert werden.

FabLabs

FabLabs gibt es inzwischen in vielen größeren Städten. Das sind offene Werkstätten, in denen der Zugriff auf moderne Fabrikationsmaschinen wie 3D-Drucker und Laser-Cutter geboten wird. Ein wichtiger Aspekt ist der Freiraum, der interessierte Laiinnen und Laien zur Entwicklung und Umsetzung eigener Produktideen animiert und Wissensaustausch fördert. Auch organisierte Workshops finden in FabLabs statt. ‚Elektronik für Tomatenzüchter und andere Pflanzenliebhaber‘ ist beispielsweise ein Angebot des FabLabs München, das sich an Neulinge auf dem Gebiet der Elektronik richtet (http://wiki.fablab-muenchen.de/display/WIKI/Programm). Ein solches Workshopangebot zeigt, wie eine konstruierende Auseinandersetzung mit Technologie anhand der Umsetzung von persönlich relevanten Projekten stattfinden kann.

?

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Materialien und Überblick über Bezugsquellen und Kosten

Beispiele von Technologien

Abb. 4: Visuelle Programmiersprache mit Drag-&-Drop-Funktionalität
Abb. 4: Visuelle Programmiersprache mit Drag-&-Drop-Funktionalität

Angebote/Projekte

Robotikaktivitäten

Literatur zum Einstieg

Lernmaterialien: Auflistung frei verfügbarer (open access) Inhalte

Interessen und Kompetenzen fördern

Fazit

In Zukunft wird die Bedeutung von Technologie und technischem Grundverständnis, und somit ihr Stellenwert in der Bildung, sicherlich nicht abnehmen. Wer heute junge Menschen ausbildet, muss bedenken, dass diese auch mit den Technologien des Jahres 2080 konfrontiert sein oder diese sogar selbst entwickeln werden und daher darauf vorbereitet sein sollten. Die in der Einleitung beschriebene Atmosphäre bei Kinder-Robotik-Workshops zeigt Elemente des Tüftelns, Erfindens, Gestaltens und Herstellens. Sie findet sich in vielen Projekten, die der „Maker-Culture” zugeschrieben werden können (Katterfeldt, 2013). Auch wenn dieses Thema in vielen institutionalisierten Bereichen oftmals noch als Neuland wahrgenommen wird, so gibt es bereits ein breites Spektrum an pädagogischen Erfahrungswerten, Materialien, Technologien und Projekten. Diese ermöglichen, vor allem in Zusammenarbeit mit erfahrenen Projektpartnerinnen und -partnern, einen schnellen und unkomplizierten Einstieg in die Welt der Förderung technischer Interessen und Kompetenzen durch Programmierung und kreatives Konstruieren und — nicht zuletzt — sehr viel Spaß!

Interessen und Kompetenzen fördern

Literatur

Spielend Lernen im Kindergarten

Neue Technologien im Einsatz

Dieses Kapitel behandelt den kindlichen Zugang zu neuen Technologien im Alltag. Da die Kinder von heute in einer Medienwelt aufwachsen und schon früh mit Medien und Medienprodukten in Kontakt kommen und diese auch nutzen, sind die vorschulischen Bildungsinstitutionen gefordert, aktive Medienarbeit zu leisten und dabei einen verantwortungsbewussten Umgang mit Medien zu fördern. In engem Zusammenhang mit dem Einsatz von neuen Technologien im Vorschulbereich steht die Medienbildung. Deren Förderung stellt schon in der frühen Mediennutzung eine Notwendigkeit dar und wird in diesem Kapitel anschaulich mit ihren wichtigsten Zieldimensionen beschrieben. Die Autorinnen und Autoren verweisen auf die spielerische Umsetzung medienpädagogischer Ziele und den damit verbundenen Einsatz von neuen Technologien. Die Förderung der Medienbildung lässt sich in der Kindergartenarbeit nicht losgelöst von anderen Bildungsschwerpunkten vollziehen und ist somit immer verknüpft mit unterschiedlichen Bereichen der kindlichen Entwicklung und Förderung. Beispiele aus der Praxis zeigen die sozialen, kommunikativen, lernmethodischen, spielerischen und bildenden Aspekte des Lernens und Lehrens mit neuen Technologien sowie die damit zusammenhängenden Herausforderungen und Hindernissen.

Spielend Lernen im Kindergarten

Kinder und ihr Zugang zu neuen Technologien

Lebenswelten der Kinder sind Medienwelten

Kinder in unserer Gesellschaft wachsen von klein auf mit einer Vielzahl an Medien und Medienprodukten auf. Nach einer Studie von Feierabend und Mohr (2004) sehen zwei Drittel der zwei- bis fünfjährigen Kinder täglich oder beinahe täglich fern. In über 90 Prozent der befragten Haushalte befinden sich Fernseher, Telefon, Radio, Mobiltelefon, Videorekorder und Stereoanlage. Eine aktuelle Studie von SaferInternet.at (2013) zeigte, dass inzwischen 52 Prozent der Drei- bis Sechsjährigen das Internet schon genutzt haben und 41 Prozent es regelmäßig mindestens ein Mal pro Woche nutzten. Dabei halten es nur 11 Prozent der Eltern für notwendig, dass Kinder in diesem Alter lernen, verantwortungsvoll mit dem Internet umzugehen. Im Rahmen dieses Kapitels werden wir uns weiterhin vornehmlich mit Computern, dem Internet und mobilen Geräten als Medien beschäftigen.

?

Warum glauben Sie, sind Medien wichtig für Kinder? Welche Funktionen erfüllen Medien in der Lebenswelt von Kindern? Zu welchem Zweck nutzen Kinder Ihrer Einschätzung nach Medien? Diskutieren Sie in Kleingruppen.

Medien erfüllen verschiedene Funktionen in der Entwicklung von Kindern

Durch den Besitz von Technologien erleben Kinder ihre persönliche Autonomie und Stärke. Medien helfen ihnen bereits im Kindergartenalter bei der gezielten Suche nach Information, dienen daher als Informationsvermittler. Die Informationsvermittlung geschieht dabei vor allem gemeinsam in Begleitung Erwachsener, wenn Kinder noch nicht lesen können, oder allein, anhand altersangepasster Medienprodukte. Durch Medien können Kinder in vielfältiger und kreativer Weise ihre eigene Sichtweise ausdrücken und darstellen. Zum Beispiel wenn in einem Projekt, in dem es um elektrische Geräte im Haushalt geht, auf einer „Fotosafari“ durch die „Kita“ (kurz für „Kindertagesstätte“) alle Geräte fotografiert werden, die Strom brauchen. Die von den Kindern hergestellten Medienprodukte, in diesem Fall Fotos, werden als Grundlage einer Diskussion genutzt. Die Kinder können die Fotos verwenden, um ihre Erfahrungen in die Diskussion einzubringen oder ihren Standpunkt zu verdeutlichen (Fthenakis et al., 2009). Eine weitere Funktion von Mediennutzung ist die Unterstützung der Kinder beim Erwerb des Konzepts der symbolischen Repräsentation, das heißt, die Mädchen und Jungen müssen erst den Charakter von Symbolen begreifen und verstehen. Ein wichtiger Grund für die Mediennutzung ist nicht nur für Erwachsene, sondern auch für Kinder im Kindergartenalter das Bedürfnis nach Entspannung, Spiel und Spaß (ebenda). Wenn dabei von „Kindergarten“ die Rede ist, schließt dies alle Formen elementarer Bildungsinstitutionen für Kinder im Alter von drei bis sechs Jahren mit ein.

Studien zur Nutzung von neuen Technologien im elementaren Bildungsbereich

Aktuelle Forschungsergebnisse zur Nutzung von neuen Technologien im elementaren Bildungsbereich sind international nur rudimentär vorhanden, was auf hohen Forschungsbedarf schließen lässt. Siraj-Blatchford und Siraj-Blatchford (2006) untersuchten die Auswirkungen des Einsatzes von Informations- und Kommunikationstechnologien im frühen Bildungsbereich. Ergebnisse zeigen, dass neue Technologien im institutionellen Bildungsbereich vor allem auf kreative Weise genutzt werden, gefolgt von der Nutzung für die Bereiche Lese- und Schreibfähigkeit, Mathematik und Wissen. Der Computer kommt laut Siraj-Blatchford und Siraj-Blatchford vor allem in Bezug auf Lesekompetenz in Bildungseinrichtungen zum Einsatz. Aufenanger und Gerlach (2008) zogen in einer Studie mit Vorschulkindern in sechs Tageseinrichtungen die Bilanz, dass der gezielte Computereinsatz für die persönliche Entwicklung vorteilhaft ist. Die Kinder zeigten eine hohe Kompetenz hinsichtlich der PC- und Programmnutzung, ohne dass ein Defizit in ihrer sozialen Entwicklung zu beobachten war.

Kindergarten, Technologieeinsatz und Medienbildung

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Die Potenziale neuer Technologien stellen deshalb auch die Bildungsinstitutionen für drei- bis sechsjährige Kinder vor die Herausforderung, Konzepte für aktuelle und engagierte Medienbildung zu entwickeln. Elementare Bildungseinrichtungen sind aufgefordert, die Lebenswelt der Kinder zu reflektieren und die Basis für lebensbegleitende Bildungsprozesse zu legen. Bisher findet die Medienkompetenzförderung in den Bildungsplänen der deutschen Bundesländer unterschiedliche Beachtung (Neuß, 2013). Da die Verwendung von digitalen Technologien die Wissensgesellschaft in entscheidendem Maße prägt, beeinflussen Medien dementsprechend auch die frühe Kindheit und können als bedeutender Sozialisationsfaktor gesehen werden (Theunert & Schorb, 2004).

Kinder erwerben bereits in ihrem familiären Umfeld grundlegende Medienkompetenzen (Spanhel, 2002). Diese erworbene Medienkompetenz sollte im Einzelfall kritisch betrachtet werden. Prinzipiell sollten sich Konzepte der Medienbildung im Kindergarten an diesen ersten Kompetenzen orientieren und darauf aufbauen. Der Umgang mit neuen Technologien bedarf einer frühzeitigen und pädagogisch wertvollen Herangehensweise, die Kindern eine verantwortungsvolle, selbstbestimmte Partizipation in der Mediengesellschaft ermöglicht. Hierzu ist eine spielerische Gestaltung notwendig, die es den Kindern erlaubt, sich ihre eigenen, individuellen Handhabungen selbstgesteuert anzueignen und in der sie sich selbst als Person ausprobieren können.

!

In der Praxis: Unterstützung bei der Portfolioarbeit

Der Einsatz neuer Technologien bereichert und unterstützt auch die Portfoliomethode zur Dokumentation und Reflexion kindlicher Lern- und Entwicklungsprozesse im Kindergarten, indem Kinder ihre Lerngeschichten nicht nur als Bild im Ordner ablegen, sondern diese beispielsweise auch anhand von unterschiedlichen medialen Werkzeugen (zum Beispiel Weblogs oder Podcasts) erzählen und ergänzen. Beispiele für solche Kindergartenweblogs oder auch Erzieherinnen und Erzieher, die über ihre Arbeit berichten, finden sich bei Diigo unter den Schlagworten #l3t und #kindergarten.

?

Warum sollte ein Kind in elementaren Bildungsinstitutionen bereits Medienkompetenz erwerben? Diskutieren Sie in Kleingruppen, wie Sie sich ein medienkompetentes Kind vorstellen. Vergleichen Sie die Ergebnisse.

Spielend Lernen im Kindergarten

Einsatz von neuen Technologien zur Medienbildung

Mit Medien ko-konstruktiv lernen

Die folgenden Ausführungen zur Umsetzung von Medienbildung und zur Nutzung neuer Technologien im Kindergarten gehen von einem sozialkonstruktivistischen Bildungsverständnis aus, das Bildung als Ergebnis sozialer Prozesse konzeptualisiert, die sich in der Interaktion zwischen einzelnen Personen vollziehen. Die Meinungen über den Einsatz von Medien im Kindergarten gehen weit auseinander. Taylor (2012) beschreibt, dass Kinder sehr früh Medien ohne Anleitung oder Grenzen ausgesetzt werden (zum Beispiel um sie zu beschäftigen, statt sich mit ihnen auseinanderzusetzen). Daraus entstehen viele Probleme, wie zum Beispiel eine verkürzte Aufmerksamkeitsspanne oder schlechtere Leistungen in der Schule. Kinder werden dadurch eher schlechter auf die digitale Welt vorbereitet. Eltern sollten ihre Kinder schützen und nur altersangepasst an Medien heranführen. Nach Merkel (2005) ist der Einsatz von Medien im Kindergarten zu aufwändig und nicht notwendig. Kinder im Alter von drei bis sechs Jahren sollten nicht mehr als 30 Minuten am Tag Medien nutzen und das Internet nur langsam und sicher (z.B. fragFINN) von ihren Eltern gezeigt bekommen (SCHAU HIN, 2013). Dahingegen können nach Meinung der Bundesprüfstelle für jugendgefährdende Medien (2013) Erziehende und Lehrende schon in Kindergarten und Grundschule Medienkompetenz vermitteln, wenn sie gut ausgebildet sind und die Mediennutzung gezielt und zeitlich begrenzt stattfindet. Medienerziehung und Ausbildung von Medienkompetenz sollte so früh wie möglich stattfinden. Dabei sind neben den Eltern vor allem die Kindertagesstätten gefragt. Dafür ist es notwendig, hochqualifiziertes Personal auszubilden, damit hier auch Impulse für die elterliche Medienerziehung gegeben werden können (Neuß, 2013).

Demzufolge kann das Lernen von Kindern nicht als Weitervermittlung von bereits bestehendem, „fertigem“ Wissen verstanden werden, sondern als kooperative und kommunikative Aktivität, an der Kinder und Erwachsene aktiv beteiligt sind und bei der gemeinsam Sinn konstruiert wird sowie Kompetenzen neu aufgebaut werden.

Diese Vorgehensweise wird als Ko-Konstruktion bezeichnet: Kinder ko-konstruieren ihr Wissen, Sinn und Bedeutung auf der Grundlage ihrer bisherigen Erfahrungen und ebenso in Auseinandersetzung mit Interaktionspartnern in ihrer sozialen Umgebung (Fthenakis, 2004). Die Art und Weise, wie Interaktionen zwischen Fachkräften und Kindern sowie zwischen den Kindern gestaltet werden, ist demnach von entscheidender Bedeutung für die Entwicklung der Kinder (O´Mara &und Laidlaw, 2011).

Medien haben für ko-konstruktives Lernen eine besondere Bedeutung: Mit Hilfe neuer Technologien erhalten Kinder nicht nur Zugang zu Informationen, sie können auch selbst Medien herstellen, um ihre Lernwege festzuhalten, sich diese vergegenwärtigen und ihre Sichtweise in die Diskussion einbringen. In einem Projekt, in dem es zum Beispiel um das Thema Werbung geht, erfahren die Mädchen und Jungen einerseits, was Werbung erwirken möchte, und andererseits aber auch, wie Werbung gestaltet und eingesetzt wird. In verschiedenen Angeboten erkunden die Kinder die Welt der Werbung und stellen etwa eigene Werbeproduktionen her und beginnen dadurch, ihren Bezug zu Werbung zu reflektieren.

Bildungsziele der Medienbildung

Die Bildungsziele im Bereich der Medienbildung lassen sich in zwei große Bereiche unterteilen. Der Zielbereich „Stärkung von Kompetenzen für den aktiven Umgang mit Medien“ schließt zum einen ein, dass Kinder Erfahrungen und praktische Kenntnisse im Umgang mit Medien sammeln, und zum anderen Medien für eigene Anliegen, Fragen und den sozialen Austausch nutzen. Im zweiten Zielbereich, „Stärkung von Kompetenzen für die kritische Reflexion von Medien“, geht es neben der Verarbeitung und Reflexion des eigenen Umgangs und eigener Erfahrungen mit Medien darum, die Machart und Funktion von Medien zu reflektieren und Kenntnisse darüber zu erwerben (für eine detaillierte Darstellung von Zielen der Medienbildung im Kindergarten siehe Fthenakis et al., 2009). Eine Umsetzung dieser Ziele orientiert sich an den vier Grundpositionen, die im Folgenden beschrieben werden.

?

Wie tragen Medien zur Partizipation von Kindern bei? Welche besonderen Möglichkeiten bieten Medien in diesem Zusammenhang? (Denken Sie dabei über kommunikative, soziale und kollaborative Aspekte nach. Schreiben Sie in einer Kleingruppe Ihre Gedanken in Form eines „Brainstorming“ nieder.

Abb. 1: Trickfilme mit Kindergartenkindern erstellen. Quelle: Elisabeth Schallhart, Kindergarten Maurach a. Achensee.
Abb. 1: Trickfilme mit Kindergartenkindern erstellen. Quelle: Elisabeth Schallhart, Kindergarten Maurach a. Achensee.

In der Praxis: Mein Heimatort - mein Zuhause

In diesem Medienprojekt geht es um den Einsatz von neuen Technologien in Zusammenhang mit der Entdeckung und Erforschung des eigenen Heimatortes. Die Kinder und die Pädagoginnen erkundeten während des gesamten Jahres die Umgebung des Kindergartens und verschiedenste Institutionen der Gemeinde. In kreativer Weise entstanden mehrere Medienprodukte, die im Rahmen einer abschließenden Präsentation den Eltern gezeigt werden: ein Film über die Kirche des Orte mit Kommentaren der Kinder, Malarbeiten „Mein Zuhause“ eingefügt in Google Earth, Fotos, bearbeitet mit dem Malprogramms „Paint“, und die Gestaltung eines Gemeinschaftsposters. Ein ausführlicher Projektbericht findet sich unter http://www.bibernetz.de, Suchbegriff: „Mein Heimatort“.

Spielend Lernen im Kindergarten

Aktiv, kreativ und kooperativ mit Medien umgehen

Wie bei der Umsetzung anderer Bildungsbereiche auch geht es im Bildungsbereich Kindergarten nicht nur darum, etwas über Medien zu lernen und einen verantwortungsvollen Medienumgang zu entwickeln. Medienbildung beziehungsweise die Nutzung neuer Technologien im Kindergarten zielt also nicht nur darauf ab, dass Kinder Medieninhalte aufnehmen, sondern auch darauf, dass die Kinder Medien aktiv für ihre Belange einsetzen (Fthenakis et al., 2009). Wie eine Sprache sollte sich auch Medienkompetenz schon im Kindesalter angeeignet werden, um Medien auswählen, begrenzen und sinnvoll nutzen zu können. Auch eine eigene Haltung gegenüber Massenmedien soll so frühzeitig gebildet werden (Alper, 2011).

Erfahrungsberichte aus der Praxis zeigen, dass Kinder auch ohne Lese- und Schreibkenntnisse verschiedenste Medien handhaben können, wenn sie intuitiv und durch Experimentieren nutzbar sind. Die Art und Weise, wie Kinder Medien nutzen, sollte aufgegriffen werden: Kinder entwickeln ihre Kompetenzen im Umgang mit Medien weniger durch „Verstehen“ als viel mehr durch „Begreifen“ (Röll, 2002). Als besonders geeignet gelten deshalb handlungsorientierte Ansätze der Medienbildung, welche die Befähigung zu einer „kritisch-reflexiven Mediennutzung“ anstreben (Hug, 2002) und die eine Zusammenführung von Medienalltag und Medienhandeln umfassen (Schorb, 2008). Aus der Frage, was Medien mit Kindern machen, formuliert sich so die Aufforderung, was Kinder mit Medien alles machen können. Handlungsorientierte Ansätze beinhalten einen Perspektivenwechsel vom eher passiven Medienrezipienten beziehungsweise -rezipientinnen zu aktiven Medienproduzenten beziehungsweise -produzentinnen (Hug, 2002).

?

Zu welchen Zwecken setzen Sie selbst Medien ein? Schreiben Sie alle Aspekte Ihrer persönlichen Mediennutzung nieder und vergleichen Sie dies in der Gruppe.

!

Spiele fördern Kreativität sowie Interaktion und haben eine überaus wichtige Rolle in der sozialen und kognitiven Entwicklung von Kindern. Immer mehr (kostenlose) Lern- und Spielsoftware wird von zahlreichen Anbietenden auch schon für die Allerkleinsten angeboten.

Interessieren sich Kinder dafür, wie Zeichentrickfilme entstehen, könnten sie gemeinsam mit der Fachkraft einen eigenen Trickfilm produzieren: Dazu tauschen sich die Kinder zunächst über ihre Lieblingsfiguren aus dem Fernsehen aus. Welche Figuren gefallen den Kindern, welche nicht? Warum ist das so? Danach denken sich die Kinder eine kleine Geschichte aus, die anschließend mittels Stopptrick (Optisches „Zaubern“ im Film durch Anhalten der Kamera, Veränderung des Bildes, Weiterfilmen) verfilmt wird (siehe Abbildung 1).

Spielend Lernen im Kindergarten

Lernmethodische Kompetenz stärken

Im Bildungsbereich geht es nicht nur darum, etwas über Medien zu lernen und einen verantwortungsvollen Medienumgang zu entwickeln, sondern auch um das Lernen mit Medien, also um Medien und neue Technologien als Mittel des Lernens. Wenn Kinder mit Hilfe von Medien Zugang zu Informationen bekommen, indem sie beispielsweise Bücher oder Filme anschauen, gemeinsam mit der Fachkraft im Internet recherchieren oder per Telefon jemandem Fragen stellen und anschließend diese Informationssuche reflektieren, lernen sie nicht nur etwas über geeignete Informationsquellen, sondern auch über den Umgang mit Informationen: Wie komme ich an Informationen? Wie habe ich wichtige Informationen ausgewählt? Wie kann ich über eine Sache noch mehr herausfinden? Das sind alles Fragen, welche das eigene methodische Vorgehen beim Lernen betreffen (Fthenakis et al., 2009), denn die richtige Suche von Informationen, die Orientierung im „Informationsdschungel“ sowie die kritische Bewertung von Informationen will gelernt sein. Die „Wissenskluft-Perspektive“ (Tichenor, Donohue & Olien, 1970) geht jedoch davon aus, dass Menschen mit höherem sozioökonomischem Status Medien vielfältiger und anders für ihre Informationssuche nutzen als Menschen mit niedrigerem sozioökonomischem Status. Dies betrifft in weiterem Zusammenhang auch schon Kinder zwischen drei und sechs Jahren, da der Gebrauch von Medien und der Stellenwert, den sie Medien zuschreiben, unter anderem von ihren soziokulturellen Voraussetzungen in ihrer Lebenswelt, ihrer Familie abhängen (Paus-Hasebrink & Bichler, 2006). Aus diesem Grund kommt allen Bildungsinstitutionen die Aufgabe zu, Chancengleichheit beim Zugang zu Medien und ihrer kompetenten Nutzung zu fördern.

Medien können das Lernen der Kinder unterstützen, indem sie zur Dokumentation eines Projekts oder einer bestimmten Aktivität eingesetzt werden: Die von Kindern erstellten Foto-Dokumente könnten für die gemeinsame Reflexion genutzt werden: Was haben wir Neues dazugelernt? Wie haben wir es gelernt? Warum haben wir das gelernt und weshalb sind wir dieser Frage nachgegangen? Reflexionsfragen dieser Art tragen dazu bei, dass Kinder etwas über das Lernen lernen.

Das Lernen von Kindern lässt sich nicht in verschiedene Teilbereiche aufteilen, in denen unabhängig voneinander Lernen stattfindet. Kinder lernen und entwickeln sich als gesamte Persönlichkeit. Beim Lernen arbeiten Wissen, Gefühle und Körper vernetzt miteinander zusammen. Aus Sicht der Fachkraft geht es zum einen darum, eine Verarbeitung des Inhalts in verschiedenen Formen anzuregen, bei der alle Sinne (Sehen, Hören, Fühlen, Riechen, Schmecken) angesprochen werden, und zum anderen darum, den Kindern bereichsübergreifende Zugänge zum Thema zu ermöglichen, indem verschiedene Bildungsbereiche wie zum Beispiel Sprache, Mathematik und Bewegung miteinander verknüpft werden.

Software-Anwendungen unterstützen die Erstellung von multimedialen Inhalten beispielsweise in E-Portfolios oder Weblogs. Sie erleichtern die Wissensaufnahme, da verschiedene Sinne angesprochen werden.

Spielend Lernen im Kindergarten

Spiel als wichtigste Lernform

Technikspielzeuge gibt es schon seit über 100 Jahren (Hoffmann, 1997). Beginnend mit reinen Technik- und Bauspielen wurden sie immer stärker elektrifiziert (zum Beispiel Senso) und mit Medien (Audio, Bildschirm, Video) ergänzt (Kübler, 1994). Computerspiele, Konsolen und auch mobile Apps mit Action- oder Abenteuerspielen faszinieren heutzutage Kinder oft mehr als andere Spielzeuge (Eschenbauer, 1994). Spezielle Kindercomputer bieten die Möglichkeit, diese Faszination auch für Lernspiele zu nutzen. Lampe und Hinske (2006) beschreiben, wie mit neuen Techniken aus herkömmlichen Spielzeugen „smarte Spielumgebungen“ entstehen können.

In der Medienpraxis und beim Lernen mit neuen Technologien ist das Spiel die wichtigste Lernform der Kinder. Der spielerische Umgang mit Medien im Kindergarten bezieht sich einerseits auf das Kennenlernen und das freie Experimentieren mit verschiedensten Medien und andererseits auf das angeleitete Spiel, das didaktisch-pädagogisch durch die Kindergartenpädagogin oder den Kindergartenpädagogen begleitet wird. Beispiele in diesem Artikel beziehen sich vor allem auf das angeleitete Spiel mit Medien. Kinder erhalten etwa im Kindergarten Raum, ihre Medienerlebnisse zu verarbeiten, und führen Geschichten in ihrer Fantasie weiter, die sie aus verschiedenen Medien kennen. Das Spiel kann aber auch als Ausgangspunkt für die gemeinsame Reflexion der Medienerlebnisse der Kinder genutzt werden. Im Rollenspiel können die Kinder emotionale Medienerlebnisse bearbeiten, indem sie eine spannende Geschichte zu einem für sie guten Ende führen (Fthenakis et al., 2009). Frühzeitige Techniksozialisation mit solchen Spielen führt zu anhaltender Offenheit und Technikfaszination (Jakobs, Schindler & Straetsmanns et al., 2005).

?

Welche Kompetenzen können durch die Arbeit mit den neuen Medien von den Kindern gestärkt werden (Sach-, Methoden-, Selbst-, Sozialkompetenz)? Recherchieren Sie in Praxisbüchern und/oder im Internet nach Beispielen aktiver Medienarbeit (im Kindergarten). Erläutern Sie in der Gruppe, welche Kompetenzen der Kinder dabei gestärkt werden.

Abb. 2: Kreative Fotobearbeitung mit „Paint“, Malarbeit mit „Tuxpaint“ Quelle: Elisabeth Schallhart, Kindergarten Maurach a. Achensee.
Abb. 2: Kreative Fotobearbeitung mit „Paint“, Malarbeit mit „Tuxpaint“ Quelle: Elisabeth Schallhart, Kindergarten Maurach a. Achensee.

!

Wenn Sie Interesse an weiterführenden Informationen über die praktische Arbeit mit neuen Technologien im Kindergartenbereich haben, dann besuchen Sie folgende Seiten:

Der Einsatz von Lern- und Spielsoftware nimmt seit einigen Jahren auch im Kindergarten zu. Lernsoftware, die einen spielerischen Zugang zu Wissen ermöglicht, wird bereits in vielen Einrichtungen eingesetzt. Geeignete Lern- und Spielsoftware, die Kinder zu einem spielerischen, experimentellen, aber auch gemeinschaftlichen Entdecken des Computers anregt, bietet einen kindgerechten Einstieg in die Welt der neuen Technologien. Die Kindergartenpädagogin beziehungsweise der Kindergartenpädagoge steht hier allerdings vor der Aufgabe, aus einer Vielzahl an Programmen qualitativ hochwertige Produkte auszuwählen. Ein Leitfaden zur Bewertung von Computerspielen wie beispielsweise in Marci-Boehncke und Rath (2007, 146-169) oder Qualitätskriterien zur Beurteilung von Software für den Einsatz im Kindergarten (Schachtner, Roth & Frankl, 2005, 44ff.) können hier die Entscheidung erleichtern. Als besonders gut geeignete Software zur Förderung von Sprache und Schrifterwerb kann an dieser Stelle „Die Schlaumäuse – Kinder entdecken Sprache“ angeführt werden. Als Zielformulierung bietet dieses Lernprogramm den Kindern ein schriftkulturelles und sprechanregendes Umfeld am Computer (Kochan & Schröter, 2006, 6). Zaranis, Kalogiannakis & Papadakis (2013) schlagen Mobilgeräte wie Smartphones als effektive Werkzeuge für die Vermittlung mathematischer Grundkenntnisse im Kindergarten vor. iPads konnten erfolgreich beim Sprachenlernen eingesetzt werden, wobei Kinder jeweils in einer Gruppe an einem Tablet gelernt und sich dabei gegenseitig stark unterstützt haben (Sandvik, Smørdal, & Østerud et al., 2012).

Seitenumbruch

Spielend Lernen im Kindergarten

Faktoren die den Umgang mit Technologien im Kindergarten beeinflussen

Abschließend möchten wir die wesentlichen Faktoren beschreiben, die den Umgang mit (neuen) Technologien im Kindergarten beeinflussen.

Individuelle Ebene – Pädagoginnen und Pädagogen

Es entsteht die Frage, wie Pädagoginnen und Pädagogen eine von Aufenanger (1999) beschriebene medienpädagogische Kompetenz erwerben. Dies kann in praxisbezogenen und handlungsorientierten beruflichen Ausbildungsgängen geschehen, sei es an Fachschulen, Hochschulen, Berufskollegs oder in Weiterbildungsmaßnahmen. Eine umfassende, medienpädagogische Ausbildung von Erzieherinnen und Erziehern angelegt an Baackes Medienkompetenz-Modell (Baacke, 1997) müsste somit die Lehrziele Medienkritik, Medienkunde, Mediennutzung, Mediengestaltung und – Baackes Modell ergänzend – Mediendidaktik beinhalten. Diese Anforderungen an die Pädagoginnen- und Pädagogenausbildung lassen erkennen, dass der Einsatz von Technologien im Kindergartenalltag von der Medienkompetenz von Erzieherinnen und Erziehern abhängt.

Organisatorische Ebene – Kindergarten

Damit sich Kinder ihre Medienwelt selbstbestimmt, kritikfähig und breit gefächert erschließen und über ihr Handeln ihre Medienkompetenz entwickeln können, bedarf es pädagogischer Konzepte, die weder von einer bewahrpädagogischen Natur noch von einer Medienhysterie geprägt sind. Eine einrichtungsspezifische Ausrichtung von Medien sieht die Verwendung von neuen Technologien in Form eines zukunftsorientierten Konzeptes vor, das die Pädagoginnen und Pädagogen gemeinsam erarbeiten und in ihrem Alltag integriert umsetzen: Notwendig sind eine kompetente Leitung, als „Schlüssel“ für Veränderungen, geeignetes technisches Equipment als Basisfaktor für den Technologieeinsatz sowie die Implementierung einer informations- und kommunikationstechnologischen Bildungskonzeption, die schrittweise in den Institutionsalltag eingeführt und begleitet wird. Eine derartige medienpädagogische Ausrichtung von Kindergärten beginnt in den Bildungsinstitutionen erst langsam Fuß zu fassen und bedarf weiterer Entwicklungen. Eine erfolgreiche Einführung von Medien im Kindergarten beschrieben Parnell und Bartlett (2012) auch abseits des Einsatzes als Lernwerkzeuge, nämlich im Rahmen der Dokumentation des Lernens beziehungsweise der Fortschritte der Kinder im Kindergarten und der Kommunikation mit den Eltern.

Allgemeine Rahmenbedingungen

Um im pädagogischen Alltag von Kindertageseinrichtungen eine medienpädagogische Praxis zu etablieren, die sich an den Bedürfnissen der Kinder und ihrer Alltagswelt orientiert, müssen Eltern, Erzieherinnen und Erzieher auf die Förderung von Medienkompetenz vorbereitet werden. Eine generelle, konzeptionelle Einbindung des Bereichs Medienbildung kann auch aus Sicht eines Kindergartenträgers eine Grundlage schaffen, die das Thema eingrenzt und für die benötigte Transparenz hinsichtlich finanzieller, personeller und technischer Ressourcen und Anforderungen sorgt.

!

Eine gute Übersicht und Handreichung für Interessierte findet sich im Handbuch „Safer Internet im Kindergarten“: http://www.saferinternet.at/fileadmin/files/Materialien_2013/Handbuch_Safer_Internet_im_Kindergarten.pdf

Fazit

Da Medien im Leben von Kindern eine wichtige Rolle spielen und Kinder bereits über vielfältige Medienerfahrungen verfügen, hat der Kindergarten die Aufgabe, Technologien in den Kindergartenalltag einzubinden. Neue Technologien dienen dem Aufbau und Erwerb lernmethodischer Kompetenzen sowie der Unterstützung ko-konstruktiven Lernens, welches auf Kooperation und Kommunikation ausgerichtet ist.

„Medienkompetenz kann nur fördern, wer medienpädagogische Kompetenz besitzt“ (Schell, 2006b). Diese Feststellung lässt erkennen, dass die Medienkompetenz der Kindergartenpädagogin beziehungsweise des Kindergartenpädagogen unmittelbar mit der Medienbildung der Kinder zusammenhängt. Denn nur wer mit Medien in sinnvoller, verantwortungsbewusster Weise umgehen kann, ist auch in der Lage, dies den Kindern zu vermitteln. Aus diesem Grund müssen Technologien in der Ausbildung und Fortbildung eine Rolle spielen, da eine handlungsorientierte medienpädagogische Praxis kein statisches Konzept darstellt und eine ständige Weiterentwicklung fordert (Schell, 2006a, 47). Besonderer Wert sollte hier auch auf mediendidaktisches Wissen und Reflexionsvermögen sowie auf Kenntnisse über geeignete Methoden des Technologieeinsatzes und der Vermittlung von Medienkompetenz gelegt werden.

Spielend Lernen im Kindergarten

Literatur

Technologieeinsatz in der Schule

Zum Lernen und Lehren in der Sekundarstufe

Der Einsatz von neuen Technologien im Unterricht schreitet in unserer Informationsgesellschaft unaufhaltsam voran. Dieses Kapitel handelt vom technologiegestützten Lernen und Lehren in der Sekundarstufe im deutschsprachigen Raum. Es werden politische, strukturelle, finanzielle und personelle Rahmenbedingungen besprochen, konkrete unterrichtliche Möglichkeiten aufgezeigt und es wird über Webangebote sowie Fortbildungsmöglichkeiten für Lehrer/innen berichtet. Medienkompetenzerwerb und Medienbildung sind wichtige Bereiche, die sowohl auf Lehrer/innen- als auch auf Schüler/innen-Ebene thematisiert werden, denn alle öffentlichen Schulen im deutschsprachigen Raum sind zumindest mit einem Internetzugang ausgestattet. Im Mittelpunkt steht ein neues Verständnis von Lernen, das sich durch einen Wechsel von einer belehrenden Form des Unterrichtens hin zu einer Lernwegbegleitung durch Lehrer/innen auszeichnet. Lehrer/innen schlüpfen dabei mehr in eine beratende Rolle und Lerner/innen eignen sich Wissen, im Sinne eines konstruktivistischen Lernprozesses, verstärkt eigeninitiativ an. Im Unterricht sollen zumindest jene Technologien und Vernetzungsmöglichkeiten Einsatz finden, die die notwendigen Kompetenzen für die Anforderungen an das 21. Jahrhundert vermitteln.

Der Artikel kann naturgemäß die Vielfalt der Entwicklungen nicht umfassend darstellen und erhebt auch nicht den Anspruch einer konsistenten Systematik; er orientiert sich eher an dem Ansatz einer Webform der Argumentation (prinzipiell unabgeschlossen, offen, rhizomatisch etc.), wie sie im angelsächsischen Bereich zum Beispiel von David Weinberger (2010) favorisiert wird.

Technologieeinsatz in der Schule

Rahmenbedingungen: Medieneinsatz an Schulen

Der Einsatz von digitalen Werkzeugen gewinnt in Anbetracht der steigenden Anforderungen von Seiten des Arbeitsmarktes und hinsichtlich der sich verändernden Lebenswelt von Schüler/innen immer mehr an Bedeutung, wie die JIM-Studie und die KIM-Studie (Medienpädagogischer Forschungsverbund Südwest, aktuelle Studien abrufbar: http://www.mpfs.de/) zeigen.

Initiativen und Projekte

Im Laufe der letzten Jahre haben sich in Österreich im Wesentlichen drei großflächige Projekte mit dem Ziel formiert, E-Learning im Schulalltag zu einer Selbstverständlichkeit zu machen:

In der Schweiz findet aktuell (2013) eine intensive Diskussion über den Stellenwert von Medienbildung statt. Für den Lehrplan 21, der nach der Konsultationsphase 2013/14 im Herbst 2014 verabschiedet werden soll, ist ICT als überfachlicher Bereich vorgesehen. (http://www.lehrplan.ch/)

Da in Deutschland die Schulbildung generell Ländersache ist, erklärt sich, warum es mehrere unterschiedliche E-Learning-Initiativen gibt. Als Reaktion auf diese Parzellierung wurde 2010 die Enquete-Kommission „Internet und digitale Gesellschaft“ gegründet, die nach differenzierter Arbeit ihre Tätigkeit im April 2013 mit einem umfassenden Abschlussbericht einstellte (http://www.bundestag.de/internetenquete/index.jsp), der als Basis für eine vereinheitlichende Bildungspolitik in diesem Bereich dienen soll.

Ausstattung im Klassenzimmer

Wenn man heute in ein typisches Klassenzimmer sieht, scheinen die angeführten Initiativen noch immer Leuchttürme zu sein. Die typische Grundausstattung dort sind eine Kreidetafel und ein Overheadprojektor (siehe Kapitel #ipad), mancherorts auch ein Beamer. Wenn es um die Anschaffung von neuer Infrastruktur im Schulkontext geht, wird immer wieder ein multifunktionales Werkzeug in Betracht gezogen: das interaktive Whiteboard, oft kombiniert mit einer klassischen Tafel:

Bei der Software stechen vor allem die beiden Marktführenden SMART und PROMETHEAN sowie der britische Unternehmen für Softwareproduktion RM mit „easyteach“ positiv hervor. Obwohl die interaktiven Whiteboards laut herstellenden Firmenzu kooperativerem und individuellerem Lernen führen sollen, beanstanden viele Kritiker/innen gerade die stärkere Zentrierung auf die Lehrperson als gegenteiligen Effekt. Eine vorbereitete Unterrichtssequenz im Stile herkömmlicher Folienpräsentationen vermindert die Notwendigkeit, spontane, technische Lösungen finden zu müssen und verstärkt gleichzeitig die Lehrendenzentrierung des Unterrichts. Hier fehlt vor allem ein flächendeckendes Weiterbildungsangebot für die Lehrer/innen.

Um der mangelnden Verfügbarkeit an Computerarbeitsplätzen für Schüler/innen etwas entgegenzusetzen, macht man die Not zur Tugend und versieht die Idee mit einem englischen Namen: „Bring-your-own-device (BYOD)“, vergleiche zum Beispiel den entsprechenden Blog von Richard Heinen (2013). Von einer funktionierenden WLAN-Umgebung abgesehen muss die Schule nicht viel zur Ausstattung beitragen. Den Überblick über unterschiedlichste Hard- und Software mit individuell angepassten Einstellungen und Konfigurationen zu behalten ist quasi unmöglich. Daher etablieren sich in diesen Umgebungen oft Buddy-Systeme, bei denen technisch versierte Schüler/innen den schwächeren Kolleginnen und Kollegen unter die Arme greifen. Auch die Aufgabenstellungen müssen sich verändern, da viel inhalts- und zielbetonter gearbeitet werden muss. Dies fördert das eigenständige, selbstverantwortliche Lernen und Arbeiten und einen kooperativen und kollaborativen Unterrichtsaufbau.

Auffällig sind große Unterschiede in Umfang und Qualität des Einsatzes in der Schule. Neben Schulen mit Handyverbot, gibt es Schulen mit integrierter Smartphone-Arbeit oderiPad-Projekten, sehr hochwertig und langjährig zum Beispiel an der Kaiserin-Augusta-Schule in Köln (http://ipadkas.wordpress.com/).

Dort werden von/mit Schülerinnen und Schülern eigene digitale Schulbücher mit iBooksAuthor erstellt. In Österreich startet im Herbst 2013 das Projekt KidZ (Klassenzimmer der Zukunft: http://elsa20.schule.at/kidz-klassenzimmer-der-zukunft/), das auf selbstverständlich integrierte und jederzeit verfügbare digitale Endgeräte zurückgreift. Das Projekt, an dem österreichweit bis zu 100 Schulen teilnehmen, wird die damit verbundenen Kommunikations-, Rezeptions- und Interaktionsmöglichkeiten bewusst vorwegnehmen und erforschen.

Finanzielle und personelle Rahmenbedingungen

Nicht nur die Ausstattung mit Hardware bereitet finanzielle Probleme, auch die Abgeltung der Betreuung ist in unterschiedlichen Staaten, Bundesländern und Schultypen gänzlich unterschiedlich und auch meist nicht ausreichend.

Einsatz von Lernmanagementsystemen (LMS)

In Österreich werden zwei unterschiedliche LMS vom Unterrichtsministerium finanziert und den Schulen zur Verfügung gestellt: die international entwickelte Open-Source-Lernplattform Moodle (http://www.edumoodle.at) und die österreichische Eigenentwicklung LMS.at (http://www.lms.at). Beide Lernplattformen enthalten einen vergleichbaren Umfang an E-Learning-Werkzeugen und ermöglichen den Lehrenden und den Schülern und Schülerinnen Unterrichtsmaterialien zur Verfügung zu stellen, kooperative Lernszenarien zu initiieren sowie Bewertungen für Schüler/innen transparent zu dokumentieren.

Der schweizerische Bildungsserver educa.ch bietet allen Schulen die Möglichkeit, für ihre Institution einen Zugang auf dem LMS educanet2.ch (http://www.educanet2.ch/‎) zu beantragen. Die Bereitstellung erfolgt durch eine zentrale Stelle.

In Deutschland umfasste lo-net2 (http://www.lo-net2.de/) im Juli 2013 mehr als 6.870 Institutionen mit über einer Million Nutzer/innen. lo-net2 gehörte zu „Schulen ans Netz e.V.“, ist aber Ende 2010 vom Verlag Cornelsen gekauft worden.

In der Praxis: Einsatz eines LMS im Unterricht

Lernmanagementsysteme (LMS) bieten, unter Beibehaltung des zentralen Ziels der Vorbereitung auf den Abschluss, gute Möglichkeiten unterrichtlicher Erweiterungen, die hier kurz abstrakt dargestellt werden sollen. Die Beschreibung ist idealtypisch und zur Vereinfachung auf die Sekundarstufe II bezogen. Sie entspricht erfahrungsgemäß der (spezifisch variierten) Praxis an den meisten Schulen.

Ein Kurs wird lehrplangemäß zur Abschlussprüfung geführt, aber zusätzlich zur normalen Unterrichtsorganisation von Anfang an auch als virtueller Klassenraum angelegt. Die Unterrichtsmaterialien werden nur dann in Printversion geliefert, wenn es keine Alternative gibt. Unterrichtsgespräche werden im Klassenzimmer durchgeführt und sind somit immer als Abweichung vom medien‐ oder webbasierten Unterricht erkennbar. Diese bestehen in der Erarbeitung von Grundlagen, Entwicklung von Fragestellungen, Rechercheaufgaben, methodischen Übungen, Schreibaufträgen oder Trainingseinheiten.

Zu Beginn jeder Unterrichtsreihe stellt die Lehrperson als Trainer/in Grundmaterial im LMS zur Verfügung, das eine Staffelung von Pflichtmaterial für alle und Zusatzmaterial mit unterschiedlichem Anspruch und unterschiedlicher Gestaltung enthält. Entsprechend den entwickelten Fragestellungen vollzieht sich der Unterricht in einem Wechsel von individualisierter Arbeit, freier Partner/innen‐ oder Teamarbeit und Gesamtgruppenarbeit. Damit bekommt die Lehrperson eine zunehmend stärkere Funktion als Trainer/in und Coach.

Bei Rechercheaufgaben wird neben dem Einüben von Bewertungsmethoden auch der Vorteil arbeitsteiliger Recherche sichtbar gemacht. Notwendige fachliche Grundlagenarbeiten wie Textanalyse, Interpretation, Systematisierung etc. werden möglichst über Beamer oder Online‐Textbearbeitung (Etherpad, GoogleDocs und Ähnliches) durchgeführt; Ergebnisse werden zentral (Dateiablage des Kurses) und gegebenenfalls individuell in einem für alle Schüler/innen verbindlich eingeführten E‐Portfoliobereich im virtuellen Klassenraum gespeichert. Zur Aufbereitung des Unterrichtsmaterials werden unterschiedliche Formen wie visuelle Textanalyse mit Word, Mindmaps, Tagclouds, Power-Point- oder Prezi‐Präsentationen, Audio‐ und Video‐Produkte verwendet. Bei der Materialaufbereitung werden die Schüler/innen möglichst selbst als Expertinnen und Experten eingesetzt (Helfendenprinzip).

Der individuelle Lernfortschritt wird über die E‐Portfolios sichtbar gemacht (zum Beispiel bearbeitete Aufgaben, eigene Rechercheergebnisse, Textbearbeitungen, individuelle Wiederholungs‐ und Trainingsprogramme). Die Kommunikation im Kurs kann durch Foren, Chats und E‐Mails beziehungsweise Messenger‐Nachrichten oder auch Social Media intensiviert werden.

In der Vorbereitungsphase auf Prüfungen haben die Schüler/innen immer die Möglichkeit, die Lehrperson zu erreichen; Fragen können dann individuell geklärt oder gegebenenfalls bei allgemeiner Relevanz für den gesamten Kurs beantwortet werden. In kritischen Situationen, zum Beispiel bei der direkten Prüfungsvorbereitung, sind auch Chat‐Sitzungen oder Videokonferenzen denkbar.

?

Wenn Sie über den Einsatz von Lernmanagementsystemen für die Sekundarstufe nachdenken, wofür eignen sich diese? Stellen Sie Einsatzszenarien gegenüber, vergleichen Sie diese mit anderen und führen Sie eine Bewertung durch.

Technologieeinsatz in der Schule

Einsatz von Technologien – didaktische Möglichkeiten

Medienbildung als Notwendigkeit

Moser (2008) beschreibt unterschiedliche Funktionen von Medien. Er unterscheidet zwischen Vermittlungsmedien, Lernmedien und Kommunikationsmedien. Medien können als Demonstrationswerkzeug der Lehrenden (Präsentationssoftware, interaktive Whiteboards), als Lernwerkzeuge (Serious Games, multimediale Lernhilfen), aber auch als Kommunikationsmittel (IM, Blog, Social Media, E-Portfolio) Lernprozesse anregen oder unterstützen. Je nach Einsatzzweck kann ein und dasselbe Medium unterschiedlichen Kategorien zugeordnet werden. Zum Beispiel kann die Webseite Google Earth sowohl als Vermittlungsmedium (Demonstration durch die Lehrperson) als auch als Lernmedium (Lernende erkunden selber) eingesetzt werden.

Medien sind aber nicht nur Werkzeuge, ihre Besonderheiten und der Umgang mit ihnen sollen gleichermaßen auch Unterrichtsgegenstand sein. Kinder und Jugendliche sind vermehrt mit Problemen wie Datenschutz, Cyber-Mobbing und Copyright konfrontiert. Dies muss Gegenstand von Medienerziehung (siehe Kapitel #medienpaedagogik) sein und im Unterricht behandelt werden. Die Medienbildung soll den Lernenden einen aktiven, reflektierten und verantwortungsvollen Umgang mit Medien ermöglichen. Dies erfordert unterschiedliche Kompetenzen. Zum einen den verantwortungsvollen Umgang mit Medien und dessen Reflexion, zum anderen auch mediendidaktische Kompetenzen (Süss et al., 2009). Grundsätzlich ist auch die Bedienung der neuen Technologien zu lehren; eine „informatische“ Grundbildung notwendig.

Lernformen mit Technologieunterstützung

In folgender Übersicht werden Lernformen beschrieben, die für den technologiegestützten Unterricht geeignet sind:

Selbstorganisiertes Lernen: In einem selbstgesteuerten Unterricht werden Arbeiten zu einem großen Teil selbstständig definiert und erledigt; hier werden Schüler/innen durch das World Wide Web unterstützt. Das Ziel ist das Erreichen von Qualifikationen wie Fach-, Methoden-, Sozial-, und Medienkompetenz.

Offenes Lernen: Offenes Lernen versteht sich als Möglichkeit, zwischen Inhalten und Schwierigkeitsstufen auswählen zu können. Dies führt zwangsläufig zur Eigenverantwortlichkeit und Selbstbestimmung. Hier kann vor allem das Internet mit seinen zahlreichen Informationen unterstützen.

Fächerübergreifendes Lernen: Fächerverbindendes Lernen ermöglicht es, einen Themenbereich in verschiedenen Fächern zu thematisieren und unterschiedlich zu beleuchten. Der Computer steht zumeist als Informationsressource zur Verfügung.

Kooperatives Lernen: Miteinander lernen in Teams aus dem Klassenverband oder in globalen Teams kann durch das World Wide Web gezielt unterstützt werden, zum Beispiel durch gemeinsame Blog-Arbeit, durch Skype-Konferenzen oder Ähnliches.

Entdeckendes Lernen: Durch die Möglichkeit, aufkommende Fragen selbstständig mittels des World Wide Web zu beantworten, wird ein aktives Mitwirken am Unterricht möglich. Bei Web-Quests, Web-Inquirys oder Internet-Ralleys machen sich Schüler/innen auf eine abenteuerliche Spurensuche im Internet.

Kreatives Lernen: Die vielfältigen Möglichkeiten des Computers (zum Beispiel für visuelle oder akustische Belange) eröffnen der oder dem Lernenden neue, aufregende Betätigungsfelder, die sie/er kreativ und individuell nutzen kann.

Spielendes Lernen: Der Computer ist für Jugendliche ein Freizeit- und Spielgerät. Es ist naheliegend, auch Lernspiele in den Unterricht einzubauen, um Lernziele spielerisch zu erreichen (siehe Kapitel #game). Ein weiterer Ansatz ist, Schüler/innen selbst Spiele produzieren zu lassen. Über http://www.gamelabs.at können Schüler/innen etwa Spiele kreieren, mit anderen teilen und spielen.

Einsatz von Technologien im Unterricht

Der Einsatz von Technologien in den Schulen ist durch Vielfältigkeit geprägt. Tabelle 1 gibt eine Übersicht der typischen Einsatzformen. Computer können etwa als kreativitätsförderndes Instrument genutzt werden, indem mit Bildbearbeitungs- und Malprogrammen digitale Bilder erstellt oder mit dem Handy aufgenommene Bilder, Videosequenzen und Töne am Computer zu Diashows, Filmen oder Podcasts zusammengeschnitten werden. Beim Recherchieren mittels Suchmaschine oder Online-Enzyklopädie und dem anschließenden Verarbeiten der Informationen mittels Methoden wie Mind-Map oder Concept-Map bietet die Computerarbeit ebenso Vorteile wie beim Einsatz digitaler Geräte als Lerninstrumente, zum Beispiel in Form von digitalen Lernkarteien.

Ein Spezialfall ist der EDV- bzw. Informatikunterricht. Dort standen bisher meist Anwenderschulungen von Büroanwendungen im Vordergrund. Für zeitgemäßen Unterricht werden heute auch medienbildnerische Anliegen gefordert, zum Beispiel Informationen zu Urheberrecht und Datenschutz, es sollen Risiken und Potenziale neuer Kommunikationstechnologien aufgegriffen und an aktuellen Entwicklungen aufgezeigt werden (vgl. Kapitel #medienpaedagogik).

Mathematik und naturwissenschaftlicher Unterricht Forschendes und entdeckendes Lernen wird im naturwissenschaftlichen Unterricht mittels Handydokumentation, Peer Review und Ergebnispräsentation unterstützt (z.B. http://www.geogebra.org/cms/de). Zunehmend werden auch virtuelle Experimentiermöglichkeiten angeboten, zum Beispiel: http://www.e-teaching.org/praxis/referenzbeispiele/virtuellelabore.
(Fremd-) Sprachenunterricht Es gibt ein breit gefächertes Web‐Angebot, um Sprachen individuell zu lernen, zu wiederholen und zu üben. Auch werden oft fremdsprachige Webseiten genutzt. Manchmal werden im Rahmen von Projekten auch internationale Freundschaften gebildet und gepflegt, zum Beispiel über Videokonferenzen, E-Mail, Chat, Social Media und ähnliche Kanäle.
Geschichts- und Geografieunterricht Insbesondere interaktives Kartenmaterial ist hier interessant (zum Beispiel http://www.schulatlas.at). In den höheren Schulstufen wird das Internet oft zum Erarbeiten oder zur Dokumentation von Projektarbeiten genutzt, zum Beispiel mit Webquests oder -inquirys, virtuellen Museen, Zeitzeugenseiten, YouTube-Videos, Geocaching u.a.
Musische Fächer Der Fundus an Anschauungsmaterialien und Spezialangeboten im Web ist groß, insbesondere virtuelle Museen erweitern hier die Möglichkeiten, seit 2011 auch über das Google Street View „Art Project“. Im Musikbereich wird in iPad-Klassen gerne mit Apps wie „GarageBand“ gearbeitet. (Links dazu finden sich auf diigo.com. )

Tab.1: Beispiele für den Einsatz von Technologien zum Lernen und Lehren im Schulunterricht

Webangebote für Lernende und Lehrende

Im Web werden von Verlagen zahlreiche elektronische Zusatzmaterialen zu Büchern und Schulbüchern angeboten. Ein Beispiel dafür ist das Online-Angebot SbX (Schulbuch Extra) im Rahmen der österreichischen Schulbuchaktion, wo Schüler/innen Übungs- und Selbsttestmöglichkeiten wie auch Hörtexte und Videoanimationen vorfinden.

Seit 2013 kommen die ersten digitalen Schulbücher auf den Markt, oft noch als digitale Neuauflage der Printbücher, aber zumindest schon mit interaktiven Ansätzen. In Berlin gibt es seit Juli 2013 ein erstes digitales OER-Schulbuch für das Fach Biologie: http://schulbuch-o-mat.oncampus.de/loop/BIOLOGIE_1. Insgesamt nimmt das Angebot an OER-Materialien zu, bisher noch überwiegend im Bereich von Textmaterialien und Vorschlägen zur Unterrichtsgestaltung, zum Beispiel bei rpi für Religion, Philosophie, Gesellschaftswissenschaften und Ähnliches: http://www.rpi-virtuell.net/.Neuerdings (Juli 2013) sind jedoch auch YouTube-Kanäle von Lehrerinnen und Lehrern aus unterschiedlichen Fachrichtungen mit Lehrvideos zu finden, zum Beispielhier: http://www.YouTube.com/watch?v=csETrpD5xmI (deutschstundeonline).

!

Die Abkürzung OER steht für „Open Educational Resources“. Damit bezeichnet man Lern- und Lehrmaterialien, die unter einer Lizenz für geistiges Eigentum veröffentlicht wurden, welche die freie Nutzung und Weiterverwendung durch andere zulässt‎. Durch die Verwendung von OER-Materialien kann man als Lehrperson das Risiko vermeiden, durch unsachgemäßen Einsatz von urheberrechtlich geschützten Materialien (zum Beispiel auf einer Lernplattform) Urheberrechtsverletzungen zu begehen.

Technologieeinsatz in der Schule

Weitere Aspekte der Medienbildung in der Schule

Mediennutzung in der Studien- und Berufsorientierung

Eine zentrale Aufgabe von Schule ist heute die Befähigung der jungen Menschen zu einem gelingenden Einstieg in den ersten Arbeitsmarkt, unabhängig von den vielfältigen und länderspezifischen Wegen dahin. In allen Bereichen des Übergangs Schule-Beruf (inklusive Schule-Studium-Beruf) gibt es strukturelle Ähnlichkeiten: Notwendigkeit einer prozesshaften Potenzialanalyse, Erwerb von Grundkenntnissen über Berufsstruktur und Arbeitsmarkt, Kommunikation mit typischen Vertreter/innen und Vertretern aus den Bereichen etc. Die digitalen Medien stellen gerade angesichts dieser komplexen Anforderungen eine große Hilfe dar.

Im Unterricht kann man die Potenzialanalyse heute über LMS, Schulserver, Schulwikis oder Ähnliches organisieren (Portfolioprinzip) oder sogar durchführen (interaktive Berufsorientierung wie http://berufswahlpass-bochum.de/news/das-neue-5ways4me-ist-online/). Vor allem im Bereich der Studienorientierung nimmt das Angebot an Online-Selfassessment ständig zu (vgl. http://www.studis-online.de/StudInfo/selbsttests.php). Wichtig ist, dass solche Formen von Online-Potenzialanalyse mit den Möglichkeiten des Präsenzunterrichts und der persönlichen Beratung verbunden werden. Im Bereich der Grundkenntnisse über die Arbeitswelt sind multimediale Angebote potenziell aktueller und anschaulicher als Printmedien: Berufskunde kann man heute zum Beispiel über Portale wie „whatchado“ (http://www.whatchado.net/) oder „planet-beruf“ (http://www.planet-beruf.de/‎) interessant gestalten.

Der außerschulische Bereich ist vor allem durch eine zunehmende Vernetzung von Schulen mit Betrieben, Agenturen, Vereinen, Verbänden, Institutionen, weiterführenden Schulen, Hochschulen etc. gekennzeichnet. Dabei werden die offiziellen Verbindungen (Homepage, Internetangebote, netzbegleitete Aktivitäten wie Ausbildungsmessen etc.) zunehmend durch Social-Media-Angebote gespiegelt. Allein die Karriere-Fanpages bei Facebook (https://www.facebook.com/karriere.fanpages)wachsen ständig. Die Kommunikation wird so direkter, intensiver und aktueller. Schüler/innen nehmen aus schulischen Prozessen heraus Kontakt zu Betrieben, weiterführenden Schulen, Hochschulen etc. über Social Media auf, kommunizieren gezielt mit möglichen Ansprechpartnerinnen und -partnern oder bewerben sich für Praktika oder ein Schnupperstudium. Ein wichtiger Aspekt bei allen mediengestützten schulischen und außerschulischen Aktivitäten im Bereich der Studien- und Berufsorientierung ist die Orientierung an den Erfordernissen der Informationsgesellschaft, vor allem an dem zentralen Prinzip des Networking. Die Schüler/innen von heute beherrschen Networking im privaten Bereich hervorragend, müssen aber zu einem großen Teil noch an das professionelle Networking herangeführt werden.

?

Sie wollen als Lehrer/in in der Sekundarschule oder in einer Berufsfachschule das Berufsbild „Mechatroniker/in“ vorstellen. Welche Möglichkeiten eines fachlich angemessenen Videoeinsatzes finden Sie dafür im Netz? Beschränken Sie sich dabei möglichst nicht auf die Plattform YouTube.

Fortbildung für Lehrende, webbasierte Kooperation

Die digitalen Möglichkeiten im Schulbereich können nur dann mit Erfolg bewältigt werden, wenn Lehrer/innen selbst über ein ausreichendes Maß an Medienkompetenz verfügen. In diesem Bereich gibt es schon viele Initiativen (siehe Tabelle 2, siehe auch Kapitel #weiterbildung), die aktuell bestehenden Möglichkeiten werden jedoch nicht ausgeschöpft.

Die institutionalisierte Fortbildung leidet strukturell an einer durchgängigen Unterfinanzierung und an der steigenden Belastung von Lehrenden im Schulalltag. Lichtblicke sind hier Arbeitszeitmodelle wie in Hamburg, wo die Lehrendenfortbildung in die Pflichtstundenzahl einbezogen ist.

Der Erwerb von Medienkompetenz bei Lehrpersonen muss sich heute nicht mehr vornehmlich durch die klassische Fortbildung vollziehen. Ähnlich wie im Wirtschaftsbereich können hier Ansätze wie Lernen 2.0, Workplace Learning, Networking, Social Media in der Unternehmenskommunikation etc. eingesetzt werden. Voraussetzung hierfür ist die Bereitschaft des Personenkreises, sich auf digitale Kommunikation im weitesten Sinn einzulassen. Bei der jüngeren deutschsprachigen Generation an Studierenden bahnt sich eine Entwicklung hin zu Kooperation im Netz an: Wenn man als Suchbegriff bei Facebook „Mathe LK“ oder „Erstsemester“ eingibt, findet man mit der Suchoption „Gruppen“ sofort Hunderte von teilweise sehr großen Gruppen. Die Präsenz von Lehrenden ist in allen Social-Media-Kanälen dagegen noch gering. Auch die Szene von bloggenden Lehrenden im deutschsprachigen Raum ist noch sehr überschaubar. Immerhin gibt es hier jedoch qualitativ herausragende Beispiele wie „Schule Social Media“ (http://schulesocialmedia.com/) von Philippe Wampfler in der Schweiz oder „Shift“ (http://shiftingschool.wordpress.com/) von Lisa Rosa in Hamburg.

Grundsätzlich könnte über all die vorhandenen Kanäle fachliche Kooperation und Kommunikation vollzogen werden. Dabei können engere Fortbildungsaspekte im Vordergrund stehen, wie zum BeispielMaterialaustausch, kollaborative Erarbeitung von Unterrichtsreihen, Diskussion didaktischer Probleme etc., es können aber auch große inhaltliche Bandbreiten bis hin zu sehr speziellen Mediennutzungsfragen abgehandelt werden. Wichtig ist dabei, dass die Lehrer/innen Networking als hilfreich erfahren und diese zentrale Kompetenz für den fachlichen Bereich an die Schüler/innen weitergeben, die diese Kompetenz überwiegend privat nutzen.

Onlinecampus Virtuelle PH http://onlinecampus.virtuelle-ph.at/
Intel Lehren Interaktiv http://www.intel-interaktiv.de/
Lehrer‐Online / Unterrichten mit digitalen Medien http://www.lehrer‐online.de/
Online‐Internetkurs http://www.zum.de/internetkurs/

Tab.2: Beispiel zur Fortbildung von Lehrerinnen und Lehrer im Internet

Technologieeinsatz in der Schule

Zusammenfassung

Medien- und webbasierte Arbeit kann individualisiertes, selbstorganisiertes Lernen fördern, Teamarbeit erfahrbar machen, Networking einüben, technisches Know-How vermitteln oder verbessern, die Studierfähigkeit mitgestalten, lebenslanges Lernen vorbereiten, tendenziell die Verbindung von Arbeit und Freizeit vorbereiten und einen wichtigen Beitrag zu einer modernen Identitätsbildung leisten. Für das System Schule hat eine solche Arbeitsweise potenziell eine hohe Innovationsfunktion, erfordert aber abgesehen von den notwendigen infrastrukturellen Verbesserungen auch hohe Anstrengungen auf allen Ebenen, vor allem im Bereich der Lehrer/innen-Fortbildung und der Lehrer/innen-Kooperation.

?

Suchen Sie sich bei Lehrer‐online.de, ZUM.de, YouTube etc. für den Deutschunterricht der Sekundarstufe Unterrichtsmaterial aus und planen sie einen detaillierten Medieneinsatz. Beschreiben Sie, wie Sie vorgehen, wie Sie die Medien einsetzen und nach welchen Gesichtspunkten Sie das Konzept erstellt haben.

Empfehlungen zur weiteren Lektüre

Seitenumbruch

Technologieeinsatz in der Schule

Literatur

Technologie in der Hochschullehre

Rahmenbedingungen, Strukturen und Modelle

Das Lehren und Lernen mit Technologien bedarf einiger zentraler Grundvoraussetzungen, um sich an den Hochschulen möglichst effizient und nachhaltig etablieren zu können. Der Beitrag fokussiert daher zunächst die bestehenden und zu schaffenden Rahmenbedingungen, wobei der Schwerpunkt auf rechtlichen und organisationalen Fragestellungen liegt. Ausgehend von der ebenfalls notwendigen technischen Infrastruktur werden die besonderen Herausforderungen im Bereich der Präsenz-Massenlehrveranstaltungen analysiert. Konkrete Beispiele vermitteln, wie Technologien hier in Hinblick auf Interaktion, Aufzeichnung und Übertragung sowie bei Prüfungsdurchführungen unterstützen können. Abschließend erfolgt ein Überblick über die sich an den Lehrveranstaltungstypen orientierenden didaktischen Modelle. Beispiele aus der Praxis ergänzen das Kapitel.

Technologie in der Hochschullehre

Einleitung

Universitäten, Fachhochschulen, Pädagogische Hochschulen – der tertiäre Bildungssektor im deutschsprachigen Raum ist von Bildungseinrichtungen unterschiedlichster Ausrichtungen geprägt und gestaltet sich dementsprechend heterogen. Obwohl die einzelnen Hochschultypen jeweils eigenen Gesetzmäßigkeiten – etwa die Voraussetzungen und die konkreten Bedingungen des Studienbetriebs betreffend – folgen und natürlich auch die inhaltliche Ausrichtung der Hochschulen individuell ist, existiert doch eine Reihe von vergleichbaren Rahmenbedingungen und (Infra-)Strukturen, die den Einsatz von Technologien in der Lehre beeinflussen.

Dazu zählen etwa kaum bis gar nicht zu bewältigende Studierendenzahlen in einigen Massenfächern inklusive der damit verbundenen Herausforderungen im Bereich der Massenlehrveranstaltungen oder schlechte Betreuungsverhältnisse zwischen Studierenden und Lehrenden ebenso wie das weitgehende Fehlen von Rechtssicherheit bzw. von entsprechenden Anreizsystemen beim Einsatz neuer Medien. Während die technische (Grund-)Ausstattung in den Hör- und Lehrsälen immer besser wird und auch an den meisten Hochschulen Lernmanagementsysteme zum Einsatz kommen, existieren derzeit nach wie vor kaum Anreizsysteme für den Einsatz von Bildungstechnologien. Aus- und Weiterbildungsangebote für Lehrende, in denen jene (medien-)didaktischen Fähigkeiten vermittelt werden, die für eine fruchtbare Anreicherung der Hochschullehre um sogenannte E-Learning-Einheiten notwendig sind, sind ebenfalls selten zu finden.

Technologie in der Hochschullehre

Rahmenbedingungen

Um das Lehren und Lernen mit Technologien an einer Hochschule zu fördern, müssen zunächst entsprechende gesellschaftliche Entwicklungen beobachtet und verstanden werden. Danach ist es notwendig, politische, rechtliche und organisationale Rahmenbedingungen zu schaffen, die den Einsatz von Bildungstechnologien begünstigen. Darauf aufbauend gilt es, bestehende (infra-)strukturelle Maßnahmen an die Rahmenbedingungen anzupassen bzw. neue Strukturmaßnahmen zu entwickeln und zu etablieren.

Gesellschaftliche Rahmenbedingungen

Seit der Etablierung des Web 2.0 und der damit einhergehenden technischen Entwicklungen hat sich das Kommunikations- und Interaktionsverhalten drastisch verändert. Soziale Medien wie YouTube, Facebook, Twitter oder Wikipedia erlauben einen massiven Daten- und Informationstransfer, an dem sich jeder und jede relativ einfach beteiligen kann. Technische Geräte wie Smartphones und Tablets sowie die Kommunikationskosten erlebten einen massiven Preisverfall und ermöglichen den weitgehend orts- und zeitunabhängigen Zugang zu diesen Daten und Informationen.

Bei Studienanfängerinnen und -anfängern kann mittlerweile davon ausgegangen werden, dass sie mit der Handhabung dieser Geräte und der dafür verfügbaren Applikationen weitgehend vertraut sind (Bullen et al., 2008; Conole et al., 2006; Ebner & Nagler, 2010; Ebner & Schiefner, 2009; Ebner et al., 2008; Margaryan & Littlejohn, 2008; Ebner et al., 2011; Ebner et al., 2012; Ebner et al., 2013). Dies bedeutet aber nicht automatisch, dass sie diese Technologien auch im Rahmen ihres Studiums nutzen beziehungsweise nutzen können beziehungsweise nutzen wollen. Andererseits zeigen Umfragen, dass Studierende zunehmendes Interesse an E-Learning-Angeboten haben und diese von ihren Hochschulen auch einfordern. So etwa gaben drei Viertel der 155 befragten Studierenden, die im Rahmen eines Pilotversuches der Universität Graz im Wintersemester 2011 einen Teil ihrer Lehrveranstaltungen als Podcasts zur Verfügung gestellt bekamen, an, dass weitere Lehrveranstaltungen aufgezeichnet werden sollten (nicht veröffentlichte Studie der Akademie für Neue Medien und Wissenstransfer der Universität Graz). Die Möglichkeit des zeit- und ortsunabhängigen Lernens spielt dabei eine immer bedeutendere Rolle, sei es, weil Studierende ihre Ausbildung nebenberuflich absolvieren, nicht an ihrem Studienort wohnen oder Betreuungspflichten haben. Hochschulen sind hier gefordert, entsprechende Angebote zu entwickeln und bereitzustellen.

Auf europäischer Ebene bildet dafür E-Bologna die Basis. 1999 wurde der Bildungsreformprozess in der Europäischen Union mit der Unterzeichnung der „Bologna-Deklaration“ begonnen (Van den Branden, 2004). Und obwohl die Idee vom Lehren und Lernen mit digitalen Medien bereits 1992 im Vertrag von Maastricht angedacht war, bedurfte es der E-Learning-Initiative „eLearning – Designing tomorrow’s education“ als Teil des „eEurope Aktionsplans“ aus dem Jahr 2000 (Commission of the European Communities, 2000), um E-Learning strategisch zu verankern und um damit Lernenden eine virtuelle Mobilität zu ermöglichen. 2002 startete die European Association of Distance Teaching Universities schließlich die E-Bologna-Initiative (EADTU, 2003), deren wichtigste Aspekte die Internationalisierung von E-Learning sowie die Förderung der virtuellen Mobilität von Studierenden, Lehrenden und Lehrveranstaltungen darstellen (Bang, 2005).

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Auf nationaler Ebene müssen Hochschulen und die für sie zuständigen Ministerien gemeinsam Strategien entwickeln und Rahmenbedingungen schaffen, um den Einsatz von Bildungstechnologien zu fördern. Besondere Bedeutung kommt hier den rechtlichen und den organisationalen Rahmenbedingungen zu.

Rechtliche Rahmenbedingungen

Obwohl verschiedenste Formen von E-Learning bereits seit mehr als einem Jahrzehnt Anwendung an Hochschulen finden, sind viele damit verbundene rechtliche Fragestellungen nicht ausreichend beantwortet. Die Novellierung des Urheberrechtes wurde beziehungsweise wird in Deutschland und Österreich daher ausführlich diskutiert. Im Mittelpunkt steht hier die Tatsache, dass für den Lehrbetrieb im tertiären Bildungssektor keine klaren Regelungen einerseits für die Verwendung von geschützten und andererseits für den Umgang mit neu erstellten (teilweise auf Creative-Commons-Lizenzen basierenden) Lehrmaterialien existieren. Diese Rechtsunsicherheit führt zu einem sehr verhaltenen Einsatz von Bildungstechnologien, gleichzeitig kommt es durch CC-Lizenzen zu einem veränderten Nutzungs- und Publikationsverhalten.

Eine ausführliche Darstellung der Rechtslage in Deutschland und Österreich vermittelt Schöwerling (2007), eine aktuelle Einführung in die Bereiche Open Access, Open Educational Resources und Creative Commons geben Stührenberg und Seitz (2013) (siehe Kapitel #recht #openness).

!

Zum Umgang mit dem Urheberrecht gibt es bei http://e-teaching.org/projekte/rechte/ eine Sammlung von Leitfäden. Antworten zum österreichischen Urheberrecht bietet der Verein Forum neue Medien in der Lehre (http://fnm-austria.at/services/elearning-rechtsportal.html).

Organisationale und technische Rahmenbedingungen

Um Lehrende und Studierende zum Einsatz von Bildungstechnologien zu motivieren, bedarf es organisationaler Rahmenbedingungen. Prinzipiell kommen der Hochschule dabei folgende Aufgabenfelder zu (Pfeffer et al., 2005): Zunächst müssen Produkte in Form von elektronischen Materialien definiert und die entsprechenden Inhalte erstellt werden. Die daraus resultierenden Angebote müssen sich an den jeweils angepeilten Zielgruppen orientierten und auf den jeweiligen (Bildungs-)Markt angepasst sein. Viele Hochschulen haben in diesem Bereich schon brauchbare Akzente gesetzt.

Zur Förderung des Einsatzes von Bildungstechnologien gehört auch das Angebot einer entsprechenden technischen Infrastruktur. Neben der Verwaltung und Wartung der notwendigen EDV-Systeme kommt der Bereitstellung eines Lernmanagementsystems (LMS) hier zentrale Bedeutung zu, wobei heute davon auszugehen ist, dass grundsätzlich jede Hochschule über ein LMS verfügt. Allerdings kommen viele unterschiedliche Lösungen – Open-Source-Produkte ebenso wie proprietäre Systeme – zum Einsatz, was den Austausch von Online-Kursen beziehungsweise deren Inhalten zwischen Hochschulen erschwert. Dieser Problematik wird mit der Etablierung von Standards wie z.B. dem Referenzmodell SCORM begegnet. Eine Übersicht zur Entwicklung des technologiegestützten Lernens an deutschsprachigen Hochschulen durch nationale Förder- und Unterstützungsinitiativen (bis 2005) gibt der Sammelband „E-Learning in Europe – Learning Europe“ (Dittler et al., 2005). Die bedarfsorientierte technische Ausstattung von Hörsälen ist ebenfalls essentiell (siehe Kapitel #ipad).

Weitaus weniger ausgeprägt sind Maßnahmen in Hinblick auf die Unterstützung des Personals und die Einbindung von E-Learning in hochschulweite Strategieüberlegungen (die eigentlich am Beginn des Prozesses stehen müssten) (MacKeogh & Fox, 2009). Der Einsatz von Bildungstechnologien ist grundsätzlich mit einem Mehraufwand für die Lehrenden verbunden. Um diesen Mehraufwand zu egalisieren, sind Anreizsysteme – in Form von Geld, Anerkennung und/oder Karriere – notwendig (Kopp & Mittermeir, 2006). Ihre komplexen Strukturen zum Beispiel bei der Vereinheitlichung des Dienstrechtes, der Integration von E-Learning in die Curricula, der Implementierung von Online-Anteilen in die Präsenzlehre oder der Bereitstellung ausreichender personeller und finanzieller Ressourcen lassen die Hochschulen hier aber nur in kleinen Schritten vorankommen.

!

Um das Lehren mit Bildungstechnologien zu fördern, bedarf es seitens der Hochschulen der Produktdefinition, der Unterscheidung von Inhalten, der Positionierung am Markt, der Unterstützung des Personals, der Entwicklung der Organisation und der Bereitstellung der Technologie.

Viele Hochschulen haben mittlerweile eigene E-Learning-Abteilungen etabliert, die Lehrende beim Einsatz von Bildungstechnologien technisch (aber auch didaktisch) unterstützen. Eine Übersicht über die österreichischen Servicestellen für mediengestützte Lehre findet sich im Internetportal www.e-science.at. Fallbeispiele für Landesinitiativen für E-Learning an deutschen Hochschulen finden sich bei Bremer et al. (2010), eine statistische Auswertung über den Status des E-Learning an deutschen Hochschulen bietet Werner (2006).

Dennoch, eine hochschulweite E-Learning-Strategie besteht derzeit höchstens in Ansätzen. Wie ein solcher Ansatz aussehen kann, dokumentiert Bremer (2011) am Beispiel eines dreijährigen hochschulweiten Organisationsentwicklungsprozesses der Goethe-Universität Frankfurt. Dabei wird auch die Wichtigkeit begleitender Beratungs-, Qualifizierungs- und Unterstützungsmaßnahmen für das Personal betont.

Technologie in der Hochschullehre

Herausforderung: Präsenz-Massenlehrveranstaltungen

Massenlehrveranstaltungen – wir denken hier an eine Anzahl von weit über 100 Studierenden – stellen für einige Bereiche der Lehre durchaus eine herausfordernde Situation dar. So sind bei Massenlehrveranstaltungen allein die räumlichen Gegebenheiten des Hörsaals die Methodik und Didaktik beeinflussende Faktoren. Daneben spielt aber besonders die durch die große Hörer- und Hörerinnenzahl bedingt reduzierte Interaktion zwischen Lehrenden und Studierenden eine große Rolle. So werden in Massenlehrveranstaltungen meist nur Stoffmengen an die Lernenden vermittelt, ohne auf individuelle Lernprozesse Rücksicht zu nehmen.

Schon früh befassten sich Bildungswissenschaftlerinnen und Bildungswissenschaftler mit den Ursachen mangelnder Interaktion zwischen Lernenden und Lehrenden (Bligh, 1971; Gleason, 1986). Nach Anderson et al. (2003) lassen sich drei wesentliche Problemfelder identifizieren (Ebner, 2009):

Ein weiteres Problemfeld ist die zeitliche Länge von klassischen Lehrveranstaltungen, die zumindest 45 bis 90 Minuten beträgt. Die durchschnittliche Aufmerksamkeitsspanne ist mit lediglich 20 Minuten deutlich kürzer (Smith, 2001). Daher sollte die Dauer und die zeitliche Strukturierung einer traditionellen Lehrveranstaltung grundsätzlich überdacht werden (Smith, 2001). Durch die meist fehlende Interaktion ist bei Massenlehrveranstaltungen die Problematik Aufmerksamkeitsspanne versus Lehrveranstaltungsdauer noch offensichtlicher ausgeprägt.

Aber nicht nur für das Geschehen im Hörsaal, sondern auch für die Zeit nach der Lehrveranstaltung, also die Prüfungszeit, ergeben sich erschwerende Situationen. Mündliche Prüfungen sind kaum objektiv zu bewältigen und die Korrektur handschriftlich ausgefüllter Tests ist nicht minder zeitaufwändig. Im Folgenden werden nun Ansätze und Lösungsvorschläge diskutiert, die nicht nur, aber speziell für den Einsatz bei Massenlehrveranstaltungen Hilfe anbieten.

Technische Systeme für die Verbesserung der Interaktivität in Massenlehrveranstaltungen

Vergleichbar mit beliebten Fernseh-Rateshows werden auch für Hörsaal- und Konferenzveranstaltungen Abstimmungstools angeboten, über die Anwesende auf Fragen von Lehrenden bzw. Vortragenden durch Klicken einer der Antwortmöglichkeiten meist auf eigens dafür vorgesehenen Geräten ihre Meinung kundtun und damit eine Interaktion auslösen. Nachteile solcher kommerzieller Produkte und Systeme sind der meist sehr hohe Anschaffungspreis, die technische Implementierung vor Ort (sofern nicht durch zeitaufwändiges Austeilen und Einsammeln vollzogen) sowie die örtliche Gebundenheit an einen bestimmten Raum. Solche Systeme kommen durchaus in kleineren Seminaren zum Einsatz, nicht jedoch bei großen Massenlehrveranstaltungen.

Zunehmend werden aber auch Applikationen des Web 2.0 genutzt, um die didaktisch erwünschte Interaktion in Massenlehrveranstaltungen zu erhöhen (Purgathofer & Reinhaler, 2008). So kann das soziale Netzwerk Twitter auch für den begleitenden Einsatz in Lehrveranstaltungen verwendet werden (Ebner, 2011). Ebenso mit Hilfe sogenannter Push-Technologien (direkter, automatisierter, unidirektionaler Informationsfluss von Sender/in zu Empfänger/in) können Studierende Präsentationen von Lehrenden folgend gleichzeitig diese kommentieren und ihre Anmerkungen untereinander teilen. Ein ähnlicher Ansatz wurde an der Technischen Universität Graz (TU Graz) 2009 erforscht und eingesetzt (Ebner, 2009) beziehungsweise kommt heute an der Universität München zum Einsatz (Bry et al., 2011).

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Mit den zunehmenden Möglichkeiten mobiler Endgeräte ergeben sich stets neue Wege, diese Interaktion zu fördern. Der zuvor beschriebene qualitative Ansatz (qualitativ backchannel) hat durchaus eine schon längere Tradition. In jüngster Zeit denkt man durch die Verfügbarkeit der Endgeräte bei den Lernenden über quantitative Ansätze nach (quantitativ backchannel); die BYOD (Bring Your Own Device)-Debatte gerät dadurch zunehmend in den Mittelpunkt. So können zum Beispiel Studierende mit einer entsprechendenApp ihres Smartphones der lehrenden Person Rückmeldung über Verständlichkeit der Inhalte und Tempo des Vortrags geben.

Die lehrende Person ihrerseits sieht alle gesendeten Rückmeldungen ohne Zeitverzögerung gesammelt über eine grafische Darstellung und kann somit darauf schnell reagieren. Die Anonymität der studentischen Angaben entkräftet auch die nach Anderson et al. (2003) postulierten drei wesentliche Problemfelder von Massenlehrveranstaltungen. Der Kasten „### In der Praxis“ stellt Software-Entwicklungen der TU Graz in diesem Zusammenhang vor.

Aufzeichnungs- und Übertragungssysteme für Massenlehrveranstaltungen

Um zum Beispiel den Platzmangel, neue didaktische Szenarien oder Anforderungen in Hinblick auf berufsbegleitende Studien bei Massenlehrveranstaltungen zu bewältigen, wird immer öfter eine parallel zur Lehrveranstaltung stattfindende Übertragung des Hörsaalgeschehens über das Internet angeboten, ein Live-Stream der Lehrveranstaltung also. Studierende müssen demnach nicht mehr unbedingt vor Ort sein, um an der Lehrveranstaltung teilzunehmen. Eine stabile Internetverbindung ist Voraussetzung. Abhängig vom verwendeten Übertragungssystem kann der Stream nach Beenden der Lehrveranstaltung auch später noch als Aufzeichnung erneut und ganz gezielt nach bestimmten Inhalten aufgerufen und konsumiert werden. Aufzeichnungen von Lehrveranstaltungen stellen heute eine wesentliche Bereicherung für den Lehr- und Lernprozess dar (siehe Kapitel #educast). Auch die Übertragung der Lehrveranstaltung von einem Hörsaal in einen anderen ist ein Lösungsansatz für Massenlehrveranstaltungen. Die Übertragung wird im Unterschied zum Live-Stream aber nicht gespeichert und steht damit später auch nicht zu Lernzwecken zur Verfügung. Darüber hinaus besteht heute auch die Möglichkeit, Live-Streams und/oder Aufzeichnungen von Lehrveranstaltungen interaktiv zu gestalten, indem seitens der Lehrenden gezielt Fragen in die Übertragung eingebaut werden, die eine Mitarbeit und Aktivität der Lernenden erfordert.

Technische Systeme für die Verbesserung der Prüfungsdurchführung in Massenlehrveranstaltungen

Die zuvor angesprochene Prüfungsproblematik bei Massenlehrveranstaltungen kann durch digitale Unterstützung entschärft werden. Das Problem stellt sich weniger in der Durchführung als in der Auswertung, Korrektur und Benotung von sehr vielen Einzelprüfungen. Hier können über Computerprogramme durchgeführte Prüfungen aushelfen. Meistens verfügen LMS auch über entsprechende Prüfungsumgebungen, die mittlerweile sehr ausgeklügelte Antwortmöglichkeiten und auch Bewertungsschemen bieten (siehe Kapitel #E-Assessment).

?

Überlegen Sie bitte, welche technischen Systeme Sie im Rahmen von Massenlehrveranstaltungen zusätzlich einsetzen können und mit welchen Vorteilen dieser Einsatz für Sie und/oder Ihre Studierenden verbunden ist.

In der Praxis: Interaktionssysteme für die Lehre an der Technischen Universität Graz

Die an der TU Graz eingesetzten Interaktionssysteme ermöglichen nicht nur Interaktionen vor Ort im Hörsaal, sondern auch bei Lehrveranstaltungen, die über Live-Streams von Studierenden bezogen werden können. Die Systeme sind nicht an Gruppengrößen gebunden und können auf allen internetfähigen Endgeräten eingesetzt werden. Derart ist es beispielsweise Studierenden möglich, anonymisiert vor Ort Lehrenden laufend ein Stimmungsbild über die stattfindende Veranstaltung zu geben (http://backchannel.cnc.io/). Lehrende können (vorbereitete) Fragen mit Antwortmöglichkeiten an ihr Auditorium stellen, die anonymisierten Antworten sofort anzeigen und gegebenenfalls auch speichern (https://realfeedback.tugraz.at/). Eine weitere Entwicklung gewährleistet durch gezielte, teils automatisierte Interaktionsaufforderungen die virtuelle Aufmerksamkeit von Studierenden, die via Live-Streaming einer vortragenden Person folgen und mit dieser auch kommunizieren sollen (http://live.tugraz.at).

Technologie in der Hochschullehre

Didaktische Modelle

Im Gegensatz zur Planung des traditionellen schulischen Unterrichts, der von den Rahmenbedingungen her wenig variiert, ist die Planung klassischer Hochschullehre an Lehrveranstaltungskategorien gebunden und somit – in gewisser Weise – durch spezifische äußere Rahmenbedingungen, wie die Anzahl der zu erwartenden Studierenden, das Vorhandensein von Anwesenheitspflicht oder auch den Grad möglicher Interaktion, vorgegeben (Flender, 2005). Grundsätzlich lassen sich in Abhängigkeit von den Rahmenbedingungen drei Großkategorien unterscheiden: lehrendenorientierte, anwendungsorientierte und interaktive Lehrveranstaltungen (siehe Kapitel #Lerntheorien; Universität Graz, 2013a).

Als lehrendenorientiert sind beispielsweise Vorlesungen zu bezeichnen, Lehrveranstaltungen also, die auf dem Prinzip der Instruktion basieren, in denen kein prüfungsimmanenter Charakter und keine Anwesenheitspflicht oder Beschränkung der Studierendenzahl gilt und in denen der Prüfungsmodus meist summativ durch einen einmaligen Prüfungsakt am Ende des Semesters festgelegt ist. Diese traditionellen „Frontallehrveranstaltungen“ sind nicht selten auch Massenlehrveranstaltungen mit den bereits genannten Problemen. Aus didaktischer Sicht kann diese klassische One-way-Lehre (Flender, 2005) im Sinne einer Studierendenaktivierung nicht nur durch den oben genannten Technologieeinsatz aufgebrochen werden (Ebner, 2009; Hall et al., 2005), sondern auch durch gezielten Einsatz von Interaktions- und Kommunikationsmöglichkeiten auf einem LMS. So kann ein Forum eingerichtet werden, das sich als Interaktionsplattform der Studierenden versteht, indem Studierende Fragen stellen und gegenseitig beantworten können. Die Lehrperson selbst kann in einem angekündigten Rhythmus ungelöste Fragen beantworten oder diese Arbeit an studentische Mitarbeiterinnen und Mitarbeiter übergeben, die ihrerseits Fragen beantworten oder in strukturierter Weise an die Lehrperson weiterleiten können. Aus den häufig gestellten Fragen kann in einem weiteren Schritt ein Forum mit Frequently Asked Questions (FAQ) abgeleitet werden (Budka et al., 2009; Lackner, 2012).

Im Gegensatz dazu sind anwendungsorientierte Lehrveranstaltungen zu sehen, die, wie unter anderem Konstruktions- oder Laborübungen, einen starken Praxisbezug aufweisen. Hier lässt sich die Medienstützung durch eine begleitende Dokumentation des Gelernten in Form von Lerntagebüchern oder Protokollen auf einer Lernplattform erreichen (Lackner, 2012). Auch das Lösen von Fallbeispielen in Form von Simulationen, an die wie in Web-Based-Trainings Quizzes und schriftliche Ausarbeitungen angeschlossen sind, kann zentral auf dem LMS geschehen.

Die interaktive Kategorie umfasst jene Lehrveranstaltungen, in denen Interaktion und Konstruktion von Wissen im Vordergrund stehen. Meist handelt es sich um Veranstaltungen mit prüfungsimmanentem Charakter, die auf dem Prinzip des formativen Assessments aufbauen (Handke & Schäfer, 2012) und neben der Anwesenheitspflicht auch eine Teilnehmendenzahlbeschränkung aufweisen. Hierzu zählen unter anderem Proseminare, Kurse und Seminare, die durch ihre Rahmenbedingungen auch methodische Vielfalt und Abwechslung ermöglichen. Interaktive und studierendenzentrierte Lehrmethoden wie der Flipped Classroom oder das Project-Based-Learning lassen sich in virtuellen und traditionellen Lernsettings ebenso umsetzen wie Game-Based-Learning (#game; Ferriman, 2013), Digital Storytelling (Samusch et al., 2012) oder die traditionellen Formate des Rollenspiels oder Kugellagers (Macke et al., 2012). Als Basis dieses Lehrformats kann ein LMS dienen, auf dem die für die Umsetzung der unterschiedlichen Lehrmethoden notwendigen Werkzeuge und Ressourcen thematisch oder chronologisch geordnet zu finden sind. So eignen sich Forendiskussionen, um das Storyboard eines Digital-Storytelling-Settings zu diskutieren, ein Wiki kann eingesetzt werden, um das Storyboard kollaborativ auszuformulieren und ein Chat zur virtuellen Sprechstunde werden (Lackner, 2012). Durch (un-)beurteilte Lernzielkontrollen mit Feedbackfunktion kann den Lernenden nicht nur ihr individueller Leistungsstand aufgezeigt werden, durch die autokorrektive Konzeptionierbarkeit dieser Übungen wird auch das formative Beurteilen gewährleistet. Die Lehrveranstaltung erlebt, ohne Mehraufwand für die Lehrperson, eine Individualisierung.

?

Ordnen Sie Ihre Lehrveranstaltungen bitte dem Typus „lehrendenorientiert“, „anwendungsorientiert“ oder „interaktiv“ zu und überlegen Sie, welche didaktischen Szenarien Sie bei den einzelnen Typen anwenden können.

In der Praxis

Um Lehrenden der Universität Graz einen Einblick in die didaktischen Möglichkeiten der Hochschullehre zu geben, wurde zum einen das als multimediales E-Book konzipierte Praxishandbuch „Am Anfang steht der leere Kurs“ entwickelt, das neben einer Erklärung der einzelnen Bestandteile eines Moodle-Kurses vor allem den methodisch-didaktischen Aspekt fokussiert und Tipps und Tricks aus der Praxis bereitstellt (Lackner, 2012). Zum anderen wurde die Mediendidaktische Modellsammlung ins Leben gerufen, die Lehrenden, die sich für Medienstützung ihrer Lehre interessieren, Good-Practice-Beispiele aus der Hochschullehre für die Hochschullehre bietet (Universität Graz, 2013b).

Technologie in der Hochschullehre

Literatur

Fernstudium an Hochschulen

Aus Perspektive von Lernenden und Lehrenden

IT-Technologien sind aus dem heutigen Fernstudium nicht wegzudenken, auch wenn das gedruckte Studienmaterial nach wie vor die Basis bildet. Fernstudierende nutzen heute Werkzeuge für den Wissenserwerb sowie zur Kommunikation und Kollaboration. In diesem Beitrag wird dazu exemplarisch vorgestellt, wie Technologien in Lehrkonzepten der Open University UK, der FernUniversität in Hagen und in der Universitat Oberta de Catalunya eingesetzt werden. Abschließend werden Kernaufgaben für Hochschulen und damit auch die Fernuniversitäten abgeleitet.

Fernstudium an Hochschulen

Einleitung

Der Technologieeinsatz im Fernstudium wird von Telekommunikationsformen der jeweiligen Zeit geprägt (siehe Kapitel #fernunterrichtsgeschichte). Auch heute bildet das gedruckte Studienmaterial immer noch den Kern des Lehrmaterials im Fernstudium. Ergänzt wird es, mit Blick auf die technologische Entwicklung, zunehmend durch moderne IT-Technologien.

!

Ziel der Offenen Universitäten beziehungsweise der Fernuniversitäten ist es seit den 1960er Jahren, einen offenen Zugang zur Hochschulbildung für alle Interessierten, vor allem für Berufstätige zu schaffen. Dazu nutzen sie Methoden der Fernlehre und setzen von Anfang an Medien zur Vermittlung wissenschaftlicher Inhalte ein (FeU, 2013a; Peters, 2010; OUUK, 2013).

Zu nennen sind hier heute im Besonderen die Web-2.0-Technologien wie Podcasts, Wikis, Blogs, soziale Netzwerke sowie die zahlreichen Lernplattformen wie Moodle, Ilias und StudIP. Eine weitere für das Fernstudium positive Entwicklung ergibt sich durch die zunehmende Verbreitung von mobilen Endgeräten wie Notebooks, Tablet-Computer und Smartphones.

Fernstudium an Hochschulen

IT-Infrastruktur im heutigen Fernstudium

Diese technologische Entwicklung ist eine treibende Kraft bei der Erstellung des IT-Service-Angebots in der Universität. Entsprechend werden mit einem hohen Stellenwert innovative Technologien zur Unterstützung der Lehre geprüft, bewertet und eingeführt. Dazu gehören zum Beispiel Technologien zur Bereitstellung von Lernmaterialien, zur sozialen Interaktion, zur Medienproduktion bis hin zu Technologien für Leistungskontrolle und -prüfung, Plagiatsprüfung, Datensicherung, Support sowie die Zugangsverwaltung. Das IT-Service-Angebot orientiert sich dabei u.a. am Bedarf bzw. Mehrwert für die Lehre sowie der rechtssicheren Implementierung, der Zuverlässigkeit und Wartbarkeit der einzelnen Technologie (siehe hierzu auch: IT-Wissen, das Online-Lexikon für Informationstechnologien: http://www.itwissen.info/). Weitere Aspekte vor der Einführung neuer Technologien sind die ausreichenden finanziellen Mittel und das Vorhandensein qualifizierten Personals.

Sind die Technologien erst mal in die IT-Architektur der Universität eingebunden, gilt es die Medienkompetenz aller Akteure durch medienspezifische Schulungs- und Beratungsangebote zu unterstützen und zu fördern. Dabei besteht die Notwendigkeit, bestehende Lehrkompetenz auf die E-Lehrkompetenz zu übertragen.

Technologien aus der Sicht der Lehrenden

Viele Lehrende an den Fernuniversitäten haben (nur) Erfahrungen in der traditionellen Präsenzlehre. Zur Konzeption mediengestützter Lehrkonzepte bauen sie auf bereits vorhandene Lehr- und Medienkompetenzen auf oder entwickeln diese direkt in ihrem Berufsalltag.

Erstellung von Studienmaterial: Im Fernstudium werden Studienmaterialien in unterschiedlichen Formaten angeboten. In den meisten Fällen werden diese in den Lehrgebieten selbst erstellt. Dies beinhaltet Studienbriefe zu schreiben und in eine druckfähige Form zu bringen bzw. eine Online-Version zu erzeugen oder auch Audio- und Videocasts zu erstellen (vgl. Kapitel #educast).

?

Mit welchen Medien kann der gedruckte Studienbrief abgelöst werden? Welche Eigenschaften besitzt die neue Variante? Vergleichen Sie Ihre Ideen mit dem Bereich „Erstellung von Inhalten“ im Wiki Lehre Praktisch (http://wiki.fernuni-hagen.de/lehrepraktisch).

Lernkontrolle und Prüfungen: Für die Lernkontrolle im Selbststudium kommen Online-Aufgaben oder -Tests zum Einsatz. Die von den Lehrenden entwickelten und anpassbaren Fragen- bzw. Aufgabenpools stehen dabei in einer Lernplattform oder einem E-Prüfungssystem auf Abruf zur Verfügung. Die Erstellung von Klausuren erfordert ähnliche Kompetenzen (vgl. Kapitel #assessment). Online-Klausuren am PC werden jedoch in der Fernlehre bisher nur selten genutzt. Prüfungen werden zeitgleich an verschiedenen Orten mit großen Teilnahmezahlen durchgeführt. Die hierfür erforderliche IT-Infrastruktur müsste mit hohem organisatorischen und technischen Aufwand bereitgestellt werden. Eine weitere Prüfungsleistung kann durch E-Portfolios erfolgen, die zunehmend ins Lehrkonzept aufgenommen werden (einen guten Überblick bietet hierzu das E-Assessment und E-Klausuren Wiki des ELAN e.V.: http://ep.elan-ev.de/wiki/Hauptseite).

Betreuung: Die Betreuung heterogener Zielgruppen und oft großer Teilnahmezahlen (mehrere hundert bis mehrere tausend in einem Lernraum) stellt eine besondere Herausforderung dar. Lehrende werden mit einer Vielzahl von Werkzeugen, vom Forum im Lernmanagementsystem über Social Media bis zum virtuellen Klassenzimmer, konfrontiert und müssen situationsgerecht passende Methoden und Werkzeuge kombinieren, wie Diskussionen in Foren, Reflexionen im Blog, Erstellung von Essays und Bewertung im Peer-Review-Verfahren mittels Datenbank oder Fallbesprechungen im virtuellen Klassenzimmer.

Selbstorganisation: Das Fernstudium zeichnet sich durch eine große Flexibilität aus, die mit hohen Anforderungen an Zeitmanagement und Organisationsfähigkeit der Studierenden und Lehrenden einhergeht. Das Lehrpersonal unterstützt bei der Orientierung in den virtuellen Angeboten und zeigt Wege auf, wo Lehrinhalte, Übungen, (virtuelle) Sprechstunden und Seminare sowie allgemeine Informationen zu finden sind.

!

Der Einsatz von Technologien erfordert eine hohe Flexibilität und Lernbereitschaft seitens der Lehrenden. Um ihren Aufgaben der Vermittlung, Aktivierung und Betreuung (Reinmann, 2012) nachzukommen, müssen sie sich auf unterschiedlichste Tools und deren didaktische Nutzung einlassen und sich fortlaufend weiterbilden.

Technologien aus der Sicht der Studierenden

Die Studierenden an den Fernuniversitäten sind im Durchschnitt Anfang 30, haben häufig eine berufliche Erstausbildung absolviert, sind erwerbstätig oder befinden sich in der Familienphase. Zudem hat nicht jeder Studierende das Abitur (FeU, 2013b). Motive für die Aufnahme eines Fernstudiums sind vielfach der Wunsch nach einer beruflichen Qualifizierung oder einer Aufstiegsfortbildung.

Technologien im Selbststudium: Studiert wird zeit- und ortsunabhängig. Es kommen Technologien wie der Desktop-Computer, das Notebook und immer häufiger auch das Tablet sowie das Smartphone zum Einsatz. Dabei werden nicht ausschließlich die zentralen Plattformen wie die zentralen E-Learning- und E-Assessment-Systeme sowie anhängende Lernmaterialien zum Lernen genutzt. Ein Trend, der sich bei den Studierenden zunehmend zeigt, ist das vermehrte selbstorganisierte Einbinden von Kommunikationswerkzeugen, wie zum Beispiel Facebook zum gemeinsamen Lernen, Dropbox zum Datenaustausch, Prezi zur Präsentation und verschiedene Apps wie Evernote Peek oder FlashCard Deluxe, die das Lernen unterstützen. Ein weiterer Trend ist die Nutzung von kostenfrei verfügbaren Lernmaterialien aus dem Internet wie zum Beispiel aus MOOCs oder bei Youtube. Auch werden immer häufiger eigene Lerninhalte ins Netz gestellt (nutzergenerierte Inhalte) und mit anderen diskutiert und weiterentwickelt. Werkzeuge wie Blogs, Wikis und Foren sowie andere Plattformen wie Facebook und Youtube werden hier genutzt (http://lerngerecht.de/index.php/e-szenarien).

!

Das Studium, insbesondere das Fernstudium, stellt hohe Ansprüche an die Studierenden hinsichtlich des Selbstlernens und der Organisation. Die Unterstützung durch entsprechende Technologien ist an dieser Stelle kaum noch wegzudenken.

Vor diesem Hintergrund wird deutlich, dass die heutigen Studierenden nicht mehr nur die zentralen Angebote der Universität nutzen, sondern individuelle Lernwege wählen, die oft weit entfernt von der IT-Infrastruktur der Universitäten sowie den mediengestützten Szenarien der Lehrenden liegen (Grosch und Gidion, 2011; MMB, 2012). Dieser sehr offene Lernraum ist aber auch eine Bedingung für ein erfolgreiches selbstorganisiertes Studium und damit ein ideales Lernkonzept im Fernstudium.

?

Überlegen Sie, welche Werkzeuge, über die bereits genannten hinaus, Studierende beim Fernstudium unterstützen können und zu welchem Zweck sie eingesetzt werden. Vergleichen Sie Ihre Ideen mit Tabelle 1.

Zweck Werkzeug
Inhalte/Texte gemeinsam diskutieren; Klärung von Verständnisfragen; Inhalte gegenseitig erläutern soziale Netzwerke, z.B. Facebook-Gruppe; Instant Messenger, z.B. ICQ; Voice over IP (VoIP), z.B. Skype
gemeinsame Referate/Hausarbeiten/Projektarbeiten erstellen cloudbasierte Textverarbeitungsprogramme, z.B. Google Drive, Etherpad; Dateiaustauschtools, z.B. Dropbox
zusätzliche Quelle sammeln und austauschen Bookmarking-Dienste, z.B. Diigo; Literaturverwaltungsdienste, z.B. Zotero
Erstellung von Zusammenfassungen Tools, mit denen Notizen und Artefakte gesammelt und geordnet werden können, z.B. Evernote, OneNote
Erstellung beispielhafter Klausurfragen und Lerninhalte wiederholen Karteikartensysteme, z.B. Cobocards; Flashcard Deluxe, Abfrage-Apps, z.B. Evernote Peek, VCE mobile

Tab.1: Lernzwecke und passende Werkzeuge

Fernstudium an Hochschulen

Hochschullehre im Wandel

Die IT-Technologien, wie digitale Lernmedien und mobile Endgeräte, sind aus der Bildungslandschaft nicht mehr wegzudenken und besonders im Fernstudium zwingend notwendig, da sie das vernetzte Selbstlernen unterstützen und fördern. Dabei darf nicht übersehen werden, dass die Studierenden ihre eigenen Lernwege und damit auch ihre eigenen IT-Technologien wählen wollen (Grosch und Gidion, 2011). Auch wenn sich die Studie auf Präsenzstudierende bezieht, ist zu vermuten, dass die Ergebnisse auf die Zielgruppe der Fernstudierenden übertragbar sind. Eine strikte Vorgabe durch die Lehre bzw. IT-Infrastruktur ist schon heute nicht mehr erwünscht. Ziel sollte es also sein, Lernumgebungen zu schaffen, die sich an die individuellen Lernbedürfnisse anpassen lassen. Das setzt voraus, dass die Hochschulen und damit auch die Fernuniversitäten einen ganzheitlichen Wandel vollziehen, der organisatorische sowie technologische Bereiche umfasst. Daraus lassen sich folgende Kernaufgaben ableiten:

Diese Überlegungen können als direkte Konsequenz zu den Forderungen verstanden werden, die Delors bereits 1998 aufstellte. Er wies darauf hin, dass der Zugang zu Daten und Fakten in der Informationsgesellschaft immer leichter wird und dass das Bildungswesen daher jede/n befähigen sollte, Informationen zu sammeln, auszuwählen, zu verwalten und zu nutzen. Der technische Fortschritt bestärkt diese Forderung und stellt Mittel und Wege bereit, dieses Ziel insbesondere in der Hochschulbildung zu verwirklichen und die Studierenden damit fit für die Zukunft zu machen.

Fernstudium an Hochschulen

Exemplarische Lehrkonzepte von Fernuniversitäten

Wie sich die Technologien ins Lehrkonzept einbinden lassen und welche Anforderungen sich für die Beteiligten ergeben, wird im Folgenden veranschaulicht. Als erstes Beispiel wird auf die Open University UK als größte Fernuniversität Europas eingegangen. Es folgt die Darstellung fachspezifischer Lehrkonzepte aus der einzigen staatlichen, deutschsprachigen FernUniversität in Hagen. Abschließend wird das Lehrmodell der Universitat Oberta de Catalunya als Beispiel für eine relativ junge und innovative Online-Universität vorgestellt.

Technologieeinsatz in der Open University UK (OUUK)

Die Open University in Großbritannien (gegründet 1969) setzte anfangs ganz traditionell auf gedrucktes Studienmaterial, welches durch Lehrfilme, die in Kooperation mit der BBC entstanden, und Präsenzbetreuung von Kleingruppen durch Tutorinnen und Tutoren in den Studienzentren ergänzt wurde. Seit knapp zehn Jahren wird ein umfassend angepasstes Moodle als zentrale Lernplattform genutzt. Darüber hinaus werden eigene, freie Lerninhalte über die Plattform Open Learn (http://www.open.edu/openlearn/) bereitgestellt. Im Open Learn Labspace (http://labspace.open.ac.uk/) werden ferner allgemein verfügbare Open Educational Resources (OER) gebündelt angeboten (vgl. Kapitel #openness). Zukünftig will die Open University noch mehr IT-Technologien einsetzen und die Abhängigkeit vom gedruckten Studienmaterial verringern. Damit soll neben einer Optimierung der Geschäftsprozesse auch die Gestaltungsmöglichkeit der Studierenden für eigene Lernwege verbessert werden (OUUK, 2012).

Lehrszenarien aus der FernUniversität in Hagen

Der neben dem gedruckten Studienbrief vorhandene „Werkzeugbaukasten“ der FernUniversität in Hagen enthält eine Vielzahl von historisch gewachsenen IT-Tools für die Präsentation des Lehrangebots, der Lehrinhalte sowie für die Kommunikation zwischen Lehrpersonal und Studierenden und für die Vernetzung der Studierenden selbst. Einen guten Überblick hierüber bietet das Wiki „Lehre Praktisch“ (http://wiki.fernuni-hagen.de/lehrepraktisch). Dabei liegt der Medienmix in der Hand der Lehrenden und ist je nach Lehr-/Lernszenario unterschiedlich. Als zentrale Lernplattform wird Moodle eingesetzt, für Online-Übungen eine Eigenentwicklung. Klausuren können als Scan-Klausuren mit automatischer Auswertung angeboten werden. Ebenso werden mündliche Prüfungen bei Bedarf als Videoprüfungen durchgeführt.

In der Praxis: Betreuung großer Teilnehmerzahlen bei der FernUniversität Hagen mit Moodle

Moodle ist in vielen Studiengängen in das Betreuungskonzept eingebunden. Es haben sich unterschiedliche, fachspezifische Lehrszenarien herausgebildet, vom Moodle-Kurs als Material-Container über zeitlich strukturierte Lesekurse mit thematisch analogen und moderierten Foren bis zur kollaborativen Wissenskonstruktion in Lernaktivitäten wie Wikis oder Datenbanken. Es folgen einige beispielhafte Szenarien:

Lehrmodell der Universitat Oberta de Catalunya (UOC)

Im Lehrmodell der UOC steht die Lernaktivät, die jeweils einen Teil des summativen Assessments ausmacht, im Mittelpunkt des Lernprozesses (UOC, 2009). Ressourcen, Betreuungsangebote und Kollaborationsmöglichkeiten werden, entsprechend des Szenarios, um eine Lernaktivität herum angeordnet. Wird in einem Szenario beispielsweise Wert auf den Diskurs des Inhalts gelegt, werden entsprechende Kommunikations- und Kollaborationstools angeboten. Sollen Studierende, im Sinne der nutzergenerierten Inhalte, die Lehrinhalte um eigene Beiträge erweitern und ergänzen, werden entsprechende Tools, wie etwa Blogs oder cloudbasierte Textverarbeitungsprogramme, zur gemeinsamen Erstellung, Diskussion und Verbreitung zur Verfügung gestellt und müssen Kriterien angeboten werden, die zur Qualitätssicherung herangezogen werden können. Die einzelnen Lernaktivitäten werden zu Beginn jedes neuen Semesters in Lernumgebungen im Virtual Campus der UOC angelegt. Eine solche Lernumgebung steht maximal 80 Studierenden zur Verfügung und wird jeweils von einer Tutorin oder einem Tutor betreut. Um den Lernprozess erfolgreich abzuschließen, müssen die Studierenden die einzelnen Aufgaben bearbeiten und eine kurze Onlineklausur am Ende des Semesters mitschreiben.

Fernstudium an Hochschulen

Literatur

Webbasiertes Lernen in Unternehmen

Entscheider/innen, Zielgruppen, Lernformen und Erfolgsfaktoren

Dieses Kapitel geht auf die Rahmenbedingungen des technologiegestützten Lernens und Lehrens ein, die für den Einsatz im Unternehmenskontext prägend sind. Es werden die wichtigsten Gründe und Motive des Technologieeinsatzes erläutert und die an Einführung und Einsatz beteiligten Unternehmensbereiche vorgestellt. Danach wird dargelegt, für welche Zielgruppen im Unternehmen sich technologiegestützte Lernangebote anbieten. Dazu werden die – mit Blick auf aktuelle Umfragen – am häufigsten eingesetzten Formen und Themen des technologiegestützten Lernens und Lehrens beschrieben. Auch werden die Erfolgsfaktoren genannt, die bei der Einführung entsprechender Lernformen und -technologien in Unternehmen zu beachten sind. Da bei diesem Themenfeld der Einsatz von webbasiertem Lernen am besten dokumentiert ist, liegt hier ein Schwerpunkt der Darstellung. Betrachtet wird außerdem vor allem die Weiterbildungspraxis in Großunternehmen. Mit einem Ausblick und weiterführenden Literaturhinweisen schließt das Kapitel.

Webbasiertes Lernen in Unternehmen

Hintergrund

Webbasiertes Lernen als die am häufigsten diskutierte Form des technologiegestützten Lernens wird in mehr als der Hälfte (55%) der Top-500-Unternehmen in Deutschland eingesetzt. Das ergab eine telefonische Befragung im Frühjahr 2009 (MMB, 2010). Nachholbedarf haben vor allem klein- und mittelständische Unternehmen, heißt es an anderer Stelle (Scheer, 2009). Doch diese Zahlen können nicht darüber hinwegtäuschen: Auch wenn das technologiegestützte Lernen in vielen Branchen und Unternehmen bereits eine lange Geschichte hat, ist die Informationslage bis heute unzureichend. Es dominieren Branchen-News, Erfolgsberichte und „Best Practices“. Es gibt wenig Standardliteratur, die sich ausschließlich den Besonderheiten des technologiegestützten Lernens in Unternehmen widmet, kaum repräsentative Erhebungen zum Stand des Einsatzes von Lernmedien in der betrieblichen Weiterbildung, und es mangelt – wie in der gesamten Weiterbildung – an Evaluationen, in deren Rahmen überprüft wird, ob die mit der Einführung einzelner Lernmedien gesteckten Ziele auch erreicht wurden.

Webbasiertes Lernen in Unternehmen

Die Gründe des Technologieeinsatzes

Die Globalisierung sowie der technologische und demografische Wandel sind die großen Herausforderungen, vor denen Unternehmen und Mitarbeitende heute stehen. Notwendige Produktivitätssteigerungen verlangen neue Formen der Organisation, der Vernetzung, der Kollaboration und Partizipation. Die damit verbundenen Veränderungen werden als Transformation zum Enterprise 2.0 oder Social Business beschrieben (Sauter & Sauter, i.D.). Unter Enterprise 2.0 werden Unternehmen verstanden, die Social-Media-Plattformen und Tools in der organisationsinternen Kommunikation, aber auch in der Kommunikation mit Partnerinnen und Partnern sowie Kundinnen und Kunden nutzen (McAfee, 2009). Damit geht der Wandel zum Social Business einher, zu „einem partizipativen Unternehmen, in dem das Wissen des Unternehmens vermehrt über Netzwerke (Communitys) ausgetauscht wird“ (Schütt, 2013). Der Einsatz von Technologien und Medien in der Weiterbildung ist einerseits Teil dieses Wandels und andererseits Teil der Antwort der Weiterbildung auf die genannten Herausforderungen.

Die fortschreitende Globalisierung, die Zusammenarbeit von Teams und Arbeitsgruppen im Netz sowie neue Wertschöpfungsketten, die auch die Beteiligten bei der Lieferung sowie Endkundinnen bzw. -kunden einschließen können, bedeuten heute, dass Bildungsangebote schnell und flexibel zur Verfügung stehen müssen und dass Mitarbeitende bzw. Lerngruppen über große Entfernungen gemeinsam an Bildungsprozessen teilnehmen. Erst der Einsatz von webbasierten Lerntechnologien erlaubt es Mitarbeitenden, orts- und zeitunabhängig Lernprozesse zu initiieren und diese individuell zu gestalten.

Der technologische Wandel hat dazu geführt, dass im Produktions- wie im Dienstleistungsbereich immer mehr Arbeitsprozesse in immer größerem Umfang computer- bzw. netzgestützt stattfinden. Das Netz (Internet, Intranet) ist die Grundlage für eine wachsende Zahl von Geschäftsmodellen, Kundenbeziehungen sowie Prozessen und Instrumenten des Personalmanagements. Das legt nahe, zur Entwicklung entsprechender Kompetenzen von Mitarbeitenden auch in der Personalentwicklung auf das technologiegestützte Lernen zu setzen. Hinzu kommt, dass immer mehr Mitarbeitende mit neuen Technologien und Medien aufwachsen. Die Rede ist von der Generation C („connected, communicating, content-centric, computerized, community-oriented, always clicking“; Friedrich, Peterson & Koster, 2011), die seit den 1990er Jahren heranwächst und durch weltweite Vernetzung, aktive Mitwirkung in Sozialen Netzwerken und mobilen Netzzugang geprägt ist. Damit fällt nicht nur eine Hürde für den breiten Einsatz von Bildungsmedien weg. Es führt in den Augen vieler auch dazu, dass zukünftige Generationen von Arbeitnehmenden aktiv den Einsatz von Medien, Netztechnologien und Online-Communitys für ihre Lernumgebungen und Lernprozesse fordern werden (Haythornthwite et al., 2007).

Bis heute sind die Kostenvorteile ein gerne angeführtes Argument für die Einführung von E-Learning (BITKOM, 2009). Zusätzlich wird auch gerne auf die Skalierbarkeit der neuen Bildungsangebote sowie ihre schnellere Aktualisierbarkeit hingewiesen. Daran ändert auch der Umstand nichts, dass nur wenige Unternehmen den Return on Investment (ROI) ihrer Online-Lernangebote nachweisen können (Käpplinger, 2009).

Zunehmend gewinnt jedoch die veränderte Zielorientierung betrieblicher Bildung für das technologiegestützte Lernen an Bedeutung. Standen bisher vor allem Wissensvermittlung und Qualifizierung im Vordergrund, so ist nun die Kompetenzentwicklung, d.h. die Fähigkeit zur selbstorganisierten Lösung von Problemstellungen in der Praxis, das Ziel. Sie geht einher mit einer fortschreitenden Integration von Arbeits- und Lernprozessen sowie der verstärkten Aufmerksamkeit für den informellen Erfahrungsaustausch, z.B. in Communities of Practice. Diese Entwicklung wird gestützt durch unternehmensinterne soziale Plattformen. Informelles Lernen tritt zunehmend an die Stelle formeller Lernstrukturen.

!

Die Globalisierung, die Dezentralisierung von Arbeitsprozessen, der technologische Wandel sowie die Suche nach Kosteneinsparungen sind wesentliche Treiber für die Einführung neuer Lerntechnologien in Unternehmen.

Webbasiertes Lernen in Unternehmen

Die Entscheider/innen

Das technologiegestützte Lernen ist ein Thema, das in der Regel verschiedene Kompetenzen und Verantwortlichkeiten in Unternehmen adressiert und – im günstigen Fall – zusammenführt:

Im Einzelfall können weitere Unternehmensbereiche, wie Interne Kommunikation oder Marketing, an der Entwicklung des technologiegestützten Lernens beteiligt sein. Dabei ist zu beachten, dass in Deutschland das technologiegestützte Lernen als Berufsbildung im Sinne des Betriebsverfassungsgesetzes der Mitbestimmung unterliegt. Deshalb gibt es in vielen Unternehmen Betriebsvereinbarungen, die zum Beispiel den Einsatz von E-Learning regeln (Heidemann, 2009).

!

Die Geschäftsführung, das Personalmanagement bzw. die Personalentwicklung, IT-Abteilungen sowie die einzelnen Geschäftsbereiche eines Unternehmens sind die „klassischen“ Anlaufstellen für die Gestaltung des Rahmens, in dem das technologiegestützte Lernen stattfindet. In kompetenzorientierten Lernumgebungen und -systemen entscheiden zunehmend die Lernenden selbst, evtl. mit Unterstützung ihrer Führungskraft, eines Coaches oder einer Lernpartnerin/eines Lernpartners, wie sie ihre individuellen Lernprozesse im Arbeitsprozess selbstorganisiert gestalten.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Abb. 1: E-Learning-Formen in der betrieblichen Weiterbildung
Abb. 1: E-Learning-Formen in der betrieblichen Weiterbildung
Webbasiertes Lernen in Unternehmen

Die Zielgruppen

Technologiegestütztes Lernen wird heute grundsätzlich von allen Zielgruppen in Unternehmen genutzt. Bei der Entscheidung, ob sich neue Lernmedien für eine bestimmte Zielgruppe eignen, orientiert man sich in der Regel an zwei Fragestellungen, die unmittelbar mit den Bedürfnissen und Erfahrungen der Zielgruppe verbunden sind: Das ist zum einen die Frage, inwieweit die Zielgruppe in der Lage ist, selbstorganisiert zu arbeiten und zu lernen oder ob sie durch ein Thema bzw. Lernprogramm geführt werden muss. Expertinnen und Experten, die eher informell lernen, nutzen dabei zum Beispiel Social-Media-Plattformen und Communitys im Internet. Ihnen gegenüber stehen Neueinsteiger/inn/en in ein Themengebiet, die ein formales, strukturiertes Trainingsangebot in Form eines Web-Based Training vorziehen (Rosenberg, 2006, 94). Das ist zum anderen die Frage, welche Erfahrungen die jeweilige Zielgruppe mit Formen des technologiegestützten Lernens besitzt. Hier sind sowohl Medien- wie Lernkompetenzen der Mitarbeitenden angesprochen, mittelbar aber auch die organisatorischen und lernkulturellen Rahmenbedingungen, die das technologiegestützte Lernen im Unternehmen fördern oder behindern können. Zuletzt: Technologiegestützte Lernangebote müssen sich nicht ausschließlich an die eigenen Mitarbeitenden richten. Viele Unternehmen haben zum Beispiel E-Learning als Vertriebs- und Marketinginstrument entdeckt und beziehen Vertriebspartner/innen, Lieferantinnen und Lieferanten sowie die Endkundinnen und -kunden in ihre Bildungsprozesse ein (auch: „Customer-Focused E-Learning“ oder „EduCommerce“; Montandon, 2004; Stoller-Schai, 2012).

!

Grundlage des Einsatzes von Bildungstechnologien sind Zielgruppenanalysen, welche die Lern- und Medienkompetenzen von Mitarbeitenden berücksichtigen.

Webbasiertes Lernen in Unternehmen

Die Lernformen und Themengebiete

Unternehmen steht heute in der betrieblichen Weiterbildung eine breite Palette an Lerntechnologien und -formen zur Verfügung: Sie umfasst das selbstgesteuerte Lernen am Computer (WBT, CBT), live geführte Online-Trainings („virtuelle Klassenzimmer“), Online-Kurse, Simulationen, spielerische Lernformate („game-based learning“, „serious games“) und virtuelle Welten, den Wissensaustausch durch Social-Media-Instrumente (zum Beispiel Weblogs, Podcasts, Wikis), Communitys, Foren, Chats, Computer in Seminaren oder Workshops, mobiles Lernen („mobile learning“) sowie Formen des E-Coachings und E-Mentorings.

Abb. 2: Formen des digitalen Lernens. 2008 waren nur die dunkelblau dargestellten Lernformen auf dem Markt; 2013 waren es bereits 23 Lernformen bzw. Lerntechnologien
Abb. 2: Formen des digitalen Lernens. 2008 waren nur die dunkelblau dargestellten Lernformen auf dem Markt; 2013 waren es bereits 23 Lernformen bzw. Lerntechnologien

Grundsätzlich können mit webbasierten Lerntechnologien und -formen sowohl formelle als auch informelle Lernprozesse über alle Themengebiete hinweg ermöglicht bzw. unterstützt werden. Während für das formelle Lernen mit dem Ziel des Wissensaufbaus und der Qualifikation vor allem Lernplattformen, WBTs und Webinare genutzt werden, wird das informelle Lernen im Prozess der Arbeit durch Social-Media-Plattformen und -Instrumente unterstützt.

Webbasiertes Lernen in Unternehmen

Drei Entwicklungsstufen des computer- und netzgestützten Lernens in Unternehmen

Seit Beginn der 1990er Jahre setzen Unternehmen auf computergestützte Lernformen. Ihr Einsatz lässt sich in drei Entwicklungsstufen zusammenfassen, wobei anzumerken ist, dass sich jedes einzelne Unternehmen heute in der Phase befindet, die seiner Lernkultur und Bildungsstrategie entspricht:

In der ersten Phase (ab 1990) wurden Trainingsinhalte in großer Zahl für das Lernen am Computer aufbereitet. In vielen Großunternehmen wurden Lernstationen dafür eingerichtet. „Multimedia“, das 1995 von Gesellschaft für deutsche Sprache (GfdS) publizierte Wort des Jahres in Deutschland, wurde zum Zugpferd für die Entwicklung aufwändig aufbereiteter Lernprogramme. Um diese Angebote verwalten (das heißt: verteilen, freischalten, buchen, verrechnen, auswerten) zu können, wurden vor allem in Großunternehmen Lernplattformen eingeführt. Präsenzlernen und das Lernen am Computer existieren meist parallel und unabhängig voneinander.

In der zweiten Phase (ab 2002) werden Präsenzlernen und das Lernen am Computer verknüpft: Blended-Learning-Konzepte (engl. „blended learning“, dt. „vermischtes Lernen“) werden entwickelt, um in integrierten Lernkonzepten die Vorteile beider Lehr-/Lernformen zu nutzen. Im Idealfall werden Selbst-Lernphasen am Computer bzw. im Netz auf der Grundlage von in einem Kickoff getroffenen Vereinbarungen weitgehend selbstorganisiert durchgeführt, und die Lerner dabei durch E-Tutorinnen und –tutoren oder E-Coaches begleitet.

In der dritten Phase (ab 2006) gewinnt der Einsatz von Social Media (Web-2.0-Instrumenten) zur Unterstützung des informellen Lernens an Bedeutung. Die neuen Netztechnologien eröffnen Möglichkeiten des Wissensaustausches, die Arbeits- und Lernprozesse enger verbinden (Hart, 2011). Damit wird kollaboratives Arbeiten und Lernen im Netz möglich. Arbeiten und Lernen rücken näher zusammen.

!

In den letzten Jahren hat sich der Einsatz von computer- und webgestützten Lernformen schrittweise um Blended-Learning-Konzepte sowie – in jüngster Zeit – um Social-Media-Bausteine erweitert.

In der Praxis: Gespraech mit Martin Raske (Credit Suisse)

Im L3T-Video mit Martin Raske (Credit Suisse) berichtet dieser über aktuelle E-Learning-Entwicklungen in Unternehmen. Das Video ist bei YouTube in der L3T-Sammlung zugänglich. (URL: http://www.youtube.com/watch?v=Hhns0DRPI44)

Webbasiertes Lernen in Unternehmen

Kriterien für den Einsatz von Technologien und Lernformen

Die Entscheidung für den Einsatz einer bestimmten Lerntechnologie bzw. -form und damit für ein bestimmtes didaktisches Szenario (Reinmann, 2010) hängt von verschiedenen Kriterien ab:

?

Überlegen Sie, warum bis heute nur wenige Unternehmen Social Media in ihre Lernsysteme integriert haben.

Abb. 3: Themen in der Weiterbildung, bei denen E-Learning in Unternehmen eingesetzt wird (n=51, Angabenin Prozent). Quelle: MMB, 2010
Abb. 3: Themen in der Weiterbildung, bei denen E-Learning in Unternehmen eingesetzt wird (n=51, Angabenin Prozent). Quelle: MMB, 2010
Webbasiertes Lernen in Unternehmen

Die Erfolgsfaktoren

„If we build it, will they come?“ fragte schon 2001 selbstkritisch der amerikanische E-Learning-Experte Elliott Masie (2001). Und er hielt fest, dass es keineswegs ausreicht, E-Learning-Programme einfach Mitarbeitenden zur Verfügung zu stellen und dann abzuwarten. Will man, dass das „Neue“ akzeptiert und genutzt wird, helfen konkrete Maßnahmen und Prozesse, die die Einführung bzw. den Wandel begleiten und unterstützen. Zu den wichtigsten Erfolgsfaktoren, die sich bei der Einführung des technologiegestützten Lernens bewährt haben, gehören folgende Aspekte:

Integration in die Unternehmensstrategie

Die direkte und nachhaltige Unterstützung des technologiegestützten Lernens durch Geschäftsführung und Management ist ein zentraler Erfolgsfaktor. Diese Unterstützung findet darin ihren Ausdruck, dass die Personalentwicklung bzw. das Kompetenzmanagement als strategische Anlaufstelle der Geschäftsführung betrachtet und in konkrete Strategieentwicklungsprozesse einbezogen wird. Ideal ist es, wenn die sichtbare Unterstützung des Top-Managements direkt zur Akzeptanz des Lernangebots genutzt werden kann, zum Beispiel in Form eines Grußwortes oder einer Videobotschaft.

Relevanz der Lernangebote

Ein professioneller Business- und Projektplan ist die Voraussetzung dafür, dass die mit der Einführung des Lernangebots gesteckten Ziele erreicht werden. Dazu gehört auch die Relevanz des Lernangebots: „Relevant“ ist es, wenn es unmittelbar mit den Geschäftszielen des Unternehmens verknüpft ist. „Relevant“ ist es darüber hinaus aber nur dann, wenn es auch auf aktuelle Bedürfnisse und Anforderungen von Mitarbeitenden antwortet, was zum Beispiel durch eine entsprechende Bedarfsanalyse im Vorfeld des Projekts sichergestellt werden kann. Zudem sollten die Lernangebote auch formal und didaktisch auf das Thema und die Zielgruppe zugeschnitten sein: Das betrifft zum Beispiel den Zugang zum Lernangebot, die Benutzerfreundlichkeit von Bedienung und Layout, den Umfang und die Inhaltstiefe, den Sprach- und Bildstil, die eingesetzten Medien, die Freiheitsgrade bei der Bearbeitung, Lernerfolgskontrollen und mögliche Zertifikate bei erfolgreichem Abschluss des Lernprogramms. Hinzu kommt die Integration der Lernangebote in die Arbeitsprozesse der Lernenden.

Implementierung als Veränderungsmanagement

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Der Entwicklungs- und Implementierungsprozess für innovative Lernangebote und -technologien setzt voraus, dass sich die Denk- und Handlungsweisen aller Beteiligten, vom Lernenden über die Trainer/innen, Coaches bzw. Tutorinnen und Tutoren bis zu den Führungskräften, grundlegend verändern. Die Entwicklung, Einführung und Unterstützung des webbasierten Lernens ist deshalb als Veränderungsprojekt zu gestalten.

Das Bildungsmanagement kann sich nicht mehr darauf beschränken, Curricula, Produkte und Lerninhalte zu organisieren. Es muss vielmehr Führungskräfte und Mitarbeitende dabei unterstützen, die notwendigen Rahmenbedingungen für ihre individuellen Lernprozesse selbstorganisiert zu schaffen. Diese Anforderungen gewinnen zusätzlich an Bedeutung, wenn die Lernangebote für externe Zielgruppen (Lieferantinnen /Lieferanten, Endkundinnen /Endkunden) entwickelt werden und somit auch die Marke des Unternehmens transportieren.

Weitere Erfolgsfaktoren

Es gibt eine Reihe weiterer Erfolgsfaktoren, auf die an dieser Stelle kurz hingewiesen wird: Dazu gehört eine Unternehmenskultur, die das technologiegestützte und selbstorganisierte Lernen unterstützt; Lernpartnerschaften (Co-Coaching) und eine Lernbegleitung durch E-Coaches und E-Mentorinnen und E-Mentoren, die selbstorganisierte Lernprozesse ermöglicht; Kompetenzmessungen, die Lernbedarfe und Lernfortschritte steuern; ein Qualitätsmanagement, das definierte Standards, Prozesse und Guidelines absichert; sowie regelmäßige Evaluationen und Erfolgsmessungen (vgl. auch Dittler, 2002).

?

Erweitern Sie die Liste der Erfolgsfaktoren für den Einsatz von Lernmedien in Unternehmen um mindestens drei weitere Punkte. Woran sollte eine Projektleitung denken, wenn ihr Bildungsangebot ein Erfolg werden soll?

!

Die Unterstützung durch das Top-Management, die Entwicklung praxisrelevanter Lernangebote sowie ihre professionelle Kommunikation und Begleitung sind kritische Erfolgsfaktoren für das technologiegestützte Lernen in Unternehmen.

Webbasiertes Lernen in Unternehmen

Ausblick

Der Einsatz von Lerntechnologien in Verbindung mit Social Media wird zunehmend zur Selbstverständlichkeit. Die verschiedenen Lernmedien erlauben eine breite Palette von zielgruppenspezifischen Lösungen. Da viele dieser Technologien – im Gegensatz zum klassischen CBT, WBT oder zur Lernplattform – auch Teil des Projekt- und Arbeitsalltags von Mitarbeitenden sind, gehen Lern- und Arbeitsprozesse fließend ineinander über. Weiterbildung, Kommunikation und Wissensmanagement verschmelzen. Fragen der Medienkompetenz und der Selbstlernkompetenz rücken stärker in den Vordergrund. Bildungsexpertinnen und -experten werden zu einer Lernprozessbegleitung, die sich weniger auf die Erstellung und Vermittlung von Fachinhalten als vielmehr auf die Entwicklung optimaler Lernumgebungen konzentrieren. Lernende werden selbst zu Produzentinnen und Produzenten neuer Wissensquellen. Offen bleiben Fragen der Nachhaltigkeit und Erfolgsmessung sowie etwaiger (Technologie-)Risiken dieser Entwicklung. Weiterbildungsverantwortliche werden sich verstärkt mit Fragen nach dem Return on Investment (ROI) des technologiegestützten Lernens im Unternehmen und nach dem Beitrag zur Erhöhung des Unternehmenswerts konfrontiert sehen.

?

Ein Unternehmen überlegt, das Lernen zunehmend in den Arbeitsprozess zu verlagern. Formulieren Sie drei Argumente, die dafür, und drei Argumente, die dagegen sprechen.

?

Wodurch unterscheidet sich der Einsatz von Lernmedien in formellen und in informellen Lernprozessen? Wie kann formelles und informelles Lernen mit Hilfe innovativer Lerntechnologien optimal verknüpft werden?

Webbasiertes Lernen in Unternehmen

Literatur

E-Learning in Organisationen

Nachhaltige Einführung von Bildungsinnovation

Neue Technologien alleine bewirken – zumindest in formalisierten Bildungskontexten – kaum eine nachhaltige Veränderung der Lehr- und Lernpraxis. Um jenseits von Convenience-Effekten nachhaltige (das heißt mittel- und längerfristige, in die Breite diffundierende und didaktische Verbesserungen umfassende) Innovationen zu erreichen, braucht es mehr als die Implementierung technologischer Infrastrukturen. Die Einführung von E-Learning als Bildungsinnovation erfordert die Gestaltung von parallel laufenden Innovationsprozessen einerseits und Veränderungsprozessen andererseits. Neben der Entwicklung einer Zielstrategie („Was soll mit der Veränderung erreicht werden?“) ist auch eine Implementierungsstrategie erforderlich („Wie soll das angestrebte Veränderungsziel erreicht werden?“). Im Mittelpunkt dieses Beitrags stehen die Anforderungen, die mit der Gestaltung von Innovations- und Veränderungsprozessen bei der Einführung von E-Learning verbunden sind. Es werden sechs Arbeitsfelder behandelt, die sich um zwei Pole gruppieren. Diese Pole sind als „Entwicklung innovativer Maßnahmen zur Kompetenzentwicklung“ einerseits und „Gestaltung lern- und innovationsförderlicher Rahmenbedingungen“ andererseits formuliert. Dem Pol „Entwicklung innovativer Maßnahmen zur Kompetenzentwicklung“ sind die Arbeitsfelder Strategie und Portfolio, Lerndesign und Wertbeitrag zugeordnet. Dem Pol „Gestaltung lern- und innovationsförderlicher Rahmenbedingungen“ sind die Arbeitsfelder Lernkultur, Qualifizierung von Learning Professionals sowie Einbindung von Führungskräften

zugeordnet.

E-Learning in Organisationen

Ausgangspunkt: E-Learning als Bildungsinnovation einführen

Unter E-Learning verstehen wir in diesem Beitrag Lehr-/Lern-Arrangements, bei denen elektronische Medien beziehungsweise Telekommunikationsdienste eingesetzt werden (vgl. Euler et al., 2006, 2). Dies kann in sehr unterschiedlicher Weise erfolgen und die Bandbreite reicht von der Anreicherung von Präsenzlehre durch einzelne E-Learning-Elemente bis zu rein online durchgeführten Lehr-/Lern-Prozessen. Schulen, Hochschule und Unternehmen/Organisationen haben in den letzten zwei Jahrzehnten vielfältige Erfahrungen mit der Einführung von E-Learning gesammelt. Mit der Einführung von E-Learning und neuen Lernmedien sind oft weitreichende Erwartungen verknüpft, die allerdings ebenso häufig in Ernüchterung münden: „Die didaktische Innovationskraft der elektronischen Medien wird überschätzt und zugleich das Beharrungsvermögen der ‚alten Didaktik‘ unterschätzt“ (Kremer, Siemon & Tramm, 2008, 1).

Im Mittelpunkt dieses Beitrags stehen die Anforderungen, die mit der Gestaltung von Innovations- und Veränderungsprozessen bei der Einführung von E-Learning verbunden sind. Diese Anforderungen werden in sechs Felder strukturiert, die sich um zwei Pole gruppieren (vgl. Abb. 1). Diese Pole sind als „Entwicklung innovativer Maßnahmen zur Kompetenzentwicklung“ einerseits und „Gestaltung lern- und innovationsförderlicher Rahmenbedingungen“ andererseits formuliert. Dem Pol „Entwicklung innovativer Maßnahmen zur Kompetenzentwicklung“ sind die Arbeitsfelder Strategie und das Portfolio an Lerndienstleistungen, Lerndesign und Wertbeitrag zugeordnet. Dem Pol „Gestaltung lern- und innovationsförderlicher Rahmenbedingungen“ sind die Arbeitsfelder Lernkultur, Qualifizierung von Learning Professionals sowie Einbindung von Führungskräften zugeordnet.

Abb. 1: Das Rahmenmodell zur Einführung von E-Learning
Abb. 1: Das Rahmenmodell zur Einführung von E-Learning

Diese Arbeitsfelder werden in den Kapiteln 3 und 4 erläutert und ausgeführt. Zuvor werden allerdings im Kapitel 2 noch weitere wichtige Aspekte bei der Einführung von E-Learning behandelt: die Ziel- und Implementierungsstrategie einerseits sowie die Gestaltung von Innovations- und Veränderungsprozessen andererseits.

E-Learning in Organisationen

Strategische Einführung: E-Learning als Bildungsinnovation nachhaltig integrieren

Ziel- und Implementierungsstrategie festlegen

Veränderungsstrategien beinhalten konzeptionelle Festlegungen hinsichtlich des angestrebten Veränderungsziels (der Zielstrategie), sowie in Bezug auf die Vorgehensweise, wie dieses Veränderungsziel erreicht werden soll (der Implementierungsstrategie).

„Was soll mit der Veränderung erreicht werden?“ Diese Frage bildet den Ausgangspunkt für die Entwicklung einer Zielstrategie zu einem Veränderungsvorhaben. Das angestrebte Veränderungsziel sollte dazu beitragen, relevante Probleme zu lösen. Darüber hinaus sind bei der Entwicklung einer Zielstrategie möglichst alle wichtigen Anspruchsgruppen zu berücksichtigen.

Eine nachhaltige Einführung von E-Learning (in welcher Ausprägung auch immer) erfordert eine Einpassung in die Strategie und das Angebotsportfolio des Bildungsdienstleisters beziehungsweise der -dienstleisterin – dies gilt für Hochschulen ebenso wie für Personalentwicklungs- oder Learning-and-Development-Bereiche in Unternehmen und Organisationen.

In der Praxis: Neue Wege zum Erwerb von Arbeitsprozesswissen ( Lang & Pätzold, 2004)

Arbeitsprozesswissen beinhaltet sowohl das vorrangig über informelles Lernen erworbene Erfahrungswissen als auch das durch formelles Lernen entwickelte Theoriewissen und ist für ein kompetentes Handeln von Fachkräften unverzichtbar. Die Einführung von E-Learning kann auf die Entwicklung netzbasierter Lernumgebungen abzielen, um neue Wege zum Erwerb von Arbeitsprozesswissen zu eröffnen. Im Kontext beruflichen oder betrieblichen Lernens besteht dann eine zentrale Aufgabe bei der Organisation des Lernarrangements darin, Probleme, Inhalte, und Werkzeuge authentischer Arbeitsaufgaben möglichst durchgehend als Lernanlass heranzuziehen. Die Strategie für die Einführung von E-Learning beziehungsweise netzbasierter Lernumgebungen kann sich dabei auf zwei übergreifende Ziele beziehen, die klar definiert und operationalisiert werden können: 1) das Erfahrungslernen durch das erzeugte Erfahrungswissen systematisch mit Theoriewissen zum Arbeitsprozesswissen zu verbinden und 2) dauerhaft angelegte Communities of Practice zu etablieren, um Gelegenheiten zum systematischen Erfahrungslernen zu bieten (Erwerb sowie Reflexion von eigenen Erfahrungen, sozialer Austausch, Entwicklung von Problemlösungen mit anderen Lernenden, Dialog mit Expertinnen und Experten, etc.).

Die Kernfrage bei der Entwicklung einer Implementierungsstrategie lautet: „Wie soll das angestrebte Veränderungsziel erreicht werden?“ Zentrale Gestaltungsfelder bei der Implementierungsstrategie sind

  1. die Festlegung einer Implementierungsrichtung,
  2. die zeitliche Planung des Implementierungsprozesses,
  3. die Klärung von Verantwortlichkeiten und Ressourcen sowie
  4. die Festlegung von Gestaltungsprinzipien.

Insbesondere geht es darum, Wege zur Gestaltung von Veränderungsprozessen aufzuzeigen, das heißt „strategische Initiativen zum Leben zu bringen“ (Müller-Stewens & Lechner, 2005, 589).

Tendenziell werden Ideen zur Verbesserung einzelner Bildungsprozesse eher in Bottom-Up-Strategien entwickelt. Das Innovationsprojekt setzt an Bestehendem an und gewährleistet, dass die Verbesserung im Rahmen der vorhandenen Handlungskompetenzen erfolgt. Der Ordnungsrahmen aus Struktur, Kultur und Routinen bleibt bestehen und wird lediglich angepasst (Capaul & Seitz, 2011, 604). Eine grundsätzliche Bedrohung von Handlungsprioritäten oder Werthaltungen entsteht dabei kaum und es ergeben sich wesentlich geringere Risiko- und Konfliktpotenziale.

Bei Erneuerungsprozessen wird hingegen häufig eine Kombination aus Top-Down- und Bottom-Up-Strategien favorisiert. Reine Bottom-Up-Entwicklungen können oft nicht genügend Umsetzungsmacht mobilisieren, um die mit radikalen Umbrüchen verbundenen Widerstände zu bewältigen. Und reine Top-Down-Ansätze verfehlen häufig ihr Ziel, da sie die Beteiligten zu wenig ins Boot holen und nicht genügend Umsetzungskraft mobilisieren können.

Innovations- und Veränderungsprozesse begleiten

Im Rahmen der Einführung von E-Learning sind einerseits Innovations-/Gestaltungsprozesse und andererseits Veränderungsprozesse zu bewältigen. Beide Prozessdimensionen lassen sich durch drei miteinander verbundene Phasen mit jeweils unterschiedlichen Zielsetzungen charakterisieren (vgl. Abb. 2):

  1. Inventionsphase & Auftauen: Aus der Gestaltungsperspektive geht es hier darum, neue Ideen zu generieren, Innovationen zu initiieren und Innovationen bis zu einem „mockup“ oder eine „Pilotversion“ einer neuen Lernumgebung zu entwickeln. Aus der Veränderungsperspektive steht das „Auftauen“ als dominantes Verhaltensmuster im Vordergrund, weil hierdurch grundlegende Voraussetzungen für Experimentieren mit und Pilotieren von neuen Lernformen geschaffen werden.
  2. Innovations-/Implementierungsphase & Verändern: Aus der Gestaltungsperspektive geht es hier darum, Inventionen zu Lernformen und Lernaktivitäten so weiterzuentwickeln und so viel Akzeptanz dafür zu schaffen, dass sie (in begrenzten Bereichen) erprobt werden können. Aus der Veränderungsperspektive geht es nicht nur um das Erproben der Lern-Innovation, sondern auch um das Entwickeln von neuen Handlungsmustern bei Lernaktivitäten und die Bewertung von möglichen Alternativen zur Innovation.
  3. Diffusionsphase & Verfestigen: Aus der Gestaltungsperspektive steht in dieser Phase die Verbreitung der Innovation in der Gesamtorganisation im Vordergrund (zum Beispiel die breite Umsetzung und Nutzung kollaborativen Lernens in Online-Lern- und Praktiker/innen-Communitys). Es geht darum, von einer zeitlich und räumlich begrenzten Pilotierung zu einem flächendeckenden Regelbetrieb zu kommen. Aus der Veränderungsperspektive geht es um die Verfestigung und das Konsolidieren neuer Vorgehens- und Verhaltensweisen auf einem höheren Entwicklungsniveau.
Abb. 2: Phasen der Gestaltung/Begleitung von Innovations- und Veränderungsprozessen
Abb. 2: Phasen der Gestaltung/Begleitung von Innovations- und Veränderungsprozessen

Diejenigen, die Innovations- und Veränderungsprozesse im Bildungsbereich vorantreiben wollen, müssen noch zwei weitere Aspekte beachten. Erstens: „Die Tendenz politischer Entscheidungsträger und Vorgesetzter, das Interesse zu verlieren, sobald die Entwicklungsarbeiten abgeschlossen sind, kann verhängnisvoll auf die Innovation wirken“ (Capaul, 2005, 5). Nachlassende beziehungsweise fehlende Unterstützung oder Ressourcenausstattung in den Phasen der Diffusion und Verfestigung/Stabilisierung kann aber dazu führen, dass die Einführung von E-Learning auf wenige insulare Bereiche beschränkt bleibt und keine breite beziehungsweise nachhaltige Veränderung von Lernverhalten stattfindet. Daraus ergeben sich dann besondere Anforderungen an die Projektorganisation und das Projektmanagement. Zweitens weisen Hall und Hord darauf hin, dass bei Innovationsprozessen das Wissen, die Einstellungen und die Fertigkeiten der Personen, die von der Innovation betroffen sind, zentrale Erfolgsfaktoren darstellen. Denn erst wenn die Einzelpersonen die Innovation auch im angestrebten Sinne umsetzen, wird die Innovation erfolgreich. Viele Innovationen scheitern, weil bei Innovationsvorhaben diesen personellen Faktoren zu wenig Beachtung geschenkt wird ( Hall & Hord, 2001, 5-7).

E-Learning in Organisationen

Entwicklung innovativer Maßnahmen zur Kompetenzentwicklung: Integration und Gestaltung von E-Learning als Bildungsinnovation

Strategie und Portfolio an Bildungsmaßnahmen gestalten

Technologieunterstützte Lehr-Lern-Aktivitäten können in verschiedenen Kontexten stehen. Sie können ein Element von formal organisierten Kursen und Lehrgängen sein. Sie können ein Element von moderierten Lern- und Reflexionsprozessen am Arbeitsplatz/im Studienverlauf sein (zum Beispiel Action-Learning-Projekte oder Pflege eines Kompetenzportfolios), oder sie können ein Element von informellen, selbstgesteuerten Aktivitäten des Lernens und Wissensaustauschs sein (vgl. Abb. 3). Das Bildungsmanagement hat die Aufgabe, Lernprozesse auf individueller, betrieblicher und überbetrieblicher Ebene zu initiieren, zu implementieren, zu begleiten und zu evaluieren (Diettrich & Vonken, 2009). Mit der Einführung von E-Learning treten neue Angebote an Bildungsmaßnahmen neben bereits etablierte: zum Beispiel rein online durchgeführte und auf WBT basierende Trainings; Blended-Learning-Angebote; unterstützende E-Services im Rahmen der Kompetenzentwicklung wie etwa E-Kompetenzportfolios oder Online-Lerngemeinschaften. Damit verändert sich die ‚Lernarchitektur‘ (vgl. Detecon International GmbH, 2006) und das Portfolio an Bildungsdienstleistungen (vgl. Abb. 3).

Abb. 3: Kontexte von technologieunterstützten Lehr- bzw. Lernaktivitäten und Service- Portfolio
Abb. 3: Kontexte von technologieunterstützten Lehr- bzw. Lernaktivitäten und Service- Portfolio

Die Grundsatzentscheidung für eine neue Leistungsstrategie des Bildungsmanagements unter Einbezug von E-Learning und ein verändertes Leistungsportfolio erfordern dann Folgeentscheidungen. Beispielsweise bezüglich der Frage, ob und in welchem Umfang personelle Ressourcen für neue Leistungsbereiche (zum Beispiel Erstellen von mobilen Lernapplikationen) aufgebaut oder ob hier mit externen Partnerinnen und Partnern zusammengearbeitet werden soll.

Learning Design: Innovative Lernformen gestalten

Im Rahmen formal organisierter Lehr-/Lern-Prozesse stehen nicht technische Werkzeuge und Infrastrukturen am Anfang der Entwicklungsarbeit, sondern Lern- und Entwicklungsziele. Die nachfolgende Abbildung zeigt die hier zugrunde gelegte Logik: Ausgangspunkt für das didaktische Design sind die Lern- und Entwicklungsziele, die zu vermittelnden Inhalte und deren Abfolge. In einem nächsten Planungsschritt muss auf dieser Grundlage zunächst der Lehr-/Lern-Prozess geplant werden: über welche Lehr-Lern-Aktivitäten sollen die verschiedenen Lern- und Entwicklungsziele verfolgt werden?

Erst danach können in einem nächsten Schritt die geeigneten Materialien und Werkzeuge ausgewählt werden: Texte, Grafiken, Bilder und audiovisuelle Aufzeichnungen; Werkzeuge zur Kommunikation und Zusammenarbeit; Hilfsmittel zur Abfrage, Dokumentation und Darstellung/Visualisierung etc.

Abb. 4: Von den Zielen zu den Werkzeugen
Abb. 4: Von den Zielen zu den Werkzeugen

Auch im Kontext von informellem, selbstgesteuertem Lernen geht es nicht zuerst und prioritär um technische Infrastrukturen wie etwa Social-Media-Plattformen. Die Erfolgsfaktoren beispielsweise für Online-Lerngemeinschaften beschränken sich nicht nur auf Aspekte der technisch-organisatorischen Unterstützung (zum Beispiel technische Plattformen), sondern umfassen den Nutzen (zum Beispiel wichtige, gemeinsam getragene Ziele für die Kooperation der Beteiligten), die beteiligten Personen (zum Beispiel freiwillige, stabile Mitgliedschaft ohne Konkurrenzverhältnis der Mitglieder untereinander) und die Moderation (zum Beispiel sorgfältig gestalteter Start der Aktivitäten).

Wertbeitrag erheben und weiterentwickeln

Eine nachhaltige Einführung von E-Learning erfordert, dass mit dieser Entwicklungsinitiative ein positiver Wertbeitrag verbunden ist und auch aufgezeigt werden kann. Die Bestimmung des „return on investment“ (ROI) galt für einige Zeit als der einzig richtige Weg auch bei der Einführung von E-Learning (entsprechende Fallstudien finden sich unter anderem bei Phillips & Phillips, 2007a). Allerdings hat sich gezeigt, dass die Bestimmung des ROI auf der Grundlage einer tragfähigen Methodik (zum Beispiel Phillips & Phillips, 2007b) sehr arbeitsaufwändig ist. Darüber hinaus ist die Bestimmung des ROI nicht für alle Anspruchsgruppen von überragender Bedeutung. Manche Anspruchsgruppen – zum Beispiel die direkten Auftraggeber/innen – mögen tatsächlich einen positiven „return on investment“ erwarten. Für andere Anspruchsgruppen dagegen können andere Aspekte als zentrale Werttreiber im Vordergrund stehen: die Passung von Bildungsdienstleistungen mit der strategischen Ausrichtung des Unternehmens (Unternehmensleitung), die reibungslose Koordination von Schulungen mit Produkt-Rollouts (Geschäftsbereiche in Unternehmen) oder die Reduktion der Abwesenheit vom Arbeitsplatz auf Seiten der Teilnehmenden (Vorgesetzte der Teilnehmenden).

Mit der Bewegung von „E-Learning 1.0“ zu „E-Learning 2.0“ rücken nicht nur andere Lehr-Lern-Szenarien in den Vordergrund (zum Beispiel Auseinandersetzung mit von den Lernenden selbst erzeugten (Mikro-)Inhalten – etwa in Wikis, Weblogs oder Twitter-Kanälen – und der mobile Zugriff auf Lernressourcen mit Smartphones oder Tablets; Arnold et al., 2011, 167-169; Kerres, 2012, 454-456), sondern auch andere Werttreiber. Je nach Anspruchsgruppe und Perspektive können beispielsweise Aspekte wie die Vereinfachung von Anmeldeprozessen, die Vereinheitlichung von Kurs- und Lerninhalten oder das schnelle Erreichen von weltweit verteilten Zielgruppen in den Hintergrund treten und Aspekte wie die Entwicklung und Verankerung einer neuen Lernkultur mit mehr Selbstbestimmung auf Seiten der Lernenden in den Vordergrund rücken. Grundsätzlich aber gilt, dass der Wertbeitrag der Einführung von E-Learning immer mit Blick auf die spezifischen Erwartungen der verschiedenen Anspruchsgruppen zu bestimmen ist („return on expectations“, ROE - Meier, 2012, 374).

E-Learning in Organisationen

Gestaltung lern- und innovationsförderlicher Rahmenbedingungen: E-Learning nachhaltig implementieren

Die Integration von innovativen Maßnahmen zur Kompetenzentwicklung – etwa mit einem neuen Schwerpunkt auf E-Learning am Arbeitsplatz – im Leistungsportfolio hat Auswirkungen auf die Rollen von und Anforderungen an Lernende, Lehrende sowie Lernpromotoren und Lernpromotorinnen (zum Beispiel Führungskräfte).

Learning Professionals: Weiterbildung des Bildungspersonals

Die American Society for Training and Development (ASTD) hat kürzlich ein neues Kompetenzmodell für Learning Professionals veröffentlicht (Arneson, Rothwell & Naughton, 2013). Dieses neue Kompetenzmodell nimmt Abschied von einem Set wohldefinierter Rollenausprägungen von Learning Professionals (zum Beispiel Projektmanager/in für PE-Projekte, Trainer/in, PE-Businesspartner/in oder PE-Strategieentwickler/in). Es hat sich gezeigt, dass die tatsächlichen Ausprägungen der Rollen im Bereich der Personalentwicklung in Unternehmen/Organisationen weitaus vielfältiger sind und insbesondere mit den Entwicklungen im Bereich Social-Media-Rollen für neue Spezialistinnen und Spezialisten entstehen (zum Beispiel Spezialisten und Spezialistinnen für die Erstellung von mobilen Applikationen zur Leistungsunterstützung oder für die Gestaltung von Lehr-Lernaktivitäten in virtuellen Klassenzimmern). Im neuen ASTD-Kompetenzmodell werden nur noch Basiskompetenzen einerseits und Kompetenzbereiche (Vertiefungsbereiche) andererseits unterschieden. In beiden Bereichen sind Technologie- und Medienkompetenzen der Personalentwickler/innen prominenter als zuvor platziert. So definiert die ASTD jetzt ‚Technologie- und Medienkompetenzen‘ als eine neue und eigenständige Basiskompetenz für ‚Learning Professionals‘. Hierzu gehört beispielsweise ein angemessener Überblick über Lerntechnologien und deren effektive Nutzung.

Neben den Learning Professionals sind aber auch die Kompetenzanforderungen für die Lernenden selbst zu beachten. Die erfolgreiche und nachhaltige Nutzung solcher neuen Angebote erfordert Sachkompetenzen wie Kenntnisse zu und Fertigkeiten im Umgang mit neuen Lernmedien; Sozialkompetenzen wie die Fähigkeit zur Vernetzung und kooperativen Zusammenarbeit mit anderen Lernenden sowie Selbstkompetenzen wie etwa Fähigkeiten zur Selbstorganisation, Selbststeuerung und Selbstbestimmung (dazu ausführlicher Zürcher, 2007). Häufig sind neue didaktische Konzepte deshalb nicht so erfolgreich wie erwartet, weil dafür zunächst einmal die erforderlichen Lernkompetenzen gestärkt werden müssen (z.B. Jenert, Gebhardt & Käser, 2011).

Führungskräfte: Einbindung in Bildungsprozesse

Für die nachhaltig erfolgreiche Einführung von E-Learning ist die Einbindung von Führungskräften aus zwei Gründen von großer Bedeutung (siehe ausführlicher: Seufert et al., 2013):

  1. Es ist Aufgabe von Führungskräften, die Kompetenzentwicklung in Organisationen mit zu gestalten und zu begleiten: Führungskräfte sind zunehmend gefordert, neben Management- und Sachaufgaben auch Aufgaben bei der Mitarbeiter/innen-Entwicklung zu übernehmen. Gerade die mangelnde Unterstützung durch Vorgesetzte ist eine starke Barriere für eine nachhaltige Lernkultur. Bei den scil Trendstudien zu Herausforderungen im Bildungsmanagement belegte der Aspekt „Unterstützung des Lernens durch Führungskräfte“ wiederholt den dritten Platz unter den circa 45 erfragten Herausforderungen (Diesner & Seufert, 2013). Die Frage nach der Ausgestaltung der Rolle von Führungskräften als Personalentwickler/innen ist auch von hoher wirtschaftlicher Bedeutung. Studien verweisen darauf, dass bei vielen Mitarbeitenden, die eine Organisation verlassen, Unzufriedenheit mit den Möglichkeiten zur Kompetenzentwicklung ein wichtiger Auslöser war.
  2. Führungskräfte sind einflussreiche Vorbilder in Organisationen: Führungspersonen beeinflussen andere Personen mehr als sie selbst von anderen beeinflusst werden, und sie nehmen eine Vorbildfunktion bzw. die Rolle von Multiplikatoren und Multiplikatorinnen für das Lernen ihrer Mitarbeiter/innen ein. Empirische Studien belegen, wie hoch der Einfluss von Führungskräften ist, wenn es um den Transfererfolg und damit auch um die Nachhaltigkeit von Bildungsmaßnahmen geht (Kauffeld, 2006). Schließlich sind Führungskräfte als Agenten und Agentinnen des Wandels auch zentrale Kulturträger/innen und können Veränderungen der Lernkultur begünstigen oder behindern.

Führungskräfte sind damit entscheidende Promotorinnen und Promotoren für die Akzeptanz und erfolgreiche Verankerung neuer Lernformen – ganz gleich ob es sich dabei um eher formal organisiertes E-Learning oder um eher informelle Lernaktivitäten am Arbeitsplatz auf der Grundlage von Social Media handelt. Ihre systematische Einbindung erfordert nicht nur Lern- und Arbeitshilfen für die Unterstützung von Lernprozessen auf Seiten ihrer Mitarbeitenden. Insbesondere dann, wenn informelles Lernen mit Social Media eine größere Rolle spielt, müssen auch auf Seiten der Führungskräfte entsprechende Medienkompetenzen entwickelt werden (Deiser & Newton, 2013).

Die Schulkulturforschung liefert sehr ähnliche Befunde. Eine unterstützende Schulführung ist folglich eine der zentralen Erfolgsfaktoren, inwieweit Bildungsinnovationen Akzeptanz bei Lehrpersonen finden können (Hall & Hord, 2001). Fachschafts- und Schulleitungspersonen haben somit einen erheblichen Einfluss darauf, ob sich Lehrpersonen als sogenannte Professional Learning Communities verstehen, sich kontinuierlich austauschen und nach Möglichkeiten suchen möchten, ihren Unterricht weiter zu entwickeln. (Bonsen & Berkemeyer, 2011, 734).

Diagnose und Entwicklung der Lernkultur(en) in der Organisation

Die nachhaltige Einführung von E-Learning (in welcher Form auch immer) erfordert eine ausreichende Passung mit der bestehenden Lernkultur beziehungsweise muss ein anschlussfähiger Impuls zur Veränderung dieser Lernkultur sein.

In der Praxis: Praxisbeispiel aus der Hochschulausbildung

Ein neues Angebot zur kontinuierlichen Selbst-Überprüfung des Lernstands von Studierenden durch E-Assessments jeweils am Ende eines Themenblocks wird von den Studierenden zunächst nur wenig genutzt. Die Nutzung intensiviert sich erst dann, wenn die Studierenden über flankierende Maßnahmen (1. eine verstärkte Kommunikation der Bedeutung kontinuierlicher Mitarbeit in der Vorlesungszeit; 2. Hinweise dazu, dass sich einzelne Prüfungsfragen aus den E-Assessments auch in der Abschlussprüfung wieder finden) dazu gebracht werden, ihren bisherigen Semester-Rhythmus (intensive Prüfungsvorbereitung erst ab Ende der Vorlesungszeit) zugunsten eines veränderten Rhythmus mit mehr kontinuierlicher Lernarbeit über den gesamten Verlauf des Semesters anzupassen.

Eine Analyse der bestehenden Lernkultur ist daher ein wichtiger Erfolgsfaktor für nachhaltig erfolgreiche Entwicklungsinitiativen zu Lern- und Bildungsprozessen. Im Rahmen der von scil-entwickelten Form der Lernkulturanalyse (unter anderem Hasanbegovic, Seufert & Euler, 2007) werden fünf Aspekte von Lernkultur über validierte Fragebögen jeweils separat für Mitarbeitende und für Führungskräfte ermittelt:

Die Durchführung einer solchen Lernkulturanalyse gibt nicht nur Auskunft über den Status Quo in einem bestimmten Unternehmen respektive einer Organisation und den Stand im Vergleich zu anderen (vgl. Abb. 5).

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Abb. 5: Beispiele für Benchmarking-Ergebnisse im Rahmen einer Lernkulturanalyse
Abb. 5: Beispiele für Benchmarking-Ergebnisse im Rahmen einer Lernkulturanalyse

Darüber hinaus liefern die Ergebnisse Anhaltspunkte für ein lernkulturkonformes beziehungsweise lernkultursensitives Design von Lernangeboten. Ziel des kulturellen Zugangs ist es somit, das komplexe Zusammenspiel einer Vielzahl lernbezogener Einflüsse in einer Bildungsorganisation aus der Wahrnehmung von Lernenden (sowie auch aus der Perspektive von Führungskräften im Rahmen der betrieblichen Bildung) zu analysieren, um didaktische Leitvorstellungen effektiv umsetzen zu können (Gebhardt & Jenert, 2013, 228). Inwieweit die bestehende Organisations- beziehungsweise Lernkultur überhaupt gezielt beeinflusst werden kann, wird allerdings konträr diskutiert (Neubauer, 2003). Da viele Faktoren und auch ungeplante Ereignisse in kulturelle Veränderungsprozesse hineinspielen, muss davon ausgegangen werden, dass solche Veränderungsprozesse nur bis zu einem gewissen Grad gestaltbar sind. Dennoch kann die Gestaltung von Veränderungsprozessen – unter den geschilderten Einschränkungen – geplant werden und können Ziele gesteckt werden, auch wenn die Entwicklung nicht prognostizierbar ist und daher die Pläne oft nicht über längere Zeit aufrechterhalten werden können (Müller- Stewens & Lechner, 2005, 412) .

!

Reflektieren Sie, welche der in diesem Beitrag behandelten

die größten Herausforderungen für eine nachhaltige Einführung von E-Learning in Ihrer eigenen Organisation (Schule, Hochschule, Weiterbildung in Unternehmen und Organisationen) beinhalten. Überlegen Sie weiter, welche Aspekte in welchem Arbeitsfeld zu klären/zu lösen sind. Skizzieren Sie, welche Personen/Personengruppen in die Bearbeitung der jeweiligen Aufgaben in diesen Feldern eingebunden werden müssen.

E-Learning in Organisationen

Literatur

Erwachsenen- und Weiterbildung

Technologieeinsatz beim Lernen und Lehren mit Erwachsenen

Über Jahre spielte der Einsatz digitaler Medien und Technologien in der Erwachsenen- und Weiterbildung nur in spezifischen Branchen, zum Beispiel im Banken- und Versicherungswesen oder in der chemischen Industrie (MMB, 2013), eine nennenswerte Rolle. Zurückzuführen ist dies etwa auf die neuen didaktisch-methodischen Ansprüche technologiegestützter Bildungskonzepte (sowohl an Lehrende als auch Lernende), mangelnde institutionelle Rahmenbedingungen wie unzureichende Technologieinfrastrukturen beziehungsweise fehlende digitale Medienbestände oder auf allgemeine Vorbehalte gegenüber technologiegestützten Lernarrangements. Mit der zunehmenden Digitalisierung und Mobilisierung der Gesellschaft ist es allerdings zu einem spürbaren Innovationsschub und einem Wandel in der Bildungslandschaft gekommen. Dafür sprechen technologiebasierte Bildungsangebote unterschiedlichster Formate und Qualität sowie Anbieter/innen, die in ihrem didaktisch-methodischen Design auf die heterogenen Lernbedürfnisse, unterschiedlichen Lernbiographien und die vielseitigen Mediennutzungsinteressen von erwachsenen Lernenden reagieren. Vor diesem Hintergrund stellt sich die Frage, welche Bedeutung Medien und Technologien im Lernprozess einer erwachsenen Person grundsätzlich haben. Auch soll in diesem Kapitel darauf eingegangen werden, inwieweit sich durch diese Entwicklungen für die Lehrenden, Lernenden sowie Bildungsinstitutionen eine Rollenveränderung ergibt und welche Medien und Technologien sich in der Bildungspraxis der Gegenwart sowie Zukunft als geeignet herausstellen (können).

Erwachsenen- und Weiterbildung

Begriffserklärung

„In der Fachliteratur wird Erwachsenenbildung häufig synonym mit dem Begriff der Weiterbildung verwendet und versteht die Fortsetzung oder Wiederaufnahme organisierten Lernens nach Abschluss einer unterschiedlich ausgedehnten ersten Bildungsphase.“ (Fuchs & Reuter, 2000, 125)

Von Weiterbildung kann insbesondere dann gesprochen werden, wenn eine Erstausbildung abgeschlossen ist und bereits eine Phase der Berufstätigkeit vorliegt, während Erwachsenenbildung den Bogen weiter spannt und auch Bildungswege einschließt, denen keine erste Bildungsphase vorangeht (beispielsweise die Basisbildung und Alphabetisierung von Erwachsenen). Aus diesem allgemeinen Begriffsverständnis geht hervor, dass die Erwachsenen- und Weiterbildung eine sehr bedeutende Form der persönlichen Qualifizierung im lebenslangen Lernprozess eines Menschen darstellt. Sie kann sehr unterschiedliche Bildungsbereiche wie die allgemeine (persönliche), betriebliche (berufliche) oder die politische (gesellschaftliche) Bildung umfassen. Erwachsenen- und Weiterbildung versteht sich nicht nur als Ergebnis ausschließlich formaler oder non-formaler Aus- und Weiterbildungsprogramme, sondern als Resultat unterschiedlicher Lernprozesse sowie der Nutzung verschiedenartiger – auch informeller – Wissenskanäle und Medienangebote.

In engem Zusammenhang mit der Erwachsenen- und Weiterbildung ist auch der Begriff des selbstgesteuerten Lernens zu sehen, welcher — bildungspolitischen Diskussionen Ende der 1960er-Jahre folgend — insbesondere für die moderne Erwachsenenbildung Relevanz hat (Neubert et al., 2001).

Selbstgesteuertes Lernen versteht die einzelne Person nicht als passive Rezipientin im Lernprozess, sondern nimmt sie als jemanden wahr, der bereits eine Lernbiographie und individuelle Lernstrategien mitbringt. Lernen wird als aktiver Prozess verstanden, bei dem Lernende ihr Wissen selbst konstruieren und nicht bloß instruiert werden.“ (Neubert et al., 2001)

Dabei geht es vor allem darum, sich basierend auf dem bisherigen Wissensstand kontinuierlich neues Wissen im jeweiligen beruflichen, privaten oder gesellschaftlichen Kontext selbstgesteuert anzueignen (Kuwan, 2006). Es liegt nahe, die Möglichkeiten digitaler Medien für diese Lernprozesse zu nutzen.

?

Was halten Sie von der Vorstellung, dass Erwachsene ihr Lernen aktiv gestalten? Erörtern Sie, welche Unterstützung Technologien dabei leisten können. Stellen Sie Ihre Überlegungen anhand einer persönlichen Erfahrung an und reflektieren Sie, welche Rolle das Prinzip ‚selbstgesteuertes Lernen‘ dabei spielt.

Erwachsenen- und Weiterbildung

Technologieunterstütztes Lernen bei Erwachsenen

Malcolm Knowles, der die Andragogik (die Wissenschaft der Bildung Erwachsener) insbesondere in den USA deutlich prägte, erkannte bereits Ende der 1980er Jahre, dass sich die Computertechnologien im 21. Jahrhundert zu einer Kraft entwickeln würden, die das Lernen Erwachsener entscheidend beeinflusst (Knowles et al., 2007). Aktuelle Entwicklungen am Bildungsmarkt bestätigen diese Annahme: Das Internet bietet immer bessere Zugänge zu Sozialen Netzwerken und Online Communities wie etwa Xing, Google+ oder Facebook beziehungsweise zu Wiki-Systemen und offenen Wissensressourcen im Internet wie beispielsweise Wikipedia. Auch die vielseitigen multimedialen Interaktions- und Kollaborationsmöglichkeiten, wie sie etwa Applikationen für Smartphones oder Tablets für das Lernen bieten, oder moderne Cloud-Lösungen und BYOD-Konzepte (engl. ‚Bring-Your-Own-Device‘, BYOD) integrieren die Wissensgenerierung und Mediennutzung in einer ganz neuen und selbstverständlichen Form in den privaten und beruflichen Alltag. Man könnte daraus schließen, dass eine mediale Durchdringung der Erwachsenen- und Weiterbildung aufgrund dieser neu gewonnenen Flexibilität heute bereits selbstverständlich wäre.

Bei kritischer Betrachtung des Bildungsangebots ist jedoch festzustellen, dass die Möglichkeiten des E-Learning beziehungsweise des Blended-Learning die Weiterbildungspraxis bis heute noch nicht flächendeckend erreicht hat. Dies lässt sich durch unterschiedliche Faktoren erklären:

Auf die beiden letztgenannten Punkte wird im Folgenden genauer eingegangen. Betrachtet man die typischen Nutzer/innen technologiegestützter Angebote in der Erwachsenenbildung, so kristallisiert sich – auf der Grundlage eigener Auswertungen zu den Analysen des deutschen AES (von Rosenbladt & Bilger, 2010) – das Bild eines jungen, überdurchschnittlich gebildeten und technikaffinen Klientels heraus. Die Entwicklung von unterschiedlichen Mediennutzungskulturen zeichnet sich bereits im Jugendalter ab und ist vom individuellen Bildungsstand abhängig (MPFS, 2012). Allerdings gehören digitale Medien und Internet inzwischen auch in der Gruppe der Hauptschüler/innen zum medialen Alltag, sodass zumindest von einem angstfreien Umgang mit digitalen Medien bei jungen Menschen aller Bildungsgruppen ausgegangen werden kann (MPFS, 2012, 31). Die Grenze zwischen routinierten Nutzern bzw. Nutzerinnen moderner Kommunikationstechnologien und digitalen Laien scheint hingegen eher zwischen Altersgruppen beziehungsweise Generationen zu verlaufen. Zumindest unter den über 50-Jährigen gibt es heute noch einen relativ großen Anteil an Nicht-Nutzern bzw. -Nutzerinnen von Computer und Internet (Initiative D21, 2013, Tabelle 1). Ältere sind zum Teil unsicherer im Umgang mit modernen Medien oder stehen diesen zumindest nicht unkritisch gegenüber und bedürfen daher spezifischer didaktischer Szenarien, wenn es um die Heranführung an technologiegestützte Lernformen geht. Dies gilt insbesondere dann, wenn die Lernenden vorwiegend auf traditionelle Lernbiografien zurückblicken. Die ansonsten hohe Offenheit gegenüber generationenübergreifenden Bildungsangeboten weicht hier bei vielen Älteren einem Gefühl der Unterlegenheit gegenüber technikaffinen Jüngeren und dem Wunsch nach altershomogenen Kursen (Schmidt et al., 2009). Jedoch ist auch bei jüngeren Gruppen die alltägliche Nutzung von Computer und Internet nicht gleichzusetzen mit einem hohen Maß an Offenheit und Eignung für den Medieneinsatz in Lehr- und Lernsituationen (Schulmeister, 2008).

Hier spielen unter anderem milieuspezifische Lerngewohnheiten und Bildungsinteressen eine Rolle. Das Milieu der ‚modernen Performer‘ gilt in der Medienforschung als guter Indikator für zukünftige Entwicklungen im Mediennutzungsverhalten breiter Bevölkerungsschichten. Auch in Studien zum Weiterbildungsverhalten in sozialen Milieus haben sich diese Vertreter/innen der jungen Avantgarde als besonders aufgeschlossen gegenüber technologiegestützten Lernarrangements gezeigt, allerdings keineswegs als einziges Milieu. Auch andere moderne Milieus, wie die an neuen didaktischen Szenarien interessierten Experimentalisten, die freizeitorientierten Hedonisten oder die häufig ökologisch und sozial engagierten Postmateriellen sind gegenüber virtuellen Lernumgebungen überdurchschnittlich aufgeschlossen (Barz & Tippelt, 2004).

!

Auf Seiten der Lehrenden ist eine fundierte Medienkompetenz ebenso grundlegende Voraussetzung für die Gestaltung und Betreuung hochwertiger Angebote technologiegestützten Lernens, wie auch Wissen und Bewusstsein über die in medialen Lernszenarien veränderte Rolle der Lehrenden.

Zur Medienkompetenz von den in der Erwachsenenbildung Tätigen gibt es bislang wenig empirisches Material. Die vorliegenden Studien verweisen allerdings darauf, dass diese nicht als vorrangiges Thema angesehen wird. Zumindest zeigen diese Studien, dass medienbezogene Fortbildungen für das pädagogische Personal weder bei den Betroffenen selbst, noch bei deren Vorgesetzten besondere Priorität genießen (von Hippel & Tippelt, 2009). Der professionelle Einsatz von Technologien in Lernarrangements erfordert Medienkompetenz und bringt auch ein verändertes Verhältnis von Lehrenden und Lernenden mit sich. In der Erwachsenenbildung wird – ähnlich wie in der Hochschuldidaktik bereits seit längerem (Schmidt, 2004) – ein Paradigmenwechsel hin zu einer stärker an den Lernenden orientierten Gestaltung von Lehr-/Lernarrangements diskutiert (Freynet, 2008), wobei die Lehrenden zunehmend die Rolle von Lernbegleitenden und Moderatorinnen bzw.

Moderatoren übernehmen. Ebenso verringert sich im Kontext technologiegestützter Erwachsenenbildungsangebote die Verantwortlichkeit der Lehrenden für die Übermittlung von Inhalten, während sich gleichzeitig Anforderungen hinsichtlich der Unterstützung und Begleitung der Lernenden während des Lernprozesses erhöhen. Die Rolle der Lernbegleitenden erfordert nicht nur ein Umdenken von Tätigen in der Erwachsenenbildung, sondern verlagert die an sie gerichteten Kompetenzanforderungen hin zu mediendidaktisch-lernmethodischen Kompetenzen. Nur entsprechend geschulte, professionell agierende Weiterbildner/innen können bestehenden und zukünftigen Formen des Medieneinsatzes in der Erwachsenenbildung einen didaktischen Mehrwert abgewinnen.

?

Verschiedene Zielgruppen sind unterschiedlich offen für den Technologieeinsatz in der Erwachsenenbildung und verfügen über unterschiedliche Vorerfahrungen im Umgang mit digitalen Medien. Wie könnten technologiegestützte Bildungsangebote für eher medienferne Gruppen aussehen?

Erwachsenen- und Weiterbildung

Technologie- und Medieneinsatz in der Erwachsenen- und Weiterbildung

Während die Nutzenpotenziale methodischer und medialer Durchmischung beim Lernen bereits seit längerem empirisch bestätigt sind (Kennelly et al., 2011), beginnt der Technologie- und Medieneinsatz in der Erwachsenen- und Weiterbildung erst seit den letzten Jahren merklich an Stellenwert zu gewinnen. Bildungsanbieter/innen haben erkannt, dass dieser nicht nur Wettbewerbsvorteile bietet, sondern auch ein wertvoller Performancefaktor in Hinblick auf ein effektives, zeiteffizientes und kostengünstiges Bildungsmanagement ist. Hinzu kommen Vorteile bei der Analyse und Optimierung von Lernprozessen (engl.‚ „learning analytics‘), der Aufbereitung von Lehr- und Trainingsmaterialien (bei gleichzeitiger Reduktion von Aktualisierungskosten) wie auch ökonomische beziehungsweise strategische Anreize.

Technologiebasierte Bildungsangebote in der Erwachsenen- und Weiterbildung setzen heute vor allem auf die Mischung traditioneller Lernformen mit digitalem Lernen (engl. ‚blended learning‘). Häufig problematisiert wird allerdings die didaktische Qualität der bestehenden Angebote, im Besonderen in Hinblick auf eine Überschätzung der Medien- und Selbststeuerungskompetenz Erwachsener sowie das Fehlen von Lernsteuerungsmechanismen bei einfachen Online-Lernangeboten. Erfolgreiche Angebote zeichnen sich vor allem dadurch aus, dass Technologien, Medien und Methoden differenziert, situationsangepasst und auf mehreren didaktischen Handlungsebenen (Flechsig & Haller, 1976) zum Einsatz kommen. Das alleinige Bereitstellen von Lernmanagementsystemen, Informationsportalen oder E-Learning-Content hat nicht zwangsläufig zu Erfolgen geführt. Zwar können interaktive Medien und E-Learning-Contents kurzfristig die Akzeptanz von Bildungsangeboten überdurchschnittlich fördern, allerdings verliert sich dieser Nutzenvorteil über die Zeit, wenn der Einsatz der Technologien und Medien nicht methodisch-didaktisch begründet ist beziehungsweise keinen didaktischen Mehrwert im Vergleich zu anderen Lernmethoden bietet (Baumgartner & Herber, 2013).

!

Auf institutioneller Ebene erfordern tragfähige Strategien zur Gestaltung des Lernens in der Erwachsenen- und Weiterbildung ein umfassendes technologisches und mediendidaktisches Konzept, welches der Verschiedenartigkeit von Lernsituationen und kognitiven Fähigkeiten von erwachsenen Lernenden gerecht wird (Knowles et al., 2007).

Nach aktuellen Studien (MMB, 2012) ist und bleibt neben herkömmlichen Lernanwendungen (zum Beispiel Wikis, WBTs, Simulationen und Webinare) das ‚Blended Learning‘ eines der bedeutendsten Formate technologiegestützter Lehr- und Lernarrangements in der betrieblichen Weiterbildung (vgl. Abbildung 1). Hingegen werden sich Werkzeuge, die sich an eine breite, schwer abzugrenzende Öffentlichkeit wenden beziehungsweise soziale Vernetzung ermöglichen (wie Soziale Netzwerke, Blogs oder Podcasts) für die allgemeine Weiterbildung vergleichsweise besser eignen, weil sie eine breite Nutzergruppe erreichen und hochwertigen reflexiven Austausch untereinander möglich machen. Für den gesamten Weiterbildungsbereich gilt, dass das Lernen am mobilen Endgerät und ‚Apps‘ als mobile Lernhelfer neue Flexibilität bei Qualifizierungsmaßnahmen von Erwachsenen ermöglichen, zum Beispiel deutlich differenziertere und vielfältigere Lehr- und Lernszenarien als traditionelle Formate (Kabitz & Vollmar, 2012). Allerdings fehlt bis dato eine umfassende spezifische Didaktik für mobiles Lernen. Unterschiedlich schätzen aktuelle Studien den Stellenwert von ‚Serious Games‘ für das Lernen ein (DUW, 2012; MMB, 2012), wobei aktuelle Trends auf ein einstweiliges Interesse in der Erwachsenen- und Weiterbildung schließen lassen.

Abb. 1: Bedeutung von Anwendungen für betriebliches Lernen in Unternehmen (Quelle: MMB, 2012, 3).
Abb. 1: Bedeutung von Anwendungen für betriebliches Lernen in Unternehmen (Quelle: MMB, 2012, 3).

Entgegen der landläufigen Annahme, dass internetbasierte Netzwerke überwiegend von jungen Leuten genutzt werden, geht aus Studien hervor, dass (bei einem Durchschnittsalter von 23 bis 47 Jahren) auch die Teilnahme Erwachsener in sozialen Online-Netzwerken bereits sehr hoch ist und mit dem Heranwachsen der Netzgeneration massiv zunimmt (Palfrey & Gasser, 2008; PricewaterhouseCoopers, 2008; siehe Kapitel #netzgeneration). Für die Zukunft könnte dies auf eine Kombination von Blended-Learning-Anwendungen und ‚Learning Communities‘ in der Erwachsenen- und Weiterbildung hindeuten, die je nach didaktischem Ansatz unterschiedlich kombiniert werden. Vernetzte Formen des Lernens im Web 2.0, beispielsweise das ‚Social Learning‘ (informelles, selbstorganisiertes Lernen, welches durch Social Media unterstützt wird) oder ‚Peer Learning‘ (das Lernen durch Wissens- und Erfahrungsaustausch in gleichrangigen Gruppen) bieten ebenfalls erfolgversprechende Ansätze, wenn sie sinnvoll in Blended-Learning-Konzepte integriert werden. In der aktuellen Weiterbildungspraxis sind diese Potenziale jedoch noch weitgehend ungenutzt. Ansätze scheitern beispielsweise daran, dass entweder relevantes Expertenwissen oder kollaborative Lern- und Feedbackstrategien bei den Teilnehmenden in den Netzwerken nicht ausreichend vorhanden sind, oder daran, dass eine effektive, lernförderliche Online-Kommunikationskultur, die Qualität und Effektivität beim vernetzten Lernen sicherstellt, schlichtweg noch unzureichend entwickelt ist.

Auch die gegenwärtige Diskussion, in welcher Form die Verwendung von immer mehr mobilen Geräten in Alltag, Beruf und Gesellschaft (zum Beispiel Netbooks, Smartphones oder Tablets) das Lernen verändert, beschäftigt die Erwachsenenbildung beziehungsweise die Weiterbildung (DUW, 2013). Eine breit aufgestellte Untersuchung von Mitschian (2010) zu Weiterbildungsangeboten für den Fremdsprachenunterricht zeigt beispielsweise, dass es für das mobile Endgerät (beispielsweise Smartphone oder Tablet) beinahe schon ein Überangebot an E-Learning-Inhalten gibt und diese von unterschiedlicher Qualität, Relevanz und Nutzen für die Lernenden sind. Die schwere qualitative Einordbarkeit der Angebote liegt unter anderem daran, dass die digitalen Medienangebote häufig komplexer strukturiert sind als jene, die in traditionellen Lern- und Unterrichtsformen zum Einsatz kommen, oder sich nicht zwangsläufig an bestehenden curricularen Vorgaben der formalen Bildungssysteme orientieren.

Dies hat zur Folge, dass digitale Bildungsangebote von den Lernenden qualitativ mehr hinterfragt werden müssen und Bildungsanbieter/innen sich hinsichtlich der didaktisch-methodischen Qualität ihrer Angebote stetig neu legitimieren müssen. In Verbindung mit neuen Technologiekonzepten, die Informationen, Medien und Wissen zu ganz neuartigen interaktiven Lernanwendungen verknüpfen lassen (beispielsweise ‚augmented reality‘), scheinen vor allem mobile Lernanwendungen interessante Möglichkeiten bei der Gestaltung orts- oder objektbezogener Weiterbildungsangebote zu bieten (MMB, 2012; Herber, 2012). Interessant sind sie speziell für die persönliche oder berufliche Bildung (zum Beispiel Informationen zur Steuerung einer komplexen Maschinenanlage können am Live-Bild des Mobiltelefons eingeblendet werden), eine weitläufige Verwendung gibt es heute allerdings noch nicht.

Künftige Entwicklungen und Innovationen in der Erwachsenen- und Weiterbildung werden sich mehr denn je – so vermuten wir – an den immer wichtiger werdenden Wissens- und Kompetenzanforderungen der alltäglichen Lebens- und Arbeitswelten auszurichten haben, um die Teilhabe der erwachsenen Person am Erwerb von Wissen, Fähig- und Fertigkeiten im lebenslangen Lernprozess dauerhaft zu sichern. Gerade vor dem Hintergrund aktueller demographischer, technologischer und gesellschaftlicher Veränderungen ist zu erwarten, dass didaktische und inhaltliche Ziele (Döring, 2002) bei Bildungsinnovationen an Stellenwert gewinnen und sich gegenüber den bisher stark dominierenden Effizienz- und Ökonomieinteressen von Bildungsanbieterinnen und Bildungsanbietern behaupten werden.

Ebenso ist absehbar, dass es mit den digitalen Medien zu einem Wandel in der Bildungslandschaft kommen wird: Waren es bisher vorwiegend traditionelle Bildungsinstitute oder organisationsinterne (zum Beispiel innerbetriebliche) Bildungsprogramme, denen wichtige Bildungsaufgaben in der Erwachsenen- und Weiterbildung übertragen wurden, übernehmen heute und auch künftig immer mehr nonformale Bildungsträger/innen (zum Beispiel regionale Informations- und Kulturzentren, Bildungswerke, webbasierte Themengruppen) oder freie Bildungs- und Wissensressourcen im Internet (engl. ‚open educational resources‘) eine wichtige Bildungsfunktion im lebenslangen Lernprozess eines Menschen.

?

Wenn Sie selbst an einem technologiebasierten Weiterbildungsangebot teilnehmen würden: Welche Erwartungen hätten Sie selbst an die didaktische Konzeption? Wie würden Sie sich eine optimale Lernbegleitung vorstellen?

In der Praxis: Unterschiedliche Konzepte im Einsatz

Blended-Learning-Konzepte sind in der beruflichen Aus- und Weiterbildung bereits etabliert. Hier finden beispielsweise Kombinationen von Lernplattformen (die Open-Source-Lernpattform Moodle hält einen hohen Anteil) in Verbindung mit fachspezifischen Wiki-Systemen, Lernanwendungen im Web 2.0 oder Webinaren Anwendung. Innovative Lösungen rücken vor allem Aspekte des arbeitsbegleitenden Lernens ins Zentrum der Betrachtung, beispielsweise die kooperative Wissensvermittlung, die Integration des informellen Lernens, sowie Formen des mobilen Lernens und der sozialen Vernetzung. Unternehmen fördern beispielsweise eigene Social-Media-Plattformen, um Wissen zu teilen und Vernetzung am Arbeitsplatz oder darüber hinaus zu ermöglichen – etwa mit Kolleginnen und Kollegen oder Expertinnen und Experten. Auch ‚serious games‘ und experimentelle Formate wie etwa ‚augmented reality‘ werden erprobt. Als erfolgreich erweisen sich Konzepte in der Praxis vor allem dann, wenn ein Mix an Lernmethoden und Medien zum Einsatz kommt (beispielsweise Simulationen, Podcasts, Webcasts in Verbindung mit Präsenzeinheiten), und nachhaltige Kommunikations- und Vernetzungsmöglichkeiten über das Internet angeboten werden, über die ein kollaborativer Lern- beziehungsweise Arbeitsprozess möglich wird. Zudem erweisen sich Online-Moderation und individuelle Lernbegleitung als zentrale Erfolgsfaktoren beim Technologieeinsatz in der beruflichen Aus- und Weiterbildung.

Erwachsenen- und Weiterbildung

Literatur

Freie Online-Angebote für Selbstlernende

Lebenslanges Lernen mit dem Internet

Noch nie in der Geschichte der Menschheit war der Zugang zu Wissen so unkompliziert und so unbegrenzt möglich wie heute: Wer sich neues Wissen aneignen will (oder muss), findet im Internet einen nahezu unerschöpflichen Pool an Lernangeboten für die unterschiedlichsten Themenbereiche und Niveaustufen sowie in den verschiedensten Formaten. Dieser Beitrag betrachtet die mit dieser Entwicklung einher gehenden Chancen und Herausforderungen aus der Perspektive der Lernenden. Zunächst wird ein Überblick über die unterschiedlichen offenen Online-Lernangebote bzw. Lernformen gegeben, die Selbstlernenden zur Verfügung stehen; Schwerpunkte sind freie Bildungsressourcen, Lernportale und offene Online-Kurse. Dabei wird zunächst dargestellt, wie mit diesen Angeboten gelernt werden kann; darüber hinaus geht es aber auch darum, wie Lernende qualitativ hochwertige Lernangebote finden können, die für sie und ihre individuellen Bedürfnisse geeignet sind, und welche Möglichkeiten es gibt, selbstgesteuerte Lernprozesse zu unterstützen. Abschließend wird diskutiert, inwiefern diese noch sehr jungen Entwicklungen das Rollen- und Selbstverständnis von Lernenden und Lehrenden beeinflussen können und zugleich, welche Konsequenzen damit, über die individuelle Bildungsbiografie hinaus, für eine Veränderung der Lernkultur verbunden sein könnten.

Freie Online-Angebote für Selbstlernende

Einleitung

Bereits Ende der 1990er Jahre wiesen Bildungsexperten auf das immense Potenzial des Internets als Lernressource hin: „The Internet could probably be classified as one of the most powerful and important self-directed learning tools in existence“ (Gray 1999, 120; ähnlich auch Encarnaçao et al., 1999; Zimmer, 1997). Seitdem hat sich das Web rasant weiterentwickelt; charakteristisch dafür ist der Bereich des Web 2.0. Dieser Begriff bezieht sich sowohl auf interaktive, kollaborative Technologien als auch auf die damit zugleich entstehende Kultur des Teilens. Dies beeinflusst auch das Lernen mit digitalen Medien: Immer mehr und immer vielfältigere Lernangebote sind online frei zugänglich, es entstehen neue Repositorien und andere Angebotsformen. Zwar bleibt die sorgfältige inhaltliche und didaktische Konzeption von Lernangeboten aufwändig, die Produktion von Online-(Lern-)Materialien hat sich jedoch in den vergangenen Jahren erheblich vereinfacht, da immer mehr unkompliziert zu nutzende Entwicklerwerkzeuge unter anderem auch kostenfrei im Internet zur Verfügung stehen. Darüber hinaus wächst zunehmend auch die Bereitschaft von (Bildungs-)Institutionen und Einzelpersonen, der Allgemeinheit selbst entwickelte Materialien zur Verfügung zu stellen.

Mit der neuen Verfügbarkeit von Informations- und Lernangeboten verändert sich das Verständnis von Wissen – zumindest dem Konzept des Konnektivismus zufolge geht es heute immer mehr um das „Wissen wo“ als um das „Wissen was“ (vgl. dazu das Kapitel #lerntheorie). Zugleich können unterschiedliche Formen des Lernens – auch non-formales und informelles Lernen – nun viel einfacher in alle Lebensphasen integriert werden, auch unabhängig von Schule, Ausbildung oder Universität (ausführlicher definiert sind die Begriffe „non-formales“ und „informelles“ Lernen im Kapitel #grundlagen). Offene Online-Lernangebote vereinfachen und erweitern anlassbezogene und selbstgesteuerte Möglichkeiten der Wissensaneignung und damit neue, individuelle Wege der Ausgestaltung lebenslangen Lernens – unabhängig davon, ob jemand freiwillig und aus Begeisterung für ein Thema nach Weiterbildungsmöglichkeiten sucht oder aus beruflichen Gründen seine Kenntnisse auf den neuesten Stand bringen muss. Zugleich wird lebenslanges in der heutigen Informations- bzw. Wissensgesellschaft zu einer Anforderung an jede und jeden Einzelne/n, die mit einem hohen Anspruch an autodidaktische Kompetenzen und die Verantwortung für die eigene Bildungsbiografie verbunden sind (vgl. zum lebenslangen Lernen und der damit verbundenen, durchaus auch umstrittenen Diskussion Kapitel #grundlagen).

Zwei grundlegende Angebotskategorien: frei verfügbare Lernressourcen und offene Online-Kurse

Mit den schier unerschöpflichen und stetig wachsenden Quellen an Lernressourcen, die das Internet zu bieten hat, stellt sich für Selbstlernende zunächst die Frage: Wie finde ich das für mich passende Angebot? Passend in Bezug auf meinen fachlich-inhaltlichen Bedarf, aber auch passend in Bezug auf meine persönlichen Lebensumstände – also die Frage nach der bestmöglichen Integration in das Privat- und Berufsleben. Für eine erste Orientierung können die Lernangebote in zwei grundlegende Kategorien eingeteilt werden, die in den beiden folgenden Hauptabschnitten ausführlicher betrachtet werden: kursungebundene Angebote wie offene Lernmaterialien, Lernportale und so weiter und kursartig organisierte Angebote, insbesondere offene Online-Kurse.

?

Machen Sie sich bewusst, in welchen Situationen Sie das Internet zum Lernen nutzen: Geht es dabei zum Beispiel eher um das Lösen von Aufgaben und Fragen, die sich während der Arbeit stellen? Oder haben Sie auch schon einmal an Online-Kursen teilgenommen? Reflektieren Sie, wie Sie bei der Suche nach geeigneten Angeboten vorgehen und anhand welcher Kriterien Sie die Auswahl treffen.

Freie Online-Angebote für Selbstlernende

Frei verfügbare, kursungebundene Lernressourcen

Lerninteressierte können im Prinzip alle online gefundenen Materialien zum Lernen nutzen. Für Bildungsressourcen, die nicht nur frei zugänglich sind, sondern auch frei verwendet und gegebenenfalls sogar verändert werden dürfen, wird auch im deutschsprachigen Raum inzwischen meist der englische Begriff Open Educational Resources (OER) verwendet (ausführlichere Informationen über OER, etwa zur Geschichte der Bewegung oder zum Thema Lizenzen, gibt es im Kapitel #openness).

OER – die Perspektive der Lernenden

Aus der Perspektive der Lernenden geht es vor allem darum, zum einen Ressourcen zu finden, die dem eigenen Wissensbedarf, Kenntnisstand und Lernverhalten entsprechen, zum anderen, Kriterien und Anhaltspunkte zu haben, anhand derer sie die Qualität gefundener Materialien beurteilen können, insbesondere, wenn sie sich neu mit einem Thema beschäftigen. Solche Lernmaterialien zu finden, ist nicht ganz einfach. Um über zufällige Treffer hinaus gezielt passende Inhalte zu finden, müssen deshalb geeignete Suchstrategien eingesetzt werden.

In der Praxis: Hinweise für OER-Suchstrategien

Ein Beispiel: Der Social-Bookmarking-Dienst ‚Edutags‘ ist speziell darauf ausgerichtet, OER zu sammeln, zu verschlagworten und zu bewerten. URL: http://www.edutags.de

Neben der einfachen Suche im Internet kann es auch hilfreich sein, auf OER-Repositorien, vorstrukturierte Datenbanken (zum Beispiel Bilddatenbanken wie http://www.flickr.com oder fachspezifische Datenbanken wie http://www.chemgapedia.de und viele andere) oder auf die Seiten bestimmter Anbieter und Institutionen zurückzugreifen. Auch sie ermöglichen die Suche nach inhaltlichen Schlagworten und weiteren Kriterien wie Niveaustufen, Umfang und Kontext der angebotenen Materialien etc. (vgl. hierzu auch das Kapitel #metadaten). Wer beispielsweise die Materialien des Massachusetts Institute of Technology nutzt, das 2003 als erste renommierte Bildungsinstitution seine Kursunterlagen öffentlich zugänglich machte, kann sich darauf verlassen, dass die Inhalte dem Niveau einer angesehenen Universität entsprechen (MIT OpenCourseWare: http://ocw.mit.edu/index.htm). Auch in Deutschland bieten inzwischen viele Universitäten Kursunterlagen oder andere Materialien wie zum Beispiel Veranstaltungsaufzeichnungen an, entweder auf eigenen Plattformen oder über Kanäle wie iTunesU, den Hochschulkanal der Firma Apple.

In der Praxis

Wie unterschiedlich OER-Repositorien konzipiert sein können, zeigt der folgende exemplarische Vergleich:

Mittlerweile existiert eine Vielzahl von deutsch- und englischsprachigen OER-Sammlungen auf unterschiedlichen Ebenen: von engagierten Einzelpersonen sowie von kleineren oder größeren Communitys (zum Beispiel von einzelnen Fachbereichen oder kompletten Hochschulen), national (einige Länder unterstützen inzwischen die Einrichtung staatlicher OER-Repositorien) oder international. So gehören zu den Angeboten der Wikimedia-Foundation, einer internationalen Organisation zur Förderung freien Wissens, neben der Online-Enzyklopädie Wikipedia unter anderem auch die Seiten Wikiversity (http://www.wikiversity.org/‎) und Wikieducator (http://www.wikieducator.org/).

In der Praxis: Im Dschungel der OER-Repositorien?

Inzwischen gibt es eine Vielzahl von OER-Repositorien, die sich je nach anbietender Institution und Zielgruppen, aber auch in Struktur und Aufbau stark voneinander unterscheiden können. An dieser Stelle soll deshalb auf eine Übersichtsseite des E-Learning-Informationsportals e-teaching.org verwiesen werden, auf der eine Vielzahl von Materialsammlungen, Medien- und Fachdatenbanken vorgestellt wird. Neben einer Kurzbeschreibung gibt es jeweils Informationen zum Umfang, zu den Suchkriterien innerhalb des Angebots sowie gegebenenfalls zu weiteren vorhandenen Funktionen und Diensten. Geordnet ist die Sammlung vorrangig nach Medientypen:

URL :http://www.e-teaching.org/materialien/mediendatenbanken/

Gemeinsam ist vielen OER-Repositorien, dass sie zunächst einmal Materialsammlungen sind. Häufig richten sie sich primär an Lehrende, die Unterrichtsmaterialien suchen, teilen oder gemeinsam weiterentwickeln wollen. Zwar werden immer häufiger Foren, Kommentarfunktionen oder andere Kommunikationselemente integriert, oder es existieren externe Gruppen in sozialen Netzwerken, die oft von den Nutzenden selbst ins Leben gerufen wurden. Doch welche Themen dort behandelt werden und wie hilfreich der Austausch ist, hängt vom Engagement der Einzelnen ab. OER-Repositorien können zwar von allen Interessierten genutzt werden, Unterstützungs- oder Betreuungsangebote für Selbstlernende sind jedoch meist nicht vorgesehen. Das bedeutet: Die Auswahl und gegebenenfalls die Kombination der genutzten Lernressourcen liegen ebenso in der Hand des beziehungsweise der Lernenden wie die (autodidaktische) Gestaltung des Lernprozesses, also Faktoren wie Motivation, Lerntempo und Kontrolle des Lernfortschritts.

Soziales Lernen und Strukturierung des Lernens in Lernportalen und Lern-Communities

Anders ist dies meist in Lernportalen und Lern-Communities, die beide unterschiedliche weitere Möglichkeiten zur Unterstützung von Selbstlernprozessen bieten. So geht es in Lern- und auch in Forschungs-Communities explizit um den Aufbau, die Pflege und die Nutzung von Kontakten zu Gleichgesinnten (vgl. e-teaching.org 2012, Art. Social Networking; dort findet sich auch eine Auswahl solcher Communities). Damit wird eine „soziale Rahmung des Lernens“ (Kerres 2012, 21) unterstützt, die es bei ausschließlich autodidaktischem Lernen (zum Beispiel mit OER) nicht gibt. Soziale Komponenten können unter anderem zur Aufrechterhaltung der Motivation beitragen, durch den sozialen Vergleich Wissenslücken bewusst machen oder multiple Perspektiven auf den Lerngegenstand eröffnen (ebenda).

Auch Lernportale können soziales Lernen und Gruppenbildung unterstützen oder an soziale Netzwerke angebunden sein. Insbesondere aber dienen sie der Unterstützung und Strukturierung des eigenen Lernprozesses. So ermöglichen sie es Lernenden beispielsweise, Lernobjekte – Video- oder Audiocasts, Blogs, Bilder, Dokumente und so weiter – zu sammeln, zu organisieren und mit eigenem Wissen anzureichern. Beispiele für solche „Kurationsplattformen“ sind Learnist (http://learni.st), ScoopIt (http://scoop.it) oder Edshelf (http://edshelf.com). Werden an Hochschulen statt geschlossener Lernmanagementsysteme (vgl. dazu das Kapitel #informationssysteme) Lernportale eingesetzt (zum Beispiel Drupal, http://www.drupal.de/), so ermöglicht das den Lernenden und Lehrenden, sich ihre eigene persönliche Lernumgebung einzurichten und zugleich mit einer Lerngruppe zusammenzuarbeiten, zum Beispiel dieselben Materialien, Werkzeuge und Aufgabenstellungen nutzen zu können und ausgewählte Informationen mit den anderen zu teilen (vgl. zu diesem Abschnitt Kerres 2012, 459ff.).

Eine feste Definition der Begriffe Lernportal und Lern-Community gibt es derzeit noch nicht; so werden sie etwa im Bereich des Sprachenlernens – wie im Praxisbeispiel erläutert – etwas anders genutzt als oben beschrieben (vgl. zum Sprachenlernen mit Technologien auch das Kapitel #fremdsprachen).

In der Praxis: Communities und Portale zum Sprachenlernen

Welche Funktionen in einem Sprachlernportal oder einer Sprachlern-Community zur Verfügung stehen, hängt von den einzelnen Anbietenden ab. Oft können kostenfrei nutzbare Funktionen durch kostenpflichtige Angebote ergänzt werden. Allerdings ist es für Lernende häufig schwierig abzuschätzen, was genau ein Angebot leistet. Kritisiert werden unter anderem eintönig gestaltete Lerneinheiten und schlichte didaktische Konzepte, aber auch mangelnde Unterstützung bei der Suche von Lernpartnern und -partnerinnen und weiteres (Heywinkel 2012).

Freie Online-Angebote für Selbstlernende

Offene Online-Kurse

Im Gegensatz zu den bisher beschriebenen, frei im Netz zur Verfügung stehenden Lernmöglichkeiten geht es im Folgenden um online durchgeführte, kursartig organisierte Lernangebote: Ein Offener Online-Kurs (OOC) ist zunächst einmal ein Kurs. Es gibt also nicht nur Lerninhalte und Lernmaterialien, sondern auch Teilnehmer/innen und Veranstalter/innen, die innerhalb eines festgelegten Zeitraums, von einem Start- bis zu einem Enddatum, gemeinsam miteinander lernen. Das Stichwort „Online“ bezieht sich darauf, dass der Kurs ausschließlich im Netz stattfindet, „offen“ bedeutet zum einen, dass der Kurs kostenlos ist, zum anderen, dass in der Regel keinerlei formale Zugangsvoraussetzungen (zum Beispiel Zeugnisse) bestehen.

Öffentliche Aufmerksamkeit erlangten sogenannte MOOCs, Massive Open Online Courses – also OOCs mit sehr hohen Teilnehmendenzahlen –, spätestens, als im November 2012 die New York Times das Jahr 2012 zum „Year of the MOOC“ erklärte (Pappano, 2012). Dabei richtet sich das Interesse der Medien und der Öffentlichkeit fast ausschließlich auf die inzwischen sogenannten „xMOOCs“: Solche Kurse, deren Konzept sich an traditionellen Vorlesungen orientiert, wurden zum ersten Mal Ende 2011 durchgeführt und sind mit zum Teil über 100.000 registrierten Teilnehmenden unbestritten „massive“. Eine andere Form von MOOCs, für die sich inzwischen die Bezeichnung „cMOOCs“ durchgesetzt hat, wird bereits seit 2008 angeboten, zuerst von den kanadischen E-Learning-Experten George Siemens und Stephen Downes. Ihnen liegt mit dem Konnektivismus (zu diesem Ansatz vgl. Kapitel #lerntheorie) ein völlig anderes Konzept zugrunde, das erheblichen Einfluss auf die Gestaltungsprinzipien hat (zur Entwicklungsgeschichte und Charakterisierung von MOOCs vgl. Kapitel #offeneslernen und Kapitel #systeme). Im Folgenden geht es vor allem darum, welche unterschiedlichen Anforderungen die beiden MOOC-Formen an Lernende stellen.

xMOOCs: Rezipierendes Lernen

xMOOCs sind darbietungsorientiert und instruktional konzipiert. Sie folgen einem klaren Curriculum und geben eindeutige Lernziele vor. Zentrales Element sind am Format von Vorlesungen angelehnte, regelmäßig getaktete (zum Beispiel wöchentliche) Inputs, meist in Form von Videobeiträgen. Die Aktivitäten der Teilnehmenden bestehen vor allem in der Erledigung von Aufgaben in Form von Quizzes oder Essays. Der Einsatz von Foren dient eher zur Klärung inhaltlicher Verständnisfragen als dem diskursiven Austausch. In der Regel kann zum Abschluss von xMOOCs ein Zertifikat erworben werden.

cMOOCs: Lernen durch Vernetzung

cMOOCs gehen, dem konnektivistischen Ansatz entsprechend, von einem völlig anderen Verständnis von Lernen aus: Da sich mit der im Internet vorhandenen Fülle von sich ständig weiterentwickelnden Informationen der Wissensbegriff und das Ziel von Lernen verändere, gehe es nicht mehr darum, Informationen persönlich zu verinnerlichen, sondern ein Netzwerk aufzubauen, das es ermöglicht, einen Überblick über aktuelle Entwicklungen, Verbindungen zwischen Themenfeldern, Ideen und Konzepten zu erkennen (Arnold et al., 2013, 110f.).

Dementsprechend wird Lernen als selbstorganisierter Prozess in Netzwerken verstanden, in dem die Lernenden zum Beispiel selbst entscheiden, welche Lernziele für sie im Vordergrund stehen, wie sie das eigene Lernen organisieren oder welche Werkzeuge sie verwenden. In cMOOCs verändert sich deshalb die Rolle der Lehrenden hin zu Lernbegleiterinnen und Lernbegleitern, die unterstützende Rahmenbedingungen schaffen, etwa eine inhaltliche und zeitliche Struktur, die meist auch regelmäßige synchrone Treffen beinhaltet. Abgesehen davon werden die Lernenden jedoch als gleichberechtigte Partner/innen beim gemeinsamen Lernen im Netzwerk verstanden, die durch eigene Beiträge, zum Beispiel in Foren, per Blog oder über Twitter, zur inhaltlichen Gestaltung des Kurses beitragen. Dafür haben Stephen Downes und George Siemens (Downes, 2012) vier Aktivitätsmuster beschrieben, die sie für kennzeichnend und konstitutiv halten: Orientieren (Aggregate), (neu) Ordnen (Remix), Beitragen (Repurpose) und Teilen (Feed forward) (Wedekind, 2013).

Herausforderungen bei der Gestaltung von MOOCs

An beiden MOOC-Formen besteht offensichtlich von Seiten der Lernenden großes Interesse. Und trotz der erheblichen konzeptionellen Unterschiede gibt es ähnliche Probleme, insbesondere hohe Abbruch-Quoten: Die Abschlussprüfungen in xMOOCs legen meist weniger als zehn Prozent der registrierten Teilnehmenden ab; die Beteiligung an Online-Events sowie die Anzahl von Beiträgen etwa in Diskussionsforen oder Blogs nehmen in beiden Kursformen nach der Anfangsphase meist erheblich ab. Kritisiert wird auch die oft sehr heterogene Zusammensetzung der Teilnehmenden, die sich unter anderem aus einer mangelnden Differenzierung in Bezug auf die Teilnahmevoraussetzungen und einer unklaren Ausrichtung auf bestimmte Zielgruppen ergibt. Auch kann bei der Betreuung so großer Gruppen nur schwer auf die Bedürfnisse Einzelner eingegangen werden, und der Erfolg von Peer-Reviews hängt stark von der Zusammensetzung der jeweiligen Arbeitsgruppen ab. Zwar gibt die zeitliche Taktung den Lernaktivitäten eine Struktur, andererseits gibt es jedoch gerade in xMOOCs oft auch wenig Raum für freie Zeiteinteilung, was Teilnehmende häufig vor eine Herausforderung stellt (vgl. zu diesem gesamten Abschnitt zum Beispiel Bremer & Thillosen, im Druck).

Beide MOOC-Formen sind ein sehr neues Phänomen, dessen weitere Entwicklung noch viele Fragen beinhaltet. Dies betrifft neben Aspekten der konkreten Ausgestaltung der Kurse – zum Beispiel Modelle der didaktischen Gestaltung oder der Durchführung valider Prüfungen – auch darüber hinausgehende und für Lernende (und die Planung lebenslangen Lernens) ebenfalls wichtige Fragen etwa nach nachhaltigen Geschäftsmodellen und der (zukünftigen) Bedeutung von MOOCs im Bildungssystem.

In der Praxis: Der COER13, ein cMOOC zum Thema OER

Vom 8. April bis zum 1. Juli 2013 fand der Offene Online Course zu Open Educational Resources (COER13) statt. Im Rahmen des konnektivistisch geprägten Kurses setzten sich Veranstalter/innen und Teilnehmer/innen mit Themen rund um Theorie und Praxis von OER auseinander. Das Spektrum reichte von praktischen Fragen wie der Suche nach offenen Bildungsressourcen, deren Erstellung und dem Einsatz in der Praxis bis hin zu Überlegungen zur Finanzierung von OER und zum Umgang von Bildungsinstitutionen mit diesem Thema. Die Kursseite steht Interessierten weiterhin mit allen Inhalten und Materialien zur Verfügung – dort finden Sie also auch umfangreiche weiterführende Materialien zum Thema OER.

?

Informieren Sie sich auf der Website des Kurses (http://www.coer13.de) in der Rubrik „Über diesen Kurs“ über Ziele, Themen und Adressatinnen und Adressaten des COER13. Wählen Sie dann unter „Programm“ die Kurseinheit „OER Suchen und Finden“ aus, und verschaffen Sie sich anhand der dort eingestellten Materialien, der Online-Veranstaltungen und der im unteren Teil der Seite angezeigten Kommentare einen Überblick zur Kurseinheit. Nutzen Sie auch das im Menü auf der linken Seite erreichbare Blog- und Newsletter-Archiv, und lesen Sie die im Zeitraum der Themeneinheit verfassten Blog-Meldungen und E-Mails. Wechseln Sie zurück auf die Seite der Themeneinheit und erledigen Sie den dort beschriebenen Arbeitsauftrag für wOERker. Damit tragen Sie übrigens selbst auch zur Sammlung von OER bei!

!

Einen Eindruck davon, wie (unterschiedlich) MOOCs gestaltet sein können, erhalten Sie natürlich auch in jedem anderen MOOC. Ständig aktualisierte Listen enthalten zum Beispiel die Seiten http://www.mooc.ca/courses.htm (cMOOCs) und http://www.class-central.com (xMOOCs).

?

Reflektieren Sie, ob das MOOC-Format für Ihren persönlichen Lernprozess geeignet wäre, und definieren Sie Chancen und Risiken eines solchen offenen, selbstgesteuerten Lernprozesses.

Freie Online-Angebote für Selbstlernende

Notwendige Kompetenzen zum Selbstlernen mit freien Online-Angeboten und Anreizsysteme

Die bisherigen Erfahrungen mit der Nutzung von freien Online-Selbstlernangeboten – seien es Lernmaterialien oder MOOCs – zeigen vor allem zwei zentrale Herausforderungen, um die es in diesem Abschnitt gehen soll: das Problem, qualitativ hochwertige Angebote zu finden beziehungsweise die Qualität gefundener Angebote einzuschätzen und das Problem der Selbststeuerung, insbesondere bei längeren Lernprozessen. Beide Aspekte erfordern zum einen neue Kompetenzen auf Seiten der Lernenden, zum anderen aber auch Unterstützung durch die Veränderung von Rahmenbedingungen und nicht zuletzt bildungspolitische Entscheidungen.

Medienkompetenz und selbstgesteuertes Lernen

Damit Selbstlernende das Potenzial von digitalen Lernangeboten wirklich ausschöpfen können, müssen sie über die notwendige Medienkompetenz verfügen. Das auf Baacke (1973) zurückgehende und inzwischen von verschiedenen Seiten umfassend weiterentwickelte Konzept der Medienkompetenz bezieht sich über Handhabungs- und Nutzungskompetenzen im Umgang mit Hardware und Programmen hinaus auf weitere, sehr unterschiedliche Aspekte wie Medienkritik, die Reflexion der Mediennutzung und weiteres. (Zu den verschiedenen Ansätzen und Entwicklungen des Konzepts der Medienkompetenz vgl. Kapitel #medienpädagogik.) In Bezug auf die Gestaltung von Selbstlernprozessen mit freien Online-Angeboten unterstützen solche Kompetenzen Entscheidungen auf verschiedenen Ebenen, etwa bei der Recherche und der Beurteilung der Qualität von Angeboten, der Handhabung von in Lernangeboten vorgegebenen Tools oder der Entscheidung, gegebenenfalls weitere Werkzeuge zu verwenden, zum Beispiel eine persönliche Lernumgebung zur Organisation des eigenen Lernens (zu persönlichen Lernumgebungen, englisch „personal learning environment“ vgl. Kapitel #systeme) und nicht zuletzt natürlich auch bei der Gestaltung der kooperativen Zusammenarbeit mit anderen.

Eine wesentliche Voraussetzung für autodidaktisches, mediengestütztes Lernen ist außerdem die Fähigkeit zum selbstgesteuerten Lernen. Selbststeuerung kann sich auf sehr unterschiedliche Aspekte beziehen, die in formalen Lernprozessen häufig vorgegeben sind, zum Beispiel Lernziele und -inhalte, Methoden, Medien sowie Überwachung der Zielerreichung. Darüber hinaus geht es jedoch auch um innerpsychische Leistungen der Selbstregulation, etwa kognitive Strategien zur Planung und Überwachung des Lernprozesses, das Bewusstsein für motivationale Präferenzen und bevorzugte Lernstrategien, Umgang mit Erfolg und Misserfolg und vieles mehr (vgl. hierzu ausführlich Kerres, 2012, 20-33).

Anerkennung von Lernleistungen und Anreizsysteme

Zwar gibt es Online-Lehrszenarien, in denen die Gefahr besteht, dass Lernende noch mehr als in traditionellen Lehrveranstaltungen vorgegebene Inhalte nur noch rezipieren. So kann zum Beispiel mit der Input-orientierten Struktur von xMOOCs eine verstärkte Dominanz der Lehrenden einhergehen. Grundsätzlich ist jedoch mit den zunehmenden Möglichkeiten der selbstorganisierten Gestaltung der eigenen Lernprozesse eher eine Umkehr der klassischen Rollenverhältnisse verbunden, von der Dominanz der Lehre – und der Lehrenden – hin zu einer Lerner/innen-Zentrierung (Arnold et al., 2013, 118). Dies wird durch Konzepte wie den Konnektivismus unterstützt; aber nicht nur in cMOOCs verändert sich die Rolle der Lehrenden hin zur Lernbegleitung. Zugleich wurde schon früh die Frage gestellt, was unter solchen Voraussetzungen „den Anreiz für das Lernen der Individuen“ schafft (Zimmer, 1997, 116). Dabei geht es also unter anderem um die Anerkennung von informellen Lernleistungen, auch beim Lernen mit OER und in MOOCs.

So wurde im Zusammenhang mit den ersten xMOOCs von hohen Zahlen bestandener Prüfungen berichtet; andererseits können solche Prüfungen – zumindest in Deutschland – kaum formal anerkannt werden, da es bei rein online abgelegten, automatisiert ausgewerteten Prüfungen nicht möglich ist, den Prüfling zweifelsfrei zu identifizieren. Im Kontext von cMOOCs war zunächst gar keine Zertifizierung vorgesehen, da man davon ausging, dass die Motivation zur Teilnahme im Interesse an dem Thema und am Austausch liege. Trotzdem legen inzwischen Untersuchungen nahe, dass die Anerkennung von Lernleistungen dazu beitragen könnte, die Abbruch-Quote zu reduzieren. Zurzeit wird deshalb sowohl in cMOOCs als auch in einigen anderen Lernangeboten, zum Beispiel der Khan Academy, die Einführung von Online-Badges erprobt, die freiwillig erworben werden können.

Solche Erkennungszeichen in Form von virtuellen Logos der Lernangebote dienen als Nachweis für die Erfüllung von Lernleistungen, selbst wenn keine formellen Zertifikate erworben werden können (e-teaching.org, 2012, Artikel Badges).

Freie Online-Angebote für Selbstlernende

Perspektivisches Fazit

Seit den ersten Überlegungen zu den Chancen, die sich durch das Internet für lebenslanges und autodidaktisches Lernen auftun, hat sich viel getan – allerdings vor allem auf der Seite der individuellen Lernenden: Hier haben inzwischen viele Personen Erfahrungen mit zeit- und ortsunabhängigen formellen und informellen Lernformen des E-Learning 1.0 und E-Learning 2.0 gemacht (zu den Begriffen formelles und informelles sowie E-Learning 1.0 und 2.0 vgl. das Kapitel #grundlagen). Hinzu kommt, und das ist ein maßgeblicher Unterschied zu klassischem Fern-/Teleunterricht, dass die Vernetzung Einzelner in sozialen Netzen in einer bislang noch nicht dagewesenen Dimension zunimmt (vgl. zum Beispiel die Darstellung der historischen Entwicklung im Kapitel #fernunterricht) und damit auch unabhängig von konkreten Unterstützungsangeboten soziales Lernen möglich wird.

Offene Fragen gibt es dagegen in den Bereichen, die öffentliche oder auch politisch-strukturelle Entscheidungen erfordern. Dies beginnt bei der Qualitätssicherung von freien Online-Angeboten. Hier gibt es zwar verschiedene Initiativen interessierter Privatpersonen, etwa den Multi-User Blog http://moocnewsandreviews.com/, der sich zum Ziel gesetzt hat, eine Orientierung bei der Beurteilung von MOOCs zu geben. Auf Dauer sollten jedoch allgemeine Qualitätsstandards erarbeitet werden.

Gerade in den öffentlichen Medien wird derzeit auch häufig die Frage gestellt, ob freie Online-Lernangebote wie MOOCs auf Dauer Hochschulen überflüssig machen. Zwar ist derzeit nicht davon auszugehen, solange diese Kurse nicht in reguläre Curricula eingebettet sind und valide Prüfungsformen gefunden werden; sicher ist aber, dass offene Lernangebote und traditionelle Lehre wechselseitig Einfluss aufeinander nehmen werden. So gibt es zum Beispiel inzwischen Schulen, die ausschließlich OER einsetzen (Tonks et al., 2013), und auch in Deutschland ging 2013 das erste OER-Schulbuch online, das auf dem Rahmenlehrplan eines Bundeslandes (Berlin) beruht (http://schulbuch-o-mat.oncampus.de/loop/BIOLOGIE_1). Allerdings bleibt auch abzuwarten, ob und wie sich offene Lernangebote verändern, wenn sie in formale Bildungsgänge integriert werden: Dass so viele Personen freiwillig an MOOCs teilnehmen, muss beispielsweise nicht unbedingt bedeuten, dass sich eine ähnliche Begeisterung fortsetzen würde, wenn MOOCs zum regulären Pflichtprogramm an Hochschulen würden – auch die Akzeptanz von Elementen des „E-Learning 2.0“ in formalen Lernsettings entspricht keineswegs den Erwartungen, die aufgrund des großen Erfolgs von Web 2.0 damit verbunden worden waren.

Trotzdem trägt diese Entwicklung zu einer Veränderung der Lernkultur bei, die auch Lernformen und die Rolle traditioneller Bildungseinrichtungen betrifft, die in einer so diversifizierten Bildungslandschaft neue Aufgaben bekommen könnten – wie beispielsweise die Unterstützung Lernender beim Erwerb von Selbststeuerungs- und Medienkompetenzen. Es ist zu erwarten, dass wesentliche Anstöße zur Unterstützung solcher Klärungsprozesse aus den Initiativen einzelner Engagierter – etwa dem do-it-yourself-Ansatz der Edupunks (Ebner et al., 2011) – und aus dem (formellen und) informellen Austausch darüber in sozialen Online-Netzwerken kommen werden.

Freie Online-Angebote für Selbstlernende

Literatur

Sozialarbeit

Digitale Beratung & Co

Ausgehend von aktuellen Diskussionen liefert dieser Beitrag einen Einblick in den Wandel des Berufsfeldes Soziale Arbeit. Mit dem Einzug der digitalen Medien in den Alltag der Menschen ziehen sie auch in verschiedene Arbeitsbereiche der Sozialen Arbeit ein und verändern diese. Ausgehend von einer kurzen Skizze der politischen Rahmenbedingungen wird zunächst die Soziale Arbeit definiert und ihre Zielgruppe eingegrenzt. Die Medienpädagogik in der Sozialen Arbeit wird anhand des Konzepts der Lebensweltorientierung und dessen Erweiterung durch die Medienwelt begründet. Die Vermittlung der Medienpädagogik als Kern der Sozialen Arbeit ist nur umsetzbar, wenn Hochschulausbildung und berufliche Weiterbildung die Thematik aufgreifen und etablieren. In den anschließenden Skizzen neuer Arbeitsfelder der „Aufsuchenden Sozialarbeit“ im Internet und Online-Beratung wird das Kapitel durch Praxisbeispiele ergänzt.

Sozialarbeit

Einleitung

Seit einiger Zeit wird zum Thema „Digitale Ungleichheit“ nicht mehr vornehmlich die Zugänglichkeit zum Netz diskutiert, immer häufiger steht die soziale Komponente im Vordergrund. Für Kutscher (2010, 154-156) zeigt sie sich zunehmend in der Nutzungsweise und dem Beteiligungsverhalten im Internet, welches häufig auf die Bildungsvoraussetzungen zurückgeführt wird. Der Aufruf an die Soziale Arbeit, auch im medialen sowie medienpädagogischen Bereich ihre Kompetenzen einzubringen, kommt nicht nur vonseiten der Bundesregierung, die mit der Darstellung „Medienkompetenzförderung für Kinder und Jugendliche: Eine Bestandsaufnahme“, herausgegeben vom Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ) mit dem Artikel von Angela Tillmann „Vermittlung von Medienkompetenz in der Praxis für Kinder und Jugendliche“ das Thema deutlich unterstreicht. Auf europäischer Ebene wird ebenso der Blick auf den Jugendmedienschutz durch Sozialarbeiterinnen und Sozialarbeiter gerichtet. Das Projekt SocialWeb – SocialWork wird von der Europäischen Kommission gefördert und ist im Bereich Kinder- und Jugendsozialarbeit angesiedelt. Konkrete Ergebnisse hieraus sind Anfang 2014 zu erwarten. Die öffentliche Diskussion sieht sowohl die Medienbildung als auch die Online-Beratung als neues Aufgabenfeld der Sozialen Arbeit. Aber nicht nur an dieser Stelle beeinflussen die Neuen Medien diese Profession.

Dieser Beitrag erhebt nicht den Anspruch, einen gesamten Überblick zu geben. Vielmehr gibt er einen Einblick in den Wandel des Berufsfeldes.

In der Praxis

Das Projekt SocialWeb – SocialWork ist ein von der Europäischen Kommission gefördertes Projekt zur Förderung des Erkenntnisgewinns, welches sich die Verbesserung der Internetsicherheit von besonders gefährdeten Kindern und Jugendlichen zum Ziel gesetzt hat. Auf der Webseite des Projekts finden sich frei zugängliche Online-Lerneinheiten (größtenteils barrierefrei) zum Selbstlernen aus dem Themenspektrum des Projektes.

Sozialarbeit

Medienpädagogik in der Sozialen Arbeit

!

Definition: Eine klare Bestimmung Sozialer Arbeit gestaltet sich aufgrund ihres interdisziplinären Aufgabenspektrums als schwierig. Soziale Arbeit versteht sich nach der aktuellen Definition des Deutschen Berufsverbands für Soziale Arbeit e.V. (DBSH) als Menschenrechtsprofession (nachzulesen unter: http://www.dbsh.de/beruf.html).

Dem Zusammenhang zwischen der Sozialen Arbeit und der Vermittlung von Medienkompetenz für die Zielgruppe der Kinder und Jugendlichen wurde gerade wieder im Medienkompetenzbericht des BMFSFJ (2013) ein besonderer Stellenwert in der Medienbildung zugewiesen. Aber auch für benachteiligte Personengruppen außerhalb des Jugendalters können in der Sozialen Arbeit Tätige eine wichtige Rolle im Hinblick auf ein eigenverantwortliches und gemeinschaftsfähiges Leben übernehmen, beispielsweise in der Sozialen Arbeit mit älteren Menschen.

Nach dem Slogan „Im Alter aktiv sein“ bemüht sich die moderne Soziale Arbeit mit Älteren um innovative Engagement- und Beteiligungsformen sowie eine „Produktivität im Alter“ (Kricheldorff, 2010, 68f.). Neue Medien werden zunehmend ein Teil der Zielgruppenarbeit in der Sozialen Altenarbeit. Dies geschieht derzeit unter anderem durch medienbiografische Aufarbeitung in der Arbeit mit Demenzerkrankten oder durch 'Internet-Patenschaften' zum Einstieg in die digitale Welt und ihre Möglichkeiten, älteres Klientel durch die Nutzung Sozialer Netzwerke vor Isolation und Vereinsamung zu bewahren.

In ihrer Eigenschaft als Beruf am Menschen setzt Soziale Arbeit im Alltagsleben der Klientel an. Ihre Pädagogik kann sich vor der medialen Lebenswelt in allen Altersgruppen, insbesondere in der von (Massen-)Medien beeinflussten Kinder- und Jugendarbeit, nicht verschließen. Medienarbeit und die Medienkompetenz der Pädagoginnen und Pädagogen selbst entwickeln sich daher im Sinne der Förderung ihrer Zielgruppen zu substanziellen Aspekten sozialpädagogischen Handelns (Cleppien & Lerche, 2010, 11).

Lebensweltorientiertes Arbeiten mit sozialen Medien

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Das Handlungskonzept der Lebensweltorientierung in der Sozialen Arbeit nach Thiersch (1993) erfordert eine systemisch-ganzheitliche und situationsbezogene Pädagogik für das Klientel. Im 8. Jugendbericht des Bundesministerium für Jugend, Familie, Frauen und Gesundheit (1990) wurde die Lebensweltorientierung als leitende Handlungsmaxime der Jugendhilfe formuliert. Sie nimmt Menschen außerhalb der gesellschaftlichen Norm nicht als Problemgruppen wahr, sondern zeigt sich offen für die individuelle Lebensgestaltung (Bürgermeister, 2009, 167-169).

Durch die Entwicklung von Lebenswelten zu Medienwelten nimmt die Medienpädagogik in der lebensweltorientierten Sozialen Arbeit eine zentrale Rolle ein. Bürgermeister spricht vom Praxis-Jargon: 'Das Klientel dort abholen, wo es steht', in einer alltagsorientierten und interessengeleiteten Medienarbeit innerhalb der Lebenswelt einzelner und des sozialen Raumes.

Anknüpfungspunkte für die Praxis bieten sich somit direkt in der Alltagswelt der Menschen. Sie leiten sich von den Bedürfnissen und Interessen der Zielgruppen und ihrer sozialen Umwelt ab. Die Praxismöglichkeiten sind daher vielfältig und auf den individuellen Fall angepasst. So zieht sich die lebensweltorientierte Soziale Arbeit von der Kindermedienarbeit im Vorschulalter, über die Online-Beratung aller Altersgruppen und themenspezifische Projekte mit Zielgruppen aller Art bis hin zur Medienkompetenzvermittlung für Ältere. Ziel hierbei ist stets eine für die Klientel Partei ergreifende, dem Berufsethos der Sozialen Arbeit folgende Methodik, welche sich im Selbstverständnis von Sozialer Arbeit als Menschenrechtsprofession begründet.

Prävention, Regionalisierung, Alltagsnähe, Partizipation und Integration als Grundprinzipien der Lebensweltorientierung lassen sich hierzu auf die medienpädagogische Arbeit übertragen (Bürgermeister, 2009, 167-169).

Medienbildung als Kern Sozialer Arbeit mit Medien

Ziel der Medienpädagogik in der Sozialen Arbeit ist nach Hoffmann (2010) die Vermittlung von Medienkompetenz. Dies entspricht dem hilfeorientierten Selbstverständnis der Sozialen Arbeit, Menschen im Sinne von Teilhabe und freier Lebensführung zu unterstützen. Die eingeschränkte Befähigung im Umgang mit Medien behindert Teilhabe und stellt eine mögliche Ursache für Problemsituationen dar. Dahingegen eröffnen sich bei kompetenter Nutzung neue Möglichkeiten für die individuelle Lebensführung. Medienpädagogische Kompetenz in der Sozialen Arbeit zielt daher auf die Interessen und Bedürfnisse der Mediennutzenden und ihrer Lebensplanung ab (Hoffmann, 2010, 57ff).

Im Kontext Sozialer Arbeit erfolgt Medienbildung lebensweltorientiert. Entsprechend der Definition von Medienpädagogik nach Baacke (1997) können die vier medienpädagogischen Aspekte – Medienkritik, Medienkunde, Mediennutzung, Mediengestaltung - auf die Soziale Arbeit angewandt werden. Als ethisch- und werteorientierte Profession richtet sich der kritische Blick Sozialer Arbeit hierbei vor allem auf die mediale Darstellung gesellschaftlicher Gruppen sowie die Analyse möglicher Fehlentwicklungen, welche zu Spaltung und Teilhabebarrieren führen können. Zugang und Partizipation in der Medienwelt sollen ermöglicht werden, wobei dies bereits auf elementarster Ebene, nämlich der Sprachförderung, beginnt. Hierbei kommt der Nützlichkeit von Medien in der individuellen Lebensgestaltung eine zentrale Rolle zu. Soziale Medienarbeit zielt auf selbstbestimmte, menschendienliche Anwendung von Medienkommunikation und -technologien. Hierzu gehört auch die parteiische Vertretung der Klientel sowie Mediennutzung zu Lobbyzwecken im Sinne des Berufsethos (Hoffmann 2010, 63-65).

Medienpädagogik im lebenslangen Lehrplan der Sozialen Arbeit

Um medienpädagogische Unterstützung durch Fachkräfte der Sozialen Arbeit gewährleisten zu können, gilt es zunächst, diesen Themenschwerpunk im Curriculum der Hochschulausbildung zu verankern.

Zudem sollte flächendeckend ein alltagsnaher und berufsbegleitender Weiterbildungsansatz angeboten werden, um die Medienkompetenz nicht nur als Thema abzuarbeiten, sondern den Teilnehmenden die Möglichkeit zu geben, verschiedene Ansätze kennenzulernen, auszuprobieren, in den eigenen Alltag zu integrieren

und sich an die ständige Entwicklung und Veränderung der digitalen Medien gewöhnen und diese als Möglichkeit wahrnehmen zu können. Hierzu haben Kutscher et al. (2009) ein modular aufgebautes Weiterbildungskonzept für Fachkräfte der Kinder- und Jugendarbeit entworfen, welches beispielhaft als Grundlage für Qualifizierungsmaßnahmen herangezogen werden kann.

Auch der aktuelle Kinder- und Jugendbericht der Bundesregierung (2013) beschreibt ausführlich die Herausforderungen der Mediatisierung des Aufwachsens. Er unterstreicht das Anliegen der Fortbildung von Fachkräften im Bereich der Kinder- und Jugendhilfe, um die Zielgruppe auch im medial geprägten Alltag kompetent zu unterstützen.

Sozialarbeit

Soziale Arbeit im Netz

Das Internet als neues Handlungsfeld in der Sozialen Arbeit wird unter anderen von Warras (2009) thematisiert. Er stellt insbesondere die Frage, ob virtuelle Hilfe auch Soziale Arbeit sein kann. Warras sieht das Internet als zukünftig bestehenden, festen Bestandteil Sozialer Arbeit an und blickt hierbei auf die Möglichkeit zum Einsatz von 'Cyber-Pädagoginnen und -Pädagogen' oder 'Cyber-Streetworkerinnen und -Streetworkern' zur Leistung Aufsuchender Sozialer Arbeit im Netz sowie in der Online-Beratung.

Aufsuchende Sozialarbeit im Internet

Aufsuchende Soziale Arbeit ist ein professionelles Handlungskonzept. Sie 'sucht auf' und begegnet den Menschen, wo sie sind. Ist dies im traditionellen Streetwork die Straße, so könnte es im Cyber-Streetwork die 'Datenautobahn' sein. Ob sich die Aufsuchende Sozialarbeit auf den virtuellen Raum ausweiten lässt, testeten das Team um Pritzens (2011) und Heide des Vereins 'Gangway e.V. – Streetwork/Straßensozialarbeit in Berlin' in einem Modellprojekt. Als Sozialarbeiter beziehungsweise Sozialarbeiterin kenntlich sind sie in sozialen Netzwerken angemeldet und bieten jungen Menschen sozialpädagogische Hilfen nach § 13 SGB VIII. Sie leisten Unterstützung bei schulischer und beruflicher Ausbildung, Eingliederung in die Arbeitswelt sowie sozialer Integration.

Auch für Wilke und Jankowitsch (2012) des Caritasverbandes für Stuttgart e.V liegt es auf der Hand, das Konzept der Aufsuchenden Jugendarbeit auf das Internet zu transferieren. Sie ließen diesen Transferprozess wissenschaftlich durch das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO begleiten. Sie stellten sich zunächst die grundlegende Frage „Wer ist wann im Netz und wo zu finden?“, bevor sie sich für eine Präsenz in sozialen Netzwerken entschieden.

In der Praxis

Zu empfehlen ist eine klare Regelung für die Präsenz im Netz. Fragen zum Datenschutz, zur Kommunikation, zur Zielgruppe, zur Kontinuität der Online-Erreichbarkeit sowie der Integration in den Arbeitsalltag stehen nur beispielhaft für die Bandbreite der Fragen, die im Vorfeld geklärt werden sollten. Grundlage sollte ein Konzept sein, das Antworten auf diese Fragen bereithält und flexibel an die Schnelllebigkeit des Netzes anpassbar ist.

?

Als Grundlage kann das im Netz frei verfügbare Positionspapier „Mobile Jugendarbeit 2.0. Herausforderungen und Möglichkeiten Mobiler Jugendarbeit im virtuellen Raum des Internet“ der LAG Mobile Jugendarbeit BW e.V., LAK Mobile Jugendarbeit Sachsen e.V. und der BAG Streetwork/Mobile Jugendarbeit e.V. dienen: http://lag-mobil.de/on/uploads/materialpool/querschnitt/mja_2.0_handlungsempfehlungen.pdf [2013-08-24]

Online-Beratung

Der Beratungsbedarf über das Netz ist hoch – allein im Jahr 2012 sind bei der Nummer gegen Kummer e.V. 11.480 Anfragen per E-Mail nur von Jugendlichen eingegangen. In spezifischen Lebenslagen bietet sich Online-Beratung zur Überwindung persönlicher Barrieren an. Dies kann der Fall sein, wenn die Betroffenen örtlich gebunden, bettlägerig oder auch inhaftiert sind. Zudem bietet die Anonymität und einfache Erreichbarkeit der Beratung im Internet einen niedrigschwelligen Zugang. Dieser Bedarf ist gleichwohl ein Aufgabenfeld in der Sozialen Arbeit, der langsam wahrgenommen und aufgegriffen wird, aber durch die technischen Komponenten und die neuen Kommunikationsformen im Internet nicht ganz einfach zu bewältigen ist. Zunächst wollen grundlegende Fragen beantwortet sein.

In der Praxis

Mit dem Thema Online-Beratung über Chatsysteme hat sich das europäische Projekt Ch@dvice beschäftigt und einen ausführlichen Leitfaden ausgearbeitet:

http://www.digitalyouthcare.eu/sites/default/files/chdvice_leitfaden_-_de.pdf [2013-08-24]

Seit dem Frühjahr 2013 gibt es die erste hochschulzertifizierte Weiterbildung im Bereich der Online-Beratung an der Hochschule Nürnberg. Einen anderen Ansatz verfolgt das Beratungsportal Juuuport (www.juuuport.de). Mit dem Peer-to-peer-Ansatz bietet es eine Selbstschutzplattform von Jugendlichen für Jugendliche im Internet, auf der sich Jugendliche gegenseitig helfen, wenn sie Probleme im und mit dem Internet haben. 2011 gewann das Projekt den klicksafe Preis für Sicherheit im Internet (Juuuport, 2011).

?

Welche Ansätze der Online-Beratung wurden aufgezeigt? Worin liegen die Unterschiede? Besuchen Sie die Webseiten von Online-Beratungsstellen im Netz, und machen Sie sich mit dem Angebot vertraut, so dass Sie im Anschluss folgende Fragen beantworten können:

Fazit

Die Profession Soziale Arbeit steckt im Wandel. Digitale Medien gehören inzwischen zum Alltag der Menschen, und so erweitert sich ihr Aufgabenspektrum hinein in die digitale Welt. Das Angebot der Online-Beratung oder der Mobilen Jugendarbeit im Internet sind nur zwei Beispiele für Aufgabenfelder, die das Netz geschaffen hat. Der Ruf an den Bund, die Länder und Kommunen wird zunehmend lauter, medienbildende Aufgaben in der Sozialen Arbeit stärker zu verankern und zu fördern. Fachspezifische Kompetenzen bilden einen ausgezeichneten Grundstock, um gerade benachteiligte Bevölkerungsgruppen dabei zu unterstützen, die Chancen und Möglichkeiten der digitalen Medienwelt effektiver ausschöpfen zu können.

Um Fachkräfte in der Sozialen Arbeit so zu stärken, dass sie verantwortungsvoll und bedarfsgerecht ihre neuen Aufgaben erfüllen können, sollten neue Technologien, Mediennutzung, Internetangebote und medienpädagogisches Grundwissen grundsätzlich in das Aus- und Weiterbildungsangebot eingebunden sein.

Sozialarbeit

Literatur

Human- und Tiermedizin

Technologieeinsatz im Gesundheitswesen

In der human- und tiermedizinischen Bildung spielt technologiebasiertes Lernen für den Erwerb praktischer und theoretischer Kompetenzen eine zentrale Rolle. Bildungsszenarien der medizinischen Aus- und Weiterbildung befinden sich in einem dauerhaften Reformprozess, deren Kern die Zusammenführung theoretischer und praktischer Inhalte in interdisziplinären, auf Kleingruppenunterricht basierenden Curricula ist. Der Technologieeinsatz spielt dabei in unterscheidlichen Szenarien eine Rolle, beispielweise in Blended-Learning-Veranstaltungen, bei ergänzenden virtuellen Patientenvisiten oder auch ¸multitouchbasierte 3D-Patientensimulatoren’. Virtuelle Patientinnen und Patienten erlauben so neben der Entlastung schwerkranker und schutzbedürftiger Menschen eine intensivere theoretische Vorbereitung der Lernenden auf den Alltag in der klinischen Praxis. In diesem Beitrag wird außerdem auch auf die Arbeit mit E-Portfolios sowie auf den Einsatz von Social-Media-Werkzeugen in der medizinischen Aus- und Weiterbildung eingegangen.

Human- und Tiermedizin

Einleitung

Die Kompetenzfelder, in denen medizinisches Fachpersonal aus- und lebenslang weitergebildet werden muss, umfassen unter anderem folgende Kernbereiche: medizinisches Expertenwissen, Teamarbeit, professionelles Handeln, Gesundheitsberatung für die Gesellschaft, Management und lebenslanges Lernen (Öchsner & Forster, 2005; David, 2013). Aufgrund der hohen ethischen Verantwortung gegenüber den Patientinnen und Patienten werden neben den diagnostisch-therapeutischen Kompetenzen auch solche der Selbstreflexion, der kritischen Selbsteinschätzung, des wissenschaftlichen Denkens und Arbeitens, der Kommunikation und der Teamarbeit als berufsprägend definiert (EAEVE, 2009).

In der Tiermedizin werden die klinischen Tätigkeiten durch die Bereiche Forschung, Lebensmittelüberwachung und staatliche Aufgaben erweitert. Neben dem Fachwissen und den praktischen Fertigkeiten haben allgemeine Kompetenzen (Soft Skills) in der Kommunikation und Selbstreflexion sowie lebenslanges Lernen einen gleichrangigen Stellenwert erlangt (EAEVE, 2009).

!

Die medizinische Ausbildung muss, um auf vielfältige Aufgaben vorzubereiten, besondere Kompetenzen vermitteln.

?

Welche Kompetenzen muss die medizinische Ausbildung vermitteln?

Medizinische Curricula (Aus-, Fort- und Weiterbildung) werden zunehmend kompetenzbasiert entwickelt (David et al., 2013). Der Einsatz innovativer, technologiegestützter Lernszenarien nimmt in diesen einen festen Platz ein. Die klassische Trennung der Ausbildung in ¸patientenfreie Vorklinik’ und die ¸Klinik’ wurde in diesen Modellcurricula zugunsten einer interdisziplinären und problemorientierten Vermittlung praktischen und theoretischen Wissens anhand von typischen und häufigen Krankheitsbildern aufgegeben (#lernthorien). Ergänzend zum Präsenzunterricht werden Fallbeispiele von Patientinnen und Patienten sowohl in der Tier- als auch in der Humanmedizin als standardisierte virtuelle Lernfälle mit der Präsenzlehre verknüpft (‚Blended Learning’). Die Vermittlung der erforderlichen theoretischen und naturwissenschaftlichen Grundkenntnisse wird mit der Entwicklung übergreifender Kompetenzen (zum Beispiel differentialdiagnostischen Denkens) und klinischen Aspekten der Ausbildung verknüpft. Simulationen gehören so heute zum Standard einer guten medizinischen Ausbildung, sowohl im Unterricht als auch in den sich anschließenden Prüfungen.

Die Einbettung von Methoden des ‚Self Assessments’ und die Einführung elektronischer Prüfungsformate zur Überprüfung kognitiven Wissens und klinisch-praktischer Handlungs- und Entscheidungskompetenzen in technologiebasierten Lernszenarien sind die entscheidenden Qualitätssicherungskriterien für die mehrheitlich als ‚Blended-Learning-Szenarien’ realisierten Unterrichtsmodelle und Lernsettings. Sie stellen eine gleichbleibend hohe inhaltliche, didaktische und technische Qualität der Lernszenarien sowohl im Bereich der universitären Ausbildung als auch in der beruflichen Qualifikation sicher.

Human- und Tiermedizin

Formales Lernen

Die Mehrheit der medizinischen Hochschulen bieten ihren Studierenden, Dozentinnen und Dozenten Lernplattformen an, durch die begleitende Unterrichtsmaterialien und ‚E-Learning-Module’ verteilt werden. Die traditionellen ‚E-Learning-Techniken’ wie ‚Web Based Training’ (WBT) und ‚Computer Based Training’ (CBT) werden in ‚Blended-Learning Angeboten’-Angeboten eingesetzt, um Grundlagen zu vermitteln und die so erworbenen Kenntnisse dann in praktischen Kursen anhand echter Patientinnen und Patienten zu vertiefen (Woltering et al., 2009). Rapid-Learning-Techniken wie Podcasts oder Vorlesungsaufzeichnungen werden als Ergänzung, zum Teil aber auch als Ersatz von klassischen Lehrformaten eingesetzt. In hochschulübergreifenden Angeboten oder in der Fortbildung werden zusätzlich Veranstaltungen in sogenannten virtuellen Klassenräumen angeboten.

!

Fallbasiertes E-Learning mit dem Schwerpunkt auf virtuellen Patientinnen und Patienten wird in der Medizin etabliert, um das konstruktive Erlernen der Diagnostik zu verbessern.

?

Was versteht man unter virtuellen Patientinnen und Patienten? Welche Vorteile bringt der Einsatz virtueller Patientinnen und Patienten? Welche elektronischen Lehr- und Lernmedien stehen in der fallbasierten Lehre zur Verfügung?

Human- und Tiermedizin

Lerntechnologieeinsatz

Der Mehrwert durch den Einsatz von E-Learning in der Humanmedizin ergibt sich aus der Möglichkeit, pathophysiologische Prozesse als Modelle der Entstehung von Krankheiten in Form von eigenständigen ‚Blended-Learning-Lernmodulen’ anzubieten. Virtuelle Patientinnen und Patienten (fallbasierte Lernprogramme) haben durch kontinuierliche Weiterentwicklung der Software-Technologie und Abstimmung der Inhalte an die Anforderungen kompetenzorientierter Curricula einen großen Stellenwert erlangt. Fallbasierte Lernprogramme wie zum Beispiel ©Casus, ©CAMPUS, ©Prometheus oder ©Inmedea ermöglichen die multimedial unterstützte Anwendung des Grundlagenwissens und simulatives Training des klinischen, differentialdiagnostischen Denkens (Huwendiek et al., 2009). Präsenzveranstaltungen für das Training der Arzt-Patienten-Kommunikation können mit ihrer Hilfe vor- und nachbereitet werden.

Zusätzlich zu den virtuellen Patientinnen und Patienten werden Patientensimulatoren verschiedener Typologien eingesetzt. Eine beispielhafte Lösung für die zukünftige Entwicklung medizinischer Patientensimulatoren ist das im Jahr 2013 mit dem EureleA ausgezeichnete Projekt „SimMed“ (http://elearning.charite.de/projekte/simmed/ [2013-08-27]). Im Zentrum des gemeinsam von der Charité-Universitätsmedizin Berlin und der Archimedes Exhibitions GmbH entwickelten Systems steht der sogenannte „Session Desk“, ein etwa tischgroßer waagerecht liegender Multitouchscreen, um den sich eine Lerngruppe oder ein Behandlungsteam versammeln kann. Auf diesem wird die Patientin beziehungsweise der Patient virtuell als 3D-Animation abgebildet. An der/dem auf dem Schirm mit Krankheitssymptomen dargestellten Patientin oder Patienten können fotorealistisch medizinische Instrumente angelegt werden (Blutdruck- bzw. Temperaturmessung etc.). Teambasiert können Prozeduren und Abläufe interaktiv in Echtzeit trainiert werden.

Die Untersuchung realer Patientinnen und Patienten soll und kann nicht durch ‚E-Learning’ ersetzt werden. Virtuelle Fallbeispiele ermöglichen es aber, den Lernenden eine größere Anzahl von unterschiedlichsten Patientinnen und Patienten (auch mit seltenen Erkrankungen) zu zeigen, die in den Fällen enthaltenen typischen Symptome (beispielsweise Hustengeräusche, Hautausschläge, Anamnesevideos) größeren Gruppen von Lernenden gleichzeitig vorzustellen und die Belastung von schwerstkranken Menschen aller Altersgruppen durch den für eine hochwertige Ausbildung notwendigen Unterricht zu vermindern.

Mobile Lerntechnologien werden virtuelle Patientenfälle zukünftig ergänzen. Nachdem die Lernenden an der virtuellen Patientenvisite zum Beispiel am „Session Desk“ teilgenommen haben, verfolgen sie den Verlauf weiterer virtueller Patientinnen und Patienten auf ihren mobilen Endgeräten in Echtzeit und können so selbst den Behandlungsverlauf weiter steuern. Zusätzlich erlaubt die Sensorik der mobilen Endgeräte ein auf den Tagesablauf der Lerner/innen abgestimmtes proaktives Angebot von individuellen Lerneinheiten auch während der Arbeitszeit (Hardyman, 2013).

Human- und Tiermedizin

Netzwerke und curriculare Integration

In der tiermedizinischen Aus- und Fortbildung ist es laut §2 TAppV (BGBl, 2006) möglich, Teile der Lehrveranstaltungen durch E-Learning zu ersetzen. Bis zu 25 Prozent der erforderlichen Fortbildungspunkte dürfen durch ‚E-Learning-Maßnahmen’ erworben werden. Alle deutschsprachigen tiermedizinischen Bildungsstätten haben ein gemeinsames Kompetenzzentrum für E-Learning, Didaktik und Ausbildungsforschung (http://www.keldat.org [2013-08-27]) aufgebaut, das unter anderem den Austausch von Lernmedien und die Weiterentwicklung elektronischer Lehre organisiert (Koch et al., 2008).

Die Grundhindernisse des freien Angebotes von medizinischen Lernmedien als ‚Open Educational Ressources’ (OER) sind die medizinische Schweigepflicht, der Datenschutz zur Wahrung der Privatsphäre der Patientinnen und Patienten und die medizinische (inhaltliche) Qualitätssicherung der offen zugänglich angebotenen Materialien. Eine Lösung bieten hier einrichtungsübergreifende Austauschnetzwerke, die die oben genannten Rahmenbedingungen berücksichtigen. In der Humanmedizin wird daher der Austausch von Lernmedien durch Verbundprojekte wie „k-MED“ und „Caseport“ gefördert, die überregional Hochschulen miteinander vernetzen und die aufwendige Erstellung und den Austausch von fakultativen elektronischen Lehrmaterialien erleichtern sollten (Zimmer et al., 2005). Im Fort- und Weiterbildungsbereich gibt es das „Netzwerk Allgemeinmedizin“ (Waldmann et al., 2008; Fischer et al., 2004). Allerdings bleibt es, obwohl technisch durch ‚Shibboleth-Schnittstellen’, ‚Lern-Management-Systeme’ (LMS) und das ‚Shareable Content Objekt Reference Model’ (SCORM) möglich, durch patientenrechtliche Datenschutzfragen schwierig.

Zukünftig wird ein Wechsel von Lern-Management-Systemen zu persönlichen Lernumgebungen (‚Personal Learning Environments’) eine Vereinfachung des Austausches von elektronischen Bildungsressourcen erlauben (Zaucher et al., 2010). Zu klären bleibt, ob zusätzliche (auch elektronische) Lehrangebote die gerichtlich einklagbare Vergabe zusätzlicher Studienplätze nach sich ziehen können.

Das erste humanmedizinische Curriculum, das eine auf das Lehrdeputat anrechenbare Integration von E-Learning als eigenständige ‚Blended-Learning-Unterrichtsveranstaltung’ vorsieht, ist der Modellstudiengang Medizin in Berlin (ab Wintersemester 2010/2011).

In der Pflegeausbildung spielt E-Learning vor allem in den Studiengängen des Pflegemanagements eine Rolle. Die Aus-, Fort- und Weiterbildungszentren für die Pflege sowie die Pflegeeinrichtungen sind immer noch nicht ausreichend mit den notwendigen Infrastrukturen ausgestattet, um neue Lehr- und Lernformen über das Internet umfassend nutzen zu können. Für eine Verbesserung dieser Situation setzt sich der Verein „eLearning in der Pflege e.V.“ (http://www.elearning-pflege.de [2013-08-27]) ein.

Human- und Tiermedizin

Didaktik

Die charakteristische Form des curricular integrierten E-Learnings in den medizinischen Fächern ist das problemorientierte, fallbasierte Lernen mit virtuellen Krankheitsfällen. Hier geht es um den selbstgesteuerten Wissenserwerb an konkreten, impliziten und mehrfach interpretierbaren Fallbeispielen unter Vermeidung von „trägem Wissen“ (#lerntheorien; #offeneslernen)

Im Sinne von fallbasierten Schlussfolgerungen soll Erfahrungswissen mit hohem Praxisbezug erworben werden. Der Einsatz der bereits beschriebenen virtualisierten Patientenfälle erzeugt im Rahmen der curricularen Integration einen echten didaktischen Mehrwert. Die Lernenden erhalten die Möglichkeit, das Abwägen verschiedener Differentialdiagnosen zu trainieren und anhand dessen die rationelle Diagnosestellung und die geeignete Behandlung für die virtuellen Patientinnen und Patienten festzulegen. Die eigenen Vorschläge können mit denen von Expertinnen und Experten abgeglichen werden, ähnlich der direkten Teilnahme der Lernenden an einer Visite oder Fallbesprechung.

Es werden Systeme mit unterschiedlich starkem Simulationsgrad eingesetzt. Die Auswahl orientiert sich an den Erfordernissen des medizinischen Lernszenarios und den Kompetenzen der Studierenden. Die Systeme variieren zwischen einer sehr starken Führung der Nutzerin oder des Nutzers entlang eines Expertenweges (genannt ‚scaffolding’) wie zum Beispiel bei @CASUS, @CAMPUS, bis zu vollständigen diagnostischen Simulationen wie zum Beispiel @Inmedea. Die Anwendung der virtuellen Fallbeispiele kann in Präsenz, zum Selbstlernen, für kollaboratives oder problemorientiertes Lernen in einem Blended-Learning-Szenario oder als „task-based Learning“, also als Lernen an einer Aufgabe, erfolgen. Auch studierendengenerierte Fälle im Sinne eines „Lernen durch Lehren“ sind eine Integrationsmöglichkeit für virtuelle Patientinnen und Patienten (Ehlers, 2009).

Serious Games’ beginnen sich in der Humanmedizin als anerkanntes Lernformat durchzusetzen (Sostmann et al., 2010). Zukünftige Formate sehen ein Zusammenwachsen der Lernumgebungen vor. Interaktionssysteme, die Berührungen von einem/einer Benutzer/in oder mehreren Benutzerinnen und Benutzern als Eingabe entgegennehmen also sog. Multitouch-Umgebungen (Wang, 2008) und stark verbilligte Technologien werden in Kombination mit dem Einsatz von Simulatoren, die sogar auf echte Medikamente reagieren (‚Full-Scale-Simulatoren’), virtuelle Patientinnen und Patienten noch wesentlich realer erlebbar werden lassen (Kaschny et al., 2010). Simulatoren und haptische Werkzeuge bilden die Brücke zwischen den rein virtuellen E-Learning-Simulationen und dem Lernen im Umgang mit realen Patientinnen und Patienten.

Vorrangig besteht das Ziel der ‚Virtualisierung’ in der Simulation eng umschriebener diagnostischer und therapeutischer Interventionen und des Trainings der damit verbundenen Kompetenzen. Sie haben einen festen Platz in der Ausbildung zur minimal invasiven Chirurgie, bei Schulung an Ultraschallgeräten, bis hin zum Training der rektalen Untersuchung bei der Kuh erlangt (Baillie et al., 2005). Augmented-Reality-Training’ wird beim Einüben basaler Nahttechniken ebenso eingesetzt wie im Training komplexer chirurgischer Eingriffe (Botden et al., 2009). Kritische Notfall-Situationen können ohne Risiko für Patientinnen und Patienten an ‚Fullscale-Simulatoren’ mit einem ähnlich hohen Standard wie bei dem Training von Pilotinnen und Piloten in Flugsimulatoren eingeübt werden.

In der Zahnmedizin lernen Studierende in der Vorklinik nach der theoretischen Ausbildung in der Regel zunächst an einem sogenannte Kopfmodell. Ein an einen sogenannten „Mundhöhlensimulator“ angeschlossenes Computerprogramm misst die Fortschritte in der Entwicklung der praktischen Kompetenzen, beispielsweise der Geschicklichkeit) der/des Studierenden, sowie den Behandlungserfolg direkt und meldet dies an die Teilnehmer/innen in Form eines strukturierten Feedbacks zurück. Die Studierenden werden während ihrer Tätigkeiten von erfahrenen Tutorinnen und Tutoren begleitet, die die erforderlichen Handgriffe und Behandlungen erklären. Die Präsenz- und Online-Anteile der verschiedenen Trainingsangebote werden als ‚Blended-Learning-Szenario’ miteinander verbunden. Die Präsenzphasen finden zum Teil in speziellen Trainingszentren statt, die mittlerweile von fast jeder Universität vorgehalten werden.

Human- und Tiermedizin

Lebenslanges Lernen

Das lebenslange Lernen der medizinischen Fachkräfte wird durch den Begriff ‚Continuing Medical Education’ (CME) beschrieben. Ziel der Fortbildung ist die qualitativ hochwertige medizinische Versorgung der Bevölkerung auf dem jeweils aktuellen medizinischen Wissensstand. Das Angebot der Veranstaltungen muss sich in den Berufs- und Lebensalltag der medizinischen Fachkräfte integrieren lassen, der durch eine starke Verdichtung der Arbeitsabläufe geprägt ist. Die Berufsordnung verpflichtet zur Fortbildung durch den vorgeschriebenen Erwerb von CME-Punkten, bei Ärztinnen und Ärzten gegenwärtig 250 CME-Punkte in fünf Jahren, andernfalls drohen Sanktionen. Bei fast allen deutschen Landesärztekammern besteht die Möglichkeit, 100 Prozent der CME-Punkte kumulativ online zu sammeln. Die aktuellen ‚E-Learning-Angebote’ bieten zunehmend die Möglichkeit, kleinere Lerneinheiten entsprechend einem persönlichen Lernportfolio innerhalb der eigenen Fachrichtung zu absolvieren. Solche Angebote stammen häufig von kommerziellen Anbietern, aber auch von den Fachverbänden der einzelnen Berufsgruppen (Corrigan et al., 2012). Zunehmend werden reine Präsenzveranstaltungen (zum Beispiel Kongresse) durch ‚Blended-Learning-Veranstaltungen’ mit interaktiven Komponenten (skriptbasierte Diskussionsforen, Webinaren, Chats) ergänzt. Die für die Nutzung der dargestellten Szenarien erforderliche Medienkompetenz sollte während der Hochschulzeit vermittelt werden. Gewünscht werden mehrheitlich barrierearme Angebote mit einfacher ‚Usability’ (Henning & Schnur, 2009; Ehlers et al., 2007).

Human- und Tiermedizin

Wissensmanagement / Informelles Lernen

Informelles Lernen findet in jedem medizinischen Fachbereich häufig im direkten kollegialen Austausch statt (#wissensmanagement). Spezielles Fachwissen und patientenbezogenes Ergänzungswissen wird unstandardisiert (mündlich, praktisch) weitergegeben. Nicht zertifizierte elektronische Werkzeuge für das Management dieses Typus von Wissensaustausch sind Wikis, Suchmaschinen, Soziale Netzwerke, Foren und Medienaggregatoren (YouTube, e-meducation.org) (Schaper et al., 2013). Diese Elemente sollten moderiert (Ziel: medizinische Qualitätssicherung) in Lernumgebungen integriert werden. Ansätze dazu finden sich im Helios Klinikverbund oder im Network of Veterinary ICT in Education (NOVICE; Schaper et al., 2013). Auch ‚Blogs’, ‚Microblogging’ und ‚RSS-Feeds’ (#kollaboration) können zu einem solchen Austausch beitragen. Diese online Werkzeuge werden vor allem für die aktive und kollaborative Konstruktion von Wissen während des Lernprozesses genutzt (Hollinderbäumer, 2013).

!

In der medizinischen Informationsbeschaffung setzen sich zunehmend kollaborative elektronische Werkzeuge durch.

?

Was versteht man unter informellem Lernen? Worin liegt das Hauptproblem von informellem Lernen? Welche Werkzeuge eignen sich zum Aufbau von Fachinformationsnetzwerken?

Human- und Tiermedizin

Elektronische Prüfungen

Die beschriebenen fallbasierten Lernsysteme bieten auf den Lernfällen basierende Prüfungssysteme an, die den Anforderungen des Staatsexamens gerecht werden (Rothoff et al., 2006). Die Vorteile elektronischer Prüfungen ergeben sich aus den Möglichkeiten, im Verbund mit den neuen Lerntechnologien den Erfolg der Vermittlung übergreifender Kompetenzen überprüfen zu können. Zusätzlich ist der Einsatz der elektronischen Prüfungen mit einer erheblichen Reduktion der Durchführungsaufwände im Vergleich zu Präsenzprüfungen verbunden.

In der Tiermedizin werden häufig im Sinne eines Blended Assessments schriftliche mit mündlich-praktischen Prüfungen kombiniert (Ehlers et al., 2009). E-Assessment kann in diesem Rahmen diagnostisch, formativ oder summativ eingesetzt werden. Diagnostische Prüfungen werden im Rahmen psychologischer Motivationstests als Teil des Auswahlverfahrens der Hochschulen oder am Ende eines ‚E-Learning-Moduls’ vor Eintritt in die Präsenzphase einer ‚Blended-Learning-Veranstaltung’ eingesetzt. Formatives Prüfen dient der Selbstüberprüfung und der Vermittlung von Feedback an die Studierenden. Zu diesem Zweck werden virtuelle Krankheitsfälle, Feedbacksysteme im Präsenzunterricht (mobile Abstimmungssysteme) oder E-Portfolios im klinisch-praktischen Jahr eingesetzt. Beispielsweise müssen die Studierenden die Durchführung bestimmter praktischer Untersuchungen mit den Bildern der Patientinnen und Patienten elektronisch unter Aufsicht verschiedener Tutorinnen und Tutoren dokumentieren, um ein bestimmtes praktisches Leistungszertifikat zu erhalten.

Summative elektronische Prüfungen werden unter Anwesenheitsbedingungen durchgeführt. Die am häufigsten verwendeten Fragetypen sind bei den summativen Prüfformaten Multiple Choice- und Bildanalysefragen. In laufenden Projekten wird die Nutzung neuer Fragetypen und Prüfungsformate entwickelt, mit denen die klinische Entscheidungskompetenz der Studierenden formativ getestet werden kann (Schaper et al., 2013). Durch das Zusammenfassen mehrerer Einzelfragen zu einem ‚Key-Feature-Fall’ sowie den Einsatz von Video- oder Audiodateien wird es z.B. möglich, auch prozedurales Wissen elektronisch im tiermedizinischen Staatsexamen zu prüfen und zu bewerten (Schaper et al., 2013b).

!

Elektronische Systeme ermöglichen ein effizientes und effektives Prüfen unter Beachtung der Gütekriterien.

?

Wofür eignen sich elektronische Prüfungen in der Medizin?

Human- und Tiermedizin

Qualitätssicherung

Für den nachhaltigen Erfolg technologiebasierter, elektronischer Lernszenarien ist eine zertifizierte Qualitätssicherung auf den inhaltlichen, technischen und didaktischen Ebenen der Lernangebote entscheidend. Dieser Prozess kann über universitätsinterne Gremien organisiert werden, die ein Gütesiegel vergeben, oder über eine externe Zertifizierung erfolgen. Ein derartiges Gütesiegel wurde von der Charité-Universitätsmedizin entwickelt (Charité, 2013). Auf institutioneller Ebene werden für medizinische Bildungsszenarien von der Bundesärztekammer Rahmenrichtlinien für Fortbildungsanbieter empfohlen (Borg, 2010). Zertifikate dieser Art sollten gleichzeitig als Anreizsysteme für die Vergabe von leistungsorientierten Mitteln innerhalb universitärer Einrichtung dienen. Weitere Muster für die Qualitätssicherung von technologiebasierten Bildungsszenarien könnten die Berliner Multimedia-Kriterien oder das Gütesiegel des VEBN sein (Mikuszeit & IB&M-Projekt ETHIKMEDIA, 2008; VEBN). Deutlich umfangreicher ist eine Qualitätssicherung nach DIN PAS 1032-1/2, die im Bereich medizinischer Bildungsszenarien aus logistischen Gründen bisher kaum durchgeführt wird.

Grundsätzlich wird für medizinische Bildungsanbieter die Einrichtung von zentralen ‚E-Learning-Beratungsstellen’ als sinnvoll erachtet, um die Durchführung aller genannten Qualitätssicherungsmaßnahmen zu gewährleisten.

Die Weiterentwicklung der Kriterien für qualitativ hochwertige medizinische E-Learning-Szenarien ist über die Fachgesellschaften wie die Deutsche Gesellschaft für Medizinische Ausbildung (GMA), die Angebote der Fachgesellschaften der jeweiligen Fachrichtungen und die europäische Fachgesellschaft für medizinische Ausbildung (AMEE) oder deren tiermedizinischen Ableger Veterinary Education Worldwide (ViEW) gewährleistet.

Tiermedizinische Bildungsstätten werden europaweit vergleichend regelmäßig von der EAEVE evaluiert und im Hinblick auf ihr Qualitätsmanagement in der Lehre akkreditiert. Der Einsatz elektronischer Lehr- und Lernmedien wird durch diese Institution wertgeschätzt. Dies hat den Stellenwert der ‚E-Learning-Angebote’ in dieser Disziplin deutlich gesteigert und damit direkte Auswirkungen auf die Ausbildungsqualität der betroffenen Bildungsstätten.

!

Erst eine funktionierende Qualitätssicherung stellt sicher, dass E-Learning-Module sinnvoll eingesetzt werden können.

?

Welche Möglichkeiten der Qualitätssicherung gibt es?

Human- und Tiermedizin

Literatur

Online-Labore

Formen, Einsatz in der Lehre, Beispiele und Trends

Online-Labore sind über das Internet zugängliche virtuelle Labore oder Remote-Labore. Sie können in Lehre und Forschung eingesetzt werden. Ihr Einsatzgebiet reicht schwerpunktmäßig von den Ingenieurwissenschaften bis zu den Naturwissenschaften. Die Didaktik für den Einsatz von Online-Laboren in der Lehre basiert auf der handlungsorientierten Lerntheorie. Bevorzugte didaktische Methoden sind forschungsgeleitetes kollaboratives und selbstgeleitetes Lernen.

Online-Labore

Einführung

Online-Labore sind eine der innovativen Entwicklungslinien für Internet basierte Umgebungen in vielen Bereichen der Gesellschaft. In den zurückliegenden Jahren wurden erhebliche Fortschritte bei der Nutzung solcher Labore gemacht, speziell im tertiären und in den letzten fünf Jahren auch im sekundären Bildungssektor. Dies wurde durch die technische Weiterentwicklung des Internets (Bandbreite, mobiles Netz) ermöglicht. Vorreiter sind die Ingenieur- und Naturwissenschaften. Online-Labore haben aus folgenden Gründen große Bedeutung:

Aktives Lernen und Arbeiten mit Online-Laboren ist vor allem beim technologiegestützten Lernen und Arbeiten wichtig. Am Arbeitsplatz können weit entfernte Labore ohne zu reisen genutzt werden; Ausbildung, lebenslanges Lernen und Arbeit werden flexibilisiert.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Abb. 1: Remote-Mikroelektronik-Entwurfs- und Messplatz an der FH Kärnten
Abb. 1: Remote-Mikroelektronik-Entwurfs- und Messplatz an der FH Kärnten
Online-Labore

Was sind Online-Labore?

Ein kompletter Entwurfszyklus mikroelektronischer Schaltkreise (Design, Simulation, Hardware-Realisierung oder Messung) erfordert beispielsweise erhebliche systemtechnische und finanzielle Aufwendungen und ist daher nur von einigen wenigen Hochschulen für die Lehre realisierbar. Hier kann ein Online-Labor Abhilfe schaffen und den Studierenden und Lehrenden die Möglichkeit bieten, Laboruntersuchungen im Web durchzuführen.

!

Online-Labore sind wissenschaftliche Einrichtungen, mit denen mit Hilfe von Web- und Informationstechnologien Laboruntersuchungen durchgeführt werden können.

An der Fachhochschule Kärnten ist ein solcher kompletter Zyklus mikroelektronischer Schaltkreise als Online-Labor realisiert und frei verfügbar. Die Nutzer/innen benötigen nur einen PC, ein Tablet oder ein Smartphone mit Webbrowser. In der Abbildung 1 sind das Simulationstool (oben), der Messaufbau mit Instrumenten (Mitte) und das Fenster für die Anzeige der Messergebnisse (unten) zu sehen.

Abbildung 2 zeigt die grundlegende Einteilung unterschiedlicher Formen von Laboren (Garbi Zuti et al., 2009). Betrachtet man jeweils den Standort eines Laborexperiments und den Aufenthaltsort der Benutzer/innen, dann ergeben sich die insgesamt vier gezeigten Labortypen.

Abb. 2: Klassifizierung von Laboren
Abb. 2: Klassifizierung von Laboren

Remote und Virtuelle Labore werden als Online-Labore zusammengefasst. Zunehmend wichtiger werden Mischformen (Hybrid-Labore), in denen Simulation und anschließende praktische Erprobung integriert sind (siehe einführendes Beispiel oben).

Online-Labore

Stand der Technik

Seit ca. 1995 wird an verschiedenen Universitäten (und auch in der Industrie) an der Entwicklung von Online-Laboren gearbeitet (Hong et al., 1999). Dabei entstanden viele Einzellösungen, die oft nicht miteinander kompatibel sind. Die meisten Lösungen sind im tertiären Bildungsbereich entwickelt worden und kommen aus dem Ingenieurbereich, da dort der Einsatz von realen Laboren in der Ausbildung am verbreitetesten ist. Insbesondere für die Lehre in der Elektronik (Schaltungsaufbau und -messung) und Mechatronik (Regelung von Robotern) sowie in der Signalverarbeitung und Regelungstechnik sind Online-Experimente entwickelt worden. Auch in den Naturwissenschaften wird diese Form der Laborausbildung genutzt. Besonders hervorzuheben sind hier Experimente in der Physik (die Nutzung eines Elektronenstrahlmikroskops über das Internet) aber auch in der Biologie (Gen-Engineering) und Astronomie.

Die verwendeten Geräte sind sehr teuer und können so einem breiteren Kreis von Nutzerinnen und Nutzern zugänglich gemacht werden. Ein anderes Einsatzgebiet ist die Einrichtung von Sensorsystemen für die Fernüberwachung im Umweltmonitoring, von Gefahrenumgebungen aller Art usw.

Technisch gesehen erfolgen die Steuerung eines Experiments und die Datenabfrage über die Nutzung von entsprechender Soft- und Hardware (zum Beispiel LabVIEW, MATLAB/Simulink und speziellen Bussystemen) oder mittels Datenkarten/Signalverarbeitungssystemen aus eigener bzw. industrieller Entwicklung. Viele Geräte haben heutzutage eine eigene Schnittstelle zum Internet-Protokoll TCP/IP oder man schließt sie mittels eines sogenannten Mikro-Web-Servers (Mikroelektronikschaltkreis) an das Internet an. Die Steuerung kann über eine graphische Benutzungsoberfläche in einem üblichen Webbrowser oder mit interaktivem Touchscreen erfolgen.

Viele Online-Labore sind in spezielle Software-Architekturen eingebettet, über die das Labor-Management und das Nutzer/innen-Management zentral oder dezentralisiert erfolgt.

?

Erörtern Sie Vor- und Nachteile von Online-Experimenten in Ihrem Handlungsfeld. Stimmen Sie Ihre Position mit Ihren Kommilitoninnen und Kommilitonen ab!

Online-Labore

Online-Labore in der Lehre

Eine Laborausbildung in den Ingenieurdisziplinen, aber auch in den Naturwissenschaften, dient der praktischen Ausbildung im Umgang mit den fundamentalen Ressourcen der Menschheit: Energie, Material und Information. Dabei sollen einerseits Theorien und Hypothesen überprüft, andererseits diese drei Ressourcen zu neuen technologischen Lösungen modifiziert und nutzbar gemacht werden. Das allgemeine Ziel der Laborausbildung ist der praktische Umgang mit Kräften und Materialien der Natur. Dieses Ziel hat sich über die Jahre nicht geändert, der Anteil der Laborausbildung in der Gesamtlehre schon: In einer Untersuchung über den Anteil von Artikeln über Laborausbildung im „Journal for Engineering Education“ von 1993 bis 1997 kam man auf eine Rate von 6,5 Prozent der publizierten Artikel, von 1998 bis 2002 sank diese Rate sogar auf 5,2 Prozent (berechnet nach dem Stichwort Labor; siehe Wankat, 2004). Die Anzahl der Publikationen über Online-Labore wuchs seit 2008 um 60%, es gibt eine kleine stabile Gruppe von Forschenden und Lehrenden zu diesem Thema (Bochicchio & Longo, 2013).

Ein Grund für den geschwundenen Anteil einer gediegenen Laborausbildung ist ein fehlender Konsens zu den Lernzielen und -ergebnissen einer Laborerfahrung in der akademischen Bildung. Die Lernziele reichen dabei von der Beobachtung von Naturphänomenen (zum Beispiel der Lichtbrechung) über die Messung von physikalischen Größen, die Regelung von Prozessen und Vorgängen (zum Beispiel Schwingungen) bis hin zum Entwurf (zum Beispiel von Schaltungen). Die Lernziele umfassen sowohl kognitive Aspekte (das Verstehen von komplexen Zusammenhängen in Natur und Technik), Kompetenzen (zum Beispiel die Bewertung der gewonnenen Ergebnisse) als auch experimentelle Fähigkeiten (zum Beispiel das richtige Messen). Man unterscheidet drei Labortypen: das Entwicklungslabor, das Forschungslabor und das Ausbildungslabor zu Lehrzwecken. Wissenschaftler/innen und Ingenieurinnen und Ingenieure gehen aus zwei wesentlichen Gründen ins Labor: einerseits, um notwendige Daten für ihre Entwicklungen und Forschungen zu sammeln (um ein Produkt zu entwickeln oder eine Hypothese zu widerlegen); andererseits, um zu überprüfen, ob sich ein bestimmtes Entwicklungsprodukt in der erwarteten Weise verhält. Studierende dagegen gehen im Normalfall in ein Ausbildungslabor, um etwas Praktisches zu lernen, was schon wissenschaftlich nachgewiesen ist. Dieses „etwas“ ist in jedem konkreten Einzelfall sehr genau als Lernobjekt mit entsprechenden Lernzielen zu bestimmen, um den erwarteten Kenntnis- und Befähigungszuwachs zu erzielen.

Argumente für Online-Labore in der Lehre

Die Notwendigkeit einer Laborausbildung wird inzwischen allgemein anerkannt, jedoch fehlen im tertiären Bildungssektor noch immer klare Lernziele. Als wesentlich werden auf der einen Seite ein besseres Verständnis für wissenschaftliche Konzepte, eine Motivationssteigerung für das Studium, der Erwerb praktischer Fähigkeiten und die Entwicklung von Problemlösungsfähigkeiten hervorgehoben (Hofstein & Lunetta, 2004). Auf der anderen Seite ist eine Tendenz des Ersatzes von realen Experimenten mit Simulationen zu erkennen, vor allem aus Kapazität-, Zeit- und Kostengründen. Es wird auch argumentiert, dass das Experimentieren in komplexen Versuchsaufbauten für den Lernenden schwer nachvollziehbar sei und die Simulation die Modellbildung gegebenenfalls besser unterstützt. Das stimmt oft, soweit das Experiment dem besseren Verständnis eines theoretischen Zusammenhangs dient, es reicht aber nicht aus, wenn zum Beispiel der Entwurf von technologischen Lösungen erprobt werden soll (die Simulation einer Bewegungsregelung verhält sich oft ganz anders als der Test eines Reglers am realen Objekt).

Im sekundären Bildungssektor wird die Nutzung unter anderem damit begründet, dass sie sich besonders gut für ein forschungsgeleitetes Lernen eignet. Damit soll die Motivation beim aktiven Lernen in MINT-Fächern erhöht werden.

?

Welche Argumente sprechen für, welche gegen Laborarbeit in experimentlastigen Studiengängen? Welche Argumente sprechen für und gegen Online-Labore?

Einflussfaktoren für die Entwicklung von Online-Laboren in der Lehre

Zwei wesentliche Tendenzen haben die Laborausbildung beeinflusst: die Verschmelzung von Laborgeräten mit Computern und die Einführung verschiedenster Lernmanagementsysteme mit unterschiedlichen Technologien. Der Computer eröffnet einerseits neue Möglichkeiten im Labor, die Kombination von Simulation und realem Experiment, die automatisierte Datenerfassung und die Fernkontrolle von Instrumenten sowie eine ultraschnelle Datenanalyse und -visualisierung. Das Lernen mit Technologien in experimentellen Wissenschaften andererseits hat im Bereich des Grundstudiums die Diskussion um Ziele der Laborausbildung neu stimuliert, vor allem um den Sinn des Einsatzes von Online-Laboren. Studierende haben jederzeit und praktisch überall mit Internetanschluss freien oder durch Anmeldungs- und Kalendersysteme geregelten Zugang zu solchen Laboren. Engpässe bei Laborplätzen und -zeiten können so gemildert werden.

Didaktische Settings von Online-Laboren

Online-Labore sind aber kein Ersatz für die üblichen Laborexperimente in der Lehre. Sie verfolgen spezielle Lehrziele und man benötigt für ihren Einsatz auch spezielle pädagogische Szenarien. Der Lerngewinn der Arbeit mit Online-Laboren wird unter anderem im Training an Fernexperimenten (wichtig sowohl in der Industrie als auch in einigen Bereichen der Forschung), in der kollaborativen Gruppenarbeit (insbesondere in der internationalen Zusammenarbeit) und im Austausch über gute praktische Erfahrungen gesehen.

In der Praxis: Beispiele für gute Online-Labore für die Lehre

Theoretisch basieren die didaktischen Ansätze für Online-Labore auf der handlungsorientierten Lern-Theorie bzw. der Aktivitätstheorie (Rogers & Freiberg, 1994). Praktisch werden experimentelle Fähigkeiten, aber auch Fähigkeiten der Teamarbeit in virtuellen Räumen und bei der Kommunikation über verschiedenste Kanäle des Internets trainiert (Müller & Erbe, 2007). Prinzipiell kommen in Online-Laboren zwei pädagogische Szenarien zur Anwendung: kollaboratives Lernen, wenn das Experiment in Gruppenarbeit durchgeführt wird, und selbstgesteuertes Lernen, wenn die Laborexperimente in Einzelarbeit und ohne oder mit nur sehr wenig Unterstützung durch eine Instrukteurin oder einen Instrukteur durchgeführt werden (Geyken et al., 1998). Man kann sagen, dass das erste Szenario für die akademische beziehungsweise schulische Lernumgebung typisch ist. Insbesondere, wenn in Kleingruppen gearbeitet wird, ist das zweite Szenario eher für Lernumgebungen im Training und der Weiterbildung typisch, in denen die Lernenden voll im Berufsleben stehen und ihre Lernzeiten sowie -methoden sehr individuell sind. Beispiele für das erste Szenario sind Praxisberichte aus der universitären Ausbildung, für das zweite Szenario Berichte über industrielle Trainings am Arbeitsplatz (zum Beispiel eine Weiterbildung zu den Grundlagen der Mechatronik; Billet, 2004; Rojko, 2009).

Online-Labore

Gute Online-Labore

Insgesamt existieren derzeit mehrere hundert Online-Labore (mit stark schwankender mittlerer Lebensdauer). Auch die Anzahl der erfassten Fachgebiete ist relativ hoch. Die Frage, was die Qualität eines Online-Labors ausmacht, ist bisher nicht eindeutig beantwortet. Unstrittig sind aber folgende Kriterien:

In einer Umfrage, die von 2008 bis 2010 unter Lehrenden und Studierenden verschiedenster Hochschulen in Europa durchgeführt wurde, konnte festgestellt werden, dass für die Nutzung von Online-Laboren von beiden Gruppen die Nutzbarkeit mit verschiedensten Betriebssystemen als wichtigstes Kriterium

angesehen wird. Für Studierende folgen: Nutzbarkeit mit allen Webbrowsern, Verzicht auf zusätzliche Plug-Ins. Für die Lehrenden sind nahtlose Einbindung der Online-Labore in die Hardwareumgebung und Sicherheit auf Platz zwei und drei. Fasst man die fünf Kriterien – Plattformportabilität, Webbrowser, Sicherheit, Installation und nahtlose Einbindung – in einer Gruppe zusammen, dann gibt es zwischen Lehrenden und Studierenden nur in der Reihenfolge der Gewichtung Unterschiede (Garcia-Zubia et al., 2010).

Ausgehend davon kann man eine Reihe von Online-Laboren für die Lehre als Beispiele „guter Praxis“ anführen (siehe Kasten „### In der Praxis“).

Dies ist jedoch nur eine kleine Auswahl von Initiativen und Netzwerken im Bereich der Hochschulbildung mit englisch- und deutschsprachigem Hintergrund. Daneben gibt es auch einige Projekte im sekundären Bildungssektor wie Internet School Experimental System (iSES http://ises.info) und im Bereich der Fernuniversitäten wie die Open University UK bzw. die Universidad Nacional de Educación a Distancia in Spanien, die Online-Labore in der Fernlehre einsetzen.

Online-Labore

Förderorganisationen

In den letzten Jahren hat sich eine weltweite Gemeinschaft von Entwickelnden und Anwendenden von Online-Labor-Lösungen herausgebildet, die sich jährlich auf Konferenzen, Workshops und Sommerschulen trifft. Eine Trägerin dieser globalen Vernetzung ist die „International Association of Online Engineering“ (IAOE, www.online-engineering.org).

Im Juni 2010 wurde in Villach von Vertreterinnen und Vertretern des MIT, der FH Kärnten, der University of Queensland und der University of Technology Sydney das „Global Online Laboratory Consortium“ (GOLC) gegründet (www.online-lab.org). Ziel dieses Konsortiums ist es, die Entwicklung und den Austausch von Laboren und Experimenten über einen Internetzugang zu fördern und Forschung in diesem Bereich zu intensivieren und weltweit zu koordinieren.

?

Werden an Ihrer Universität Online-Labore in der Lehre eingesetzt? Recherchieren Sie und stellen Sie Ihre Ergebnisse Ihren Kolleginnen und Kollegen vor!

Abb. 3: Laborverbund mittels iLab Service Broker
Abb. 3: Laborverbund mittels iLab Service Broker
Online-Labore

Entwicklungstrends

Um Online-Labore zu vernetzen, Kosten zu sparen und effektiver zusammenzuarbeiten, werden immer mehr Online-Labore mit Hilfe von spezieller Middle Ware (anwendungsneutrale Programme, die zwischen Online-Experimenten mit unterschiedlicher Technologie vermitteln) zu Labornetzwerken oder -grids zusammengefasst.

Eine verbreitete Lösung ist der am MIT entwickelte und frei verfügbare iLab Service Broker. Das grundsätzliche Szenario ist in Abbildung 3 dargestellt. Die Anzahl der an einem Service-Broker angeschlossenen Laborversuche sowie die Zahl der simultan Nutzenden sind nur von der Leistungsfähigkeit der Service-Broker-Hardware abhängig. Mehrere Service-Broker können zu Clustern zusammengefügt werden, wie iLab Europe (www.ilab-europe.net/) oder iLab Africa.

Mobilität ist ein zweiter Trend. Im Bereich der Online-Labore werden zunehmend mobile Endgeräte genutzt. Mobil kann aber auch die Datenerfassung sein, etwa in der Luftfahrt oder Automobiltechnik (zum Beispiel Echtzeituntersuchungen im Bereich der Elektromobilität). Mobile Zugänge zu experimentellen Umgebungen werden für Langzeitversuche (24-Stunden- und Wochenendüberwachung) sowie bei Feldversuchen eingesetzt.

Unter Mash-Up, einem dritten Trend, versteht man die geeignete Sammlung und Kombination verschiedener öffentlicher, aber auch privater Daten, Inhalte, Anwendungen und Dienste aus verschiedenen Quellen, um so neue Dienste bereitzustellen. Bezogen auf Online-Labore bedeutet das zum Beispiel die geeignete virtuelle Zusammenfassung von Experimenten unterschiedlicher Anbietender (Hochschulen) zu

einem Labor, welches dann den Nutzerinnen und Nutzern als geschlossene Lösung dargeboten wird. Ein Beispiel ist die virtuelle Zusammenfassung von Online-Experimenten verschiedener Hochschulen im Integrated Laboratory Network (ILN) im Nordwesten der USA und Kanadas (www.wwu.edu/iln/). Für Nutzer/innen entsteht bei der Arbeit aber nicht der Eindruck, in mehreren Laboren zu arbeiten, sondern nur in einem.

Eine weitere, sich enorm schnell entwickelnde Anwendung von Remote-Technologien ist das Remote Sensing, die intelligente Nutzung von Ferndaten für bestimmte Nutzerziele, zum Beispiel lokalisierte Vorhersagen für Unwetterauswirkungen an einem bestimmten Ort. William Gail (Microsoft) erwartet die entscheidenden Fortschritte auf diesem Gebiet von neuartigen Kombinationen von Sensoren mit intelligenter Wissensverarbeitung (Gail, 2007). Sensoren werden in Grids (virtuelle Netzwerke) organisiert sein (Schmid, 2007). Weitere Stichworte sind Datamining und Datafusion.

Perspektivische Anwendungen sind in der Medizin, im Gen-Engineering, beim Umwelt-Engineering, bei der Wettervorhersage und in der Automatisierungstechnik zu erwarten. In diesem Zusammenhang ist auch der Begriff Cloud Instrumentation zu nennen. Man versteht darunter die selbstorganisierende Zusammenwirkung verschiedener Messeinrichtungen zur Datenaggregation.

Online-Labore

Zusammenfassung

Online-Labore sind über das Internet zugängliche virtuelle Labore oder Remote-Labore. Ihr Einsatzgebiet reicht schwerpunktmäßig von den Ingenieurwissenschaften bis zu den Naturwissenschaften. Die Didaktik für den Einsatz von Online-Laboren in der Lehre basiert auf der handlungsorientierten Lerntheorie. Bevorzugte didaktische Methoden sind forschungsgeleitetes kollaboratives und selbstgeleitetes Lernen. Technisch gesehen erfolgen die Steuerung eines Experiments und die Datenabfrage über die Nutzung von entsprechender Soft- und Hardware oder mittels Datenkarten/Signalverarbeitungssystemen aus eigener bzw. industrieller Entwicklung. Die Steuerung kann über eine graphische Benutzungsoberfläche in einem üblichen Webbrowser oder mit interaktivem Touchscreen erfolgen.

Zwei wesentliche Tendenzen haben die Laborausbildung beeinflusst: die Verschmelzung von Laborgeräten mit Computern und die Einführung verschiedenster Lernmanagementsysteme mit unterschiedlichen Technologien. Der Computer eröffnet neue Möglichkeiten im Labor Simulation und reales Experiment zu kombinieren. Mit Online-Laboren haben Studierende jederzeit und praktisch überall mit Internetanschluss freien oder durch Anmeldungs- und Kalendersysteme geregelten Zugang zu solchen Laboren.

In Online-Laboren kommen zwei pädagogische Szenarien zur Anwendung: kollaboratives Lernen, wenn das Experiment in Gruppenarbeit durchgeführt wird, und selbstgesteuertes Lernen, wenn die Laborexperimente in Einzelarbeit und ohne oder mit nur sehr wenig Unterstützung durch eine Instrukteurin oder einen Instrukteur durchgeführt werden. Man kann sagen, dass das erste Szenario für die akademische bzw. schulische Lernumgebung typisch ist. Das zweite Szenario ist eher für Lernumgebungen im Training und der Weiterbildung typisch, in denen die Lernenden voll im Berufsleben stehen und ihre Lernzeiten sowie -methoden sehr individuell sind.

Online-Labore

Literatur

Mehr als eine Rechenmaschine

Computer im mathematisch-naturwissenschaftlichen Unterricht

Im mathematisch-naturwissenschaftlichen Unterricht kann der Computer verschiedene Funktionen als Werkzeug übernehmen. Er bietet beispielsweise die Möglichkeit, komplexe Berechnungen durchzuführen, abstrakte Sachverhalte zu veranschaulichen und mathematisch-naturwissenschaftliche Kontexte zu erforschen. Dabei ist der Computer in der Regel nicht nur Hilfsmittel, sondern auch Lerninhalt. Seine Nutzung muss ebenso erlernt werden wie die mathematischen oder naturwissenschaftlichen Fachinhalte. Unter anderem muss aus diesem Grund der Computereinsatz didaktisch-methodisch begründet und geplant sein, um Gefahren und Probleme der Computernutzung im Unterricht zu vermeiden.

Mehr als eine Rechenmaschine

Einleitung

!

In diesem Kapitel wird der Computer im Wesentlichen als technologisches Werkzeug im mathematisch-naturwissenschaftlichen Unterricht betrachtet. Er kann hier ganz unterschiedliche Rollen einnehmen: Er ist Rechen-, Explorations-, Visualisierungs-, Recherche-, Strukturierungs-, Präsentations-, Kommunikations-, Kollaborations- oder Übungswerkzeug. Die Überlegungen beziehen sich dabei nicht nur auf Desktop-Computer, sondern auch auf mobile Endgeräte wie beispielsweise Tablets und leistungsfähige Smartphones.

Der Computer kann – nicht nur im mathematisch-naturwissenschaftlichen Unterricht – verschiedene Rollen in Lehr- und Lernsituationen einnehmen (Schaal, 2012; Spannagel, 2007). Zum einen kann er als Hilfsmittel eingesetzt werden mit dem Ziel, bestimmte Inhalte oder Kompetenzen zu vermitteln. In diesem Fall ist er Medium, mit dessen Hilfe Inhalte dargestellt werden, oder Werkzeug, das zur Herstellung digitaler Produkte dient. Ähnlich wie bei jedem anderen Medium und Werkzeug muss die Lehrperson entscheiden, in welchen Unterrichtsphasen, bei welchen Inhalten, mit welchen Lernzielen und für welche Lernenden der Computer geeignet ist. Er ‚konkurriert‘ in diesem Fall mit anderen Medien (wie Büchern und Filmen) und Werkzeugen (wie beispielsweise Papier, Bleistift und Geodreieck). Zum anderen kann er selbst zum Lerninhalt werden, nämlich dann, wenn die Nutzung von Software selbst Lernziel ist. So zählt es zu den allgemeinbildenden Aufgaben der Schule, informationstechnische Grundbildung zu vermitteln. Hierzu zählen die Beherrschung von Standardanwendungen wie Textverarbeitung, Tabellenkalkulation und Präsentationssoftware und die zielgerichtete Nutzung des Internets zu Recherchezwecken.

Die Rollen Hilfsmittel und Lerninhalt schließen sich nicht aus, sie sind in der Regel sogar miteinander verbunden. Das Erlernen der Computernutzung findet oft nicht (nur) in einem separaten Schulfach statt, sondern ist in die Fächer integriert und wird dort mit traditionellen Lerninhalten verwoben (Mishra & Koehler, 2006). So wird beispielsweise im Deutschunterricht ein Textverarbeitungssystem eingesetzt, um damit eine Bewerbung und einen Lebenslauf zu schreiben, und im Mathematikunterricht wird die Nutzung eines Tabellenkalkulationssystems zur Auswertung von Daten erlernt. Letztlich wird in computerunterstützten Lehr- und Lernsituationen das Erlernen der Computernutzung integraler Bestandteil: Die Verwendung des Computers wird anhand fachlicher Probleme motiviert, und fachliche Inhalte werden durch Technologieeinsatz verständlich vermittelt beziehungsweise erarbeitet.

Mehr als eine Rechenmaschine

Funktionen des Computers

Betrachtet man den Computer als Werkzeug, so lassen sich verschiedene Nutzungskategorien festmachen (Köhler, 2004; Weitzel, 2004; Spannagel, 2007). Diese Kategorien sind in Abbildung 1 dargestellt. Sie sind nicht trennscharf; so können Wikis beispielsweise der Informationssuche dienen (Recherchewerkzeug) oder der textbasierten Zusammenarbeit (Kollaborationswerkzeug).

Abb. 1: Funktionen des Computers mit exemplarischen Aspekten
Abb. 1: Funktionen des Computers mit exemplarischen Aspekten

Computer als Rechenwerkzeug

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Im Mathematikunterricht spielt Tabellenkalkulation eine wesentliche Rolle. Tabellenkalkulationssoftware kann Lernende von einfachen, oftmals wiederkehrenden Berechnungen befreien und so kognitive Ressourcen für das tiefere Verständnis von Lerninhalten freiräumen: Routineaufgaben werden vom Computer gelöst, während sich die Lernenden anspruchsvolleren Aufgaben widmen können. Der Computer übernimmt dabei die Funktion des (funktionsmächtigeren) Taschenrechners. So können beispielsweise Daten von naturwissenschaftlichen Experimenten einfach ausgewertet werden, ohne dass dabei Kenngrößen wie Mittelwerte und Standardabweichungen von den Lernenden selbst berechnet werden müssen.

In diese Kategorie gehören auch Computeralgebrasysteme, die den Lernenden algebraische Umformungen abnehmen können. Der Einsatz des Computers als Rechenwerkzeug hängt von den gesetzten Lernzielen ab: Wenn bestimmte Berechnungsroutinen erlernt werden sollen, dann sollte man vom Einsatz des Computers oder Taschenrechners absehen oder ihn allenfalls zur Überprüfung der Ergebnisse einsetzen. Sollen sich die Lernenden hingegen Problemaufgaben widmen, dann kann der Computer zu einer Entlastung von Routineaufgaben beitragen.

Ein weiterer Aspekt des Computers als Rechenwerkzeug berührt die Frage, wie das Berechnungsprinzip eines Programms (oder einer Programmierung) selbst zum Lerngegenstand werden kann, um so das Schülerrepertoire an verfügbaren Heuristiken für die Lösung von komplexen Problemstellungen zu erweitern. So bilden zum Beispiel Tabellenkalkulationssysteme das reduktionistische Problemlöseprinzip ‚Teile und Herrsche‘ dadurch ab, dass die Gesamtlösung eines Problems auf die Vernetzung von Lösungen separierter Teilprobleme verweist, die auf mehrere Zellen des Kalkulationsblattes oder anderer Kalkulationsdateien verteilt sind (Gieding & Vogel, 2012).

Computer als Explorationswerkzeug

Lernende können die Berechnungskapazitäten des Computers nutzen, um Hypothesen schnell zu testen, ohne jedes Mal selbst wieder alle Rechnungen durchzuführen. So können sie beispielsweise Zufallsexperimente mit dem Computer simulieren: Mit Hilfe einer Tabellenkalkulation kann ein virtueller Würfel auf Knopfdruck beliebig oft geworfen werden, und das Resultat kann sofort mit Hilfe von Diagrammen visualisiert werden. Ebenso dienen dynamische Geometriesysteme (DGS) der Exploration. Im Gegensatz zu geometrischen Konstruktionen auf Papier oder auf der Tafel können Konstruktionen in einem DGS dynamisch verändert werden. Wird beispielsweise der Thaleskreis konstruiert, so kann man mit einem DGS die Größe des Winkels am Kreisbogen explorativ untersuchen, indem man die entsprechende Ecke des Dreiecks entlang des Kreisbogens bewegt, oder umgekehrt lässt sich der Thaleskreisbogen als Spur eines variablen Punktes über einer Strecke finden, dessen Verbindungslinien zu Anfangs- und Endpunkt der betreffenden Strecke einen rechten Winkel einschließen.

!

Beispiel zu Unterrichtsmaterialien:

Phänomene in der Natur sind nicht immer im Original ‚erlebbar‘, und naturwissenschaftliche Versuche sind zuweilen entweder zu kostspielig, aufwändig, zeitintensiv, schlecht realisierbar oder schlicht zu gefährlich, um sie im Unterricht real durchzuführen. Mit Hilfe von computergestützten Technologien lassen sich beispielsweise durch Simulationen die relevanten Grundlagen für das Verständnis von Phänomenen eigenständig erarbeiten, dokumentieren und interpretieren. Mit Hilfe von Sensoren können zudem Daten der ‚wirklichen Welt‘ generiert und in einer virtuellen Welt verarbeitet, interpretiert und zusammengefasst werden. So können Funktionsweisen des menschlichen Körpers, wie beispielsweise die elektrische Aktivität des Herzens, mit einfachen Schnittstellen erfasst, bearbeitet und mit geeigneten digitalen Werkzeugen ausgewertet werden. Darüber hinaus bieten Simulationen wie die interaktiven Bildschirmexperimente (IBE) (Kirstein & Nordmeier, 2007) die Möglichkeit, die Funktionsweise von Geräten zu erkunden, ohne Gefahr zu laufen, reale Geräte zu beschädigen. Nach der Explorationsphase am Computer können die Lernenden zur Bedienung der echten Geräte zugelassen werden. Je nach erwünschtem Lernziel können aber auch virtuelle Experimente (siehe Kapitel #labor) die reale Durchführung ersetzen, wenn wenig Zeit oder finanzielle Ressourcen für naturwissenschaftliche Experimente zur Verfügung stehen. Grundsätzlich steht hier die kognitive Aktivierung im Vordergrund, das haptische Handhaben von Messgeräten führt nicht unbedingt zu besseren Lernerfolgen.

Mobile Computertechnologien eröffnen die Möglichkeit zu ortsbezogenen Aktivitäten an außerschulischen Lernorten oder in der Natur. Der Einsatz von Geoinformationssystemen (zum Beispiel unter Nutzung von GPS) ermöglicht beispielsweise Lern- und Arbeitsformen zum eigenständigen und selbstgesteuerten Entdecken von Lebensräumen, bei denen der/die Lernende entweder an interessanten Stellen relevante Informationen abrufen kann oder mit deren Hilfe auch motivierende Lern-Spielformen realisiert werden können (ausführlich in Lude et al., 2013; Schaal, 2013).

Computer als Visualisierungswerkzeug

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Mit Hilfe von Tabellenkalkulationsprogrammen oder Statistiksoftware können Daten aus naturwissenschaftlichen Experimenten einfach aufgenommen und beispielsweise durch Diagramme visualisiert werden. Darüber hinaus bieten die Interaktivität und Dynamik computerbasierter Repräsentationen den Lernenden die Möglichkeit, Veränderungen zu sehen und nachzuvollziehen, die sie sich aus eigener Kraft nicht ohne externe Hilfsmittel vorstellen können (Supplantation; Salomon, 1994). So können zum Beispiel abstrakte Repräsentationen wie Funktionsgraphen dynamisch mit den repräsentierten Sachverhalten als multiple externe Repräsentationen verknüpft werden (Ainsworth, 1999; Vogel, 2006). Durch die externe Repräsentation dynamischer Beziehungen können die Lernenden direkt sehen, was vorstellbar ist. Nimmt man diese Unterstützung sukzessive zurück (engl. ‚fading out‘), dann sollten die Lernenden zunehmend in der Lage sein, sich die dynamischen Beziehungen selbst vorstellen zu können. Dynamische Animationen können somit den Aufbau dynamischer mentaler Modelle unterstützen.

Naturwissenschaftliche Modellbildung entzieht sich häufig der unmittelbaren Wahrnehmung, ebenso wie das Verständnis von komplexen Zusammenhängen in natürlichen Systemen. Viele Merkmale von Lebewesen erschließen sich nicht durch deren äußere Betrachtung. Computergestützte Technologien lassen es zu, grundlegende naturwissenschaftliche Inhalte so aufzubereiten und darzustellen, dass Lernende bei der Konstruktion von tragfähigem Wissen und mentalen Modellen unterstützt werden können. In geeigneten interaktiven Bildern können beispielsweise weiterführende Informationen enthalten sein, die bei Bedarf abgerufen werden. Animationen unterstützen die Lernenden auf dem Weg von der unmittelbaren Wahrnehmung hin zum Modell, und zeitlich beziehungsweise räumlich ausgedehnte Prozesse lassen sich leicht darstellen. Gegenüber traditionellen Medien wie Buch oder Film ist der entscheidende Vorteil computergestützter Technologien, dass die Visualisierungen dynamisiert werden können und Lernende durch vielfältige Interaktionsmöglichkeiten stets aktiv-regulierend in den Darstellungsprozess eingreifen und ihre individuellen Lernprozesse steuern können.

Computer als Recherchewerkzeug

Seit den frühen 1990er Jahren halten Computertechnologien als riesige Informationsspeicher Einzug in die Gestaltung von Lehr- und Lernumgebungen. Die effiziente und kritische Nutzung dieser Wissensressourcen in formalen aber auch informellen Bildungsprozessen will erlernt sein, insbesondere wenn auf Quellen aus dem Internet zurückgegriffen wird oder wenn individuelles und kollektives Wissen interagieren (Kimmerle et al., 2010). Aber auch lokale digitale Nachschlagewerke bieten gegenüber traditionellen Lexika in Buchform vielfältige Vorteile. Insbesondere im naturwissenschaftlichen Unterricht können die Lernenden im Internet oder in digitalen Enzyklopädien nach Medien wie Texten, Bildern und Filmen zu bestimmten Themen suchen und die gefundenen Informationen zusammentragen, zusammenfassen und bewerten (siehe Kapitel #literatur).

Computer als Strukturierungswerkzeug

Bei der Planung und Gestaltung von Lehr- und Lernprozessen in den naturwissenschaftlichen Disziplinen ist die Berücksichtigung vorhandener Vorstellungen und des inhaltsbezogenen Vorwissens der Lernenden mitentscheidend für den Lernerfolg (Duit, 2003; Duit, 2008; Müller et al., 2004). Aber auch die kognitive Strukturierung eines Wissensbereichs ist für die Abrufbarkeit in Anwendungssituationen von entscheidender Bedeutung (Beisser et al., 1994). In beiden Fällen können computergestützte Strukturierungshilfen genutzt werden. Digitale Mind-Maps und Concept-Maps bilden Wissen ab und können bei der kooperativen Wissensstrukturierung ohne Weiteres flexibel verändert werden. Die unmittelbare Verknüpfung neuer Wissenseinheiten mit bestehenden Strukturen fördert die Anbindung an das thematische Vorwissen (Chen & McGrath, 2003). Digitale Concept-Maps ermöglichen es einerseits, Begriffe und Relationen (im Vergleich zu traditionellen papiergestützten Verfahren) flexibel zu strukturieren und in der Komplexität dem eigenen Expertisegrad anzupassen. Andererseits kann konzeptuelles Wissen durch die Verknüpfung mit vertiefenden Inhalten (zum Beispiel weiteres Bild- und Textmaterial, Animationen, Hyperlinks, etc.) erweitert werden (‚concept knowledge‘ und ‚content knowledge‘; Tergan et al., 2006).

Für die Anwendbarkeit von naturwissenschaftlichem Wissen reicht es meist jedoch nicht, Objekte hierarchisch einzuordnen, sondern für verstehende Lernprozesse sind gerade Beziehungen zwischen ihnen entscheidend (Novak, 2010). Beide Mapping-Techniken erlauben zudem anhand ihrer Struktur einen schnellen Einblick in den gegenwärtigen Leistungsstand der Lernenden sowie Rückschlüsse auf das Erreichen intendierter Lehr-/Lernziele (Schaal et al., 2010).

Computer als Produktions- und Präsentationswerkzeug

Lernende können mit Hilfe von Technologie ihre Arbeitsergebnisse dokumentieren und präsentieren. So bieten Präsentationsprogramme die Möglichkeit, Ergebnisse mathematisch-naturwissenschaftlicher Projekte auf Folien zusammenzustellen und den Mitschülerinnen und Mitschülern vorzustellen. Naturwissenschaftliche Beobachtungen und Experimente können zudem auf Video aufgezeichnet und anschließend im Internet auf einer Videoplattform (zum Beispiel YouTube) öffentlich gemacht werden. Aufwändig durchzuführende Beobachtungen (zum Beispiel Verhalten von Tieren) und Experimente können so einmalig aufgenommen werden, und die Videos lassen sich auch in anderen Klassen immer wieder einsetzen, wenn die Bedingungen die Durchführung des Versuchs nicht zulassen.

Darüber hinaus bietet auch der Computer die Möglichkeit, Erklärungen der Lehrperson dauerhaft zugänglich zu machen, wenn diese auf Video aufgenommen wurden und zum Beispiel im Internet oder Intranet der Schule zur Verfügung gestellt werden. Schülerinnen und Schüler können sich so bei Bedarf nochmal etwas ‚von der Lehrperson‘ erläutern lassen, wenn sie etwas nicht verstanden haben. Computer bieten so die Möglichkeit, differenzierend Erläuterungen bereit zu stellen. Im Flipped Classroom oder Inverted Classroom (Bergmann & Sams, 2012) kann auch den Schülerinnen und Schülern als Hausaufgabe aufgegeben werden, sich mittels solcher Videos auf die nächste Schulstunde vorzubereiten. In der Stunde selbst bleibt dann mehr Zeit für das gemeinsame Üben und die Klärung von Fragen und Problemen.

Computer als Kommunikations- und Kollaborationswerkzeug

Insbesondere neuere Technologien des Web 2.0 ermöglichen es, orts- und zeitungebunden zu kommunizieren und zusammenzuarbeiten. Wikis beispielsweise bieten einen Raum für Lernende, gemeinsam bestimmte mathematisch-naturwissenschaftliche Inhalte zu bearbeiten. Ein Beispiel hierfür ist ein virtuelles Herbarium, das heißt eine virtuelle Sammlung von Pflanzen und ihren Eigenschaften. Lernende können in der Natur Pflanzen mit ihren Handys fotografieren, in das Wiki einstellen und dort beschreiben. Wenn unterschiedliche Gruppen verschiedene Pflanzen einstellen, dann entsteht mit der Zeit eine kollaborativ erstellte Sammlung von Pflanzenbeschreibungen. In Kombination mit GPS-Daten können die beschriebenen Standorte auch direkt besucht werden, und so wird die virtuelle mit der realen Umwelt verbunden. Manche Wikis ermöglichen über das Einbinden von Bildern hinaus noch weitere mediale Möglichkeiten (beispielsweise das MediaWiki mit entsprechenden Erweiterungen). So können Lernende im Mathematikunterricht erstellte DGS-Konstruktionen in das Wiki einbinden, oder sie erstellen Rechenübungen mit Überprüfungsfunktion für ihre Mitschüler/innen (zum Beispiel das Wiki des Regiomontanus-Gymnasiums in Haßfurt). Neben dem Erstellen und Einstellen von Inhalten bieten viele Plattformen zudem die Möglichkeit zur Diskussion der Inhalte. Darüber hinaus können sich Schulklassen, die in mehrere räumlich getrennte Gruppen aufgeteilt sind, mit Informationstechnologie vernetzen und austauschen.

Ein Beispiel hierfür sind ‚remote accessible field trips‘, in denen Gruppen von Schülerinnen und Schüler von einem außerschulischen Lernort direkt ins Klassenzimmer berichten (vergleiche EU-Projekt RAFT).

!

Grundlegend für die erfolgreiche Technologienutzung im mathematisch-naturwissenschaftlichen Unterricht sind innerhalb der genannten Beispiele eine Reihe allgemeiner Kriterien (Girwidz et al, 2006):

Computer als Übungswerkzeug

Es gibt zahlreiche Lernsoftware, die insbesondere für den Nachmittagsmarkt produziert wird. So können Lernende mit entsprechenden Produkten arithmetische Übungen durchführen (zum Beispiel das Rechnen im Zahlenraum bis 100 oder Bruch rechnen). Das Spektrum reicht dabei von einfacher Übungssoftware bis hin zu Edutainment-Produkten, die in motivierenden Lernumgebungen anregende Problemlöseaufgaben bereithalten.

Mehr als eine Rechenmaschine

Gefahren und Probleme

Computerunterstütztes Lernen im mathematisch-naturwissenschaftlichen Unterricht birgt die Gefahr, dass bei einseitigem Einsatz die Anbindung an das ‚originale Objekt‘ zurückgedrängt wird. Insbesondere im Zusammenhang mit Fragen zur belebten und unbelebten Natur (zum Beispiel Umweltbildung und Ökologie) ist darauf zu achten, dass die Unterstützung des Erkenntnisprozesses durch die Möglichkeit des eigenständigen, sinnlichen Erlebens bereichert wird. Es ist mit der computergestützten Abbildung (zumindest nach dem heutigen Stand der Technik) durch die Reduktion auf die sinnliche Wahrnehmung von Sehen und Hören ein Informationsverlust verbunden. So lassen sich beispielsweise weder der Geruch einer Pflanze noch das Erfühlen einer Schlangenhaut abbilden. Multimedia kann in diesen Fällen ergänzen und unterstützen, aber nicht ersetzen.

Die vielfältigen Möglichkeiten digitaler Unterrichtsmittel führen bisweilen zu einem ‚multimedialen Overload‘ für minimale Inhalte, die auf andere Weise deutlich effizienter vermittelt werden könnten. In diesem Fall führt nicht der eigentliche Lerninhalt, sondern seine Vermittlung zur kognitiven Belastung – bildlich gesprochen wird der Verpackung mehr Aufmerksamkeit geschenkt als dem Inhalt. Da aber die kognitive Belastungsfähigkeit zwar je nach Individuum unterschiedlich stark ausgeprägt, aber grundsätzlich beschränkt ist, kann so die Gefahr auftreten, dass für den eigentlichen Lerninhalt keine kognitiven Kapazitäten mehr zur Verfügung stehen. Der Gebrauch mächtiger technologischer Werkzeuge darf nicht zum Selbstläufer werden. Je weitreichender die technologischen Möglichkeiten sind, umso mehr Zeit muss die Lehrkraft für das Erlernen der entsprechenden Werkzeuge einplanen.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Bei technologiegestützten Simulationen besteht mitunter die Gefahr, dass der inhaltliche Hintergrund den Lernenden verborgen bleibt, wenn diese davor oder danach nicht die Gelegenheit haben zu erforschen, was genau der Computer in großer Geschwindigkeit und vollautomatisiert erledigt. Wenn beispielsweise die

Lernenden die Grundstruktur eines technologiegestützten Zufallsexperiments, zum Beispiel für die Ermittlung der Gewinnchancen bei einem Glücksspiel, inhaltlich nicht erfasst haben, werden sie die Ergebnisse einer entsprechenden computergestützten Simulation mit einer sehr großen Zahl von Durchläufen nicht interpretieren können. Der Computer wird dann zur ‚black box‘, deren Ergebnisse man zwar vertraut, die aber nach unbekannten Gesetzmäßigkeiten arbeitet. Es gilt jedoch die ‚Hoheit‘ über den Lernstoff den Lernenden zu übergeben, nicht dem Computer.

Stehen computergestützte Visualisierungen jederzeit zur Verfügung, erübrigt sich für die Lernenden die eigene Generierung entsprechender mentaler Vorstellungen, sie verbleiben in der Rolle der passiven Zuschauer/innen. Auf diesem Hintergrund begründet sich das oben genannte ‚fading out‘, bei dem die externe Hilfe mit entsprechend aktivierenden Aufgaben zunehmend zurückgenommen wird, um die Lernenden zur eigenen mentalen Modellbildung anzuregen. Zudem müssen Visualisierungen wohl überlegt sein: Ungünstige computergestützte Darstellungen, die sich ausschließlich an inhaltlichen Gesichtspunkten, aber nicht an Sehgewohnheiten der alltäglichen Wahrnehmung richten, können bei Lernenden mit wenig Vorwissen beziehungsweise geringerem Abstraktionsvermögen zu unangemessenen Vorstellungen führen, die sehr stabil sind und sich hartnäckig halten können (zum Beispiel ‚graph-as-picture misconception‘; Clement, 1989).

Im Bereich der Informationsrecherche und -aufbereitung besteht im schulischen Kontext immer die Gefahr, dass sich vor allem Lernende mit geringer Netzerfahrung im Internet verirren. Mit Hilfe von Web-Quests (Bescherer, 2007) oder Videoclip-Quests (Blessing & Kortenkamp, 2008) kann eine Lehrkraft die Pfade durch das Web vorstrukturieren und den Lernprozess durch geeignete Aufgabenstellungen unter Nutzung von Open-Source-Quellen stützen. Diese Möglichkeit der Unterstützung hilft auch der Gefahr zu begegnen, dass die Lernenden zwar im Netz Informationen sammeln, diese aber für die unterrichtliche Aufbereitung unverstanden aneinanderreihen, ohne den inneren Zusammenhang der zugrundeliegenden Thematik zu durchdringen. Gerade bei leistungsschwächeren Lernenden ist diese Gefahr zu sehen, da die Informationsvielfalt ihre kognitive Kapazität erwartungsgemäß schneller übersteigt.

Neben den kognitionsbezogenen Gefahren der Computernutzung sind zudem noch organisatorische Probleme zu nennen. Soll im Unterricht mit Computern gearbeitet werden, so muss die Klasse in der Regel in den Computerraum der Schule wechseln. Dieser ist nicht jederzeit zugänglich und muss daher von der Lehrperson zuvor reserviert werden. Raumwechsel sind immer auch mit einem Verlust von Unterrichtszeit verbunden, und technische Probleme können den Unterrichtsfluss behindern. Der Einsatz eines Computers sollte aber hingegen ähnlich flexibel in das Unterrichtsgeschehen eingebaut werden können wie die Nutzung des Taschenrechners. Dies wird vermutlich erst dann möglich sein, wenn jeder Schüler und jede Schülerin ein leistungsfähiges, kostengünstiges Kleingerät im Klassenzimmer zur Verfügung hat. Einen Ansatz hierfür bilden Laptop- oder Tabletklassen (Kracht & Pallack, 2013) beziehungsweise der Einsatz von mobilen Laptop-/Tablet-Wagen (zum Beispiel ein Klassensatz iPads und WLAN, ähnlich dem klassischen ‚Videowagen‘) und ergänzend Computerinseln im Klassenzimmer oder in Bereichen, die den Lernenden zugänglich sind. Auch die eigenen Geräte der Schülerinnen und Schüler (wie beispielsweise Smartphones) können – wo es passt – eingesetzt werden (‚bring your own device‘; BYOD).

Mehr als eine Rechenmaschine

Fazit

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Die vorausgehenden Überlegungen machen deutlich, dass technologische Hilfsmittel durch ihre dynamischen und interaktiven Möglichkeiten den mathematisch-naturwissenschaftlichen Unterricht in noch nicht dagewesener Weise bereichern können. Gleichwohl ist damit kein Automatismus hin zum Besseren, kein Heilsversprechen per se verbunden. Es verbleibt der Lehrkraft nach wie vor die Aufgabe, den Unterricht entsprechend der Medienmöglichkeiten didaktisch-methodisch zu arrangieren. Aufgrund der Interdependenz von didaktischen, methodischen, personalen und medialen Unterrichtsentscheidungen (Jank & Meyer, 1991) stellen sich damit an die Lehrkräfte neue Anforderungen an die Unterrichtsplanung und -gestaltung, wenn sie dem Anspruch gerecht werden wollen, das Potenzial neuer Technologien hinsichtlich einer optimalen Gestaltung von Lernprozessen auszuschöpfen. Mit der bloßen Anwendung traditioneller Lehr- und Lernarrangements wird dieser Anspruch schwerlich erfüllbar sein. Es ist die Offenheit und das Interesse für Neues, auf Seiten der Lehrkräfte wie auf Seiten der Lernenden, die gewissermaßen als personelle Voraussetzungen die Chancen eines technologiegestützten mathematisch-naturwissenschaftlichen Unterricht erst eröffnen. Die Beantwortung der Frage, wie Unterricht durch geeignete Technologien angemessen und zielgerichtet unterstützt werden kann, ist somit eine bleibende Herausforderung für die Lehrkräfte, für die Lehrerbildung und nicht zuletzt für die fachdidaktische Forschung.

!

Der Computer übernimmt im mathematisch-naturwissenschaftlichen Unterricht die Funktion eines Werkzeugs (zum Beispiel die eines Visualisierungs-, Explorations- oder Kommunikationswerkzeugs), dessen Einsatz didaktisch und methodisch durchdacht sein muss. Die Lehrperson muss zudem berücksichtigen, dass das Erlernen der Computernutzung zusätzlich kognitive Ressourcen beansprucht.

?

Reflektieren Sie die Nutzung des Computers im mathematisch-naturwissenschaftlichen Unterricht ihrer eigenen Schulzeit. Welche Funktionen hat der Computer dabei erfüllt? War der Einsatz des Computers jeweils methodisch gerechtfertigt?

?

Suchen Sie Animationen oder Simulationen zu mathematisch-naturwissenschaftlichen Inhalten im Internet. Würden Sie diese Lernobjekte im Unterricht einsetzen? (Begründung!) Beurteilen Sie zudem die Gestaltung der Lernobjekte.

In der Praxis: Technologie im mathematisch-naturwissenschaftlichen Unterricht

Das System der Blütenpflanzen – ein kooperativ-computerunterstütztes Kompaktseminar

Zur Erarbeitung der Biodiversität werden die Grundlagen der Pflanzensystematik im Rahmen der Biologielehrer-Ausbildung erarbeitet (Schaal et al., 2012). Dazu nutzen Lernergruppen zunächst vorstrukturierte digitale Mind-Maps mit Verknüpfungen zu einschlägigen Quellen im Internet und erweitern die Vorlage im Lernprozess durch Eigenschaften und Merkmale der behandelten Pflanzenfamilien. Auf diese Weise entstehen aus den einzelnen Experten-Gruppenergebnissen kollaborativ erstellte, vollständige Übersichts-Maps über das System der Blütenpflanzen. In einem nächsten Schritt erfassen die jeweiligen Experten-Gruppen in einem Lebensraum relevante Pflanzen, markieren den Standort auf Google-Maps beziehungsweise Google-Earth (Sitte, 2009) oder per GPS-Koordinaten und bereiten für die anderen Lernergruppen einen digitalen Lerngang vor. Nun gehen die Lernergruppen alle vorbereiteten Standorte ab und fotografieren die jeweiligen Pflanzen, idealerweise in Verbindung mit den GPS-Koordinaten. Als Produkt des Arbeits- und Lernprozesses wird von den Lernergruppen ein digitales Herbarium erstellt, welches entweder öffentlich gemacht werden oder lokal als persönliche Lern- und Arbeitsdokumentation dienen kann.

Die Analyse des atmosphärischen Kohlenstoffdioxid-Gehalts – ein computergestütztes interdisziplinäres Kooperationsprojekt

Zunächst recherchieren die Lernenden Daten und Informationen zum atmosphärischen Kohlenstoffdioxid-Gehalt in Internet-Datenbanken. Der Datensatz kann nach dem Download direkt in ein Tabellenkalkulationsprogramm eingelesen werden, so dass die relevanten Informationen dort gespeichert zur Verfügung stehen. Im Sinne der explorativen Datenanalyse werden die Daten in einem Punktdiagramm visualisiert, so dass die Lernenden nach einer groben Datendurchsicht im Tabellenblatt (globale Zunahme, lokale Wechsel von Zu- und Abnahmen) aufgrund von grafischen Merkmalen ihre Charakterisierungen verfeinern können: generelle Zunahme über den bisherigen Beobachtungszeitraum als globaler Trend, periodische Schwankungen entsprechend der Jahreszeiten als lokaler Trend. Die auf computergenerierten Visualisierungen gestützten Vermutungen werden nun rechnerisch überprüft: Der globale Datenanstieg lässt sich mithilfe der Tabellenkalkulation über eine gleitende Mittelwertkurve (Aneinanderreihung der Monat für Monat berechneten Jahresmittelwerte) berechnen. Auch die Einpassung einer Sinusfunktion als Modell für die periodischen Schwankungen gelingt nur mit Rechnerhilfe. Aufgrund ihrer Datenanpassung erstellen die Lernenden vorsichtige Prognosen über den weiteren Kohlenstoffdioxid-Anstieg und präsentieren ihren Arbeitsprozess der Datenanalyse sowie das Ergebnis ihrer Schlussfolgerungen in einer computergestützten Präsentation.

Mehr als eine Rechenmaschine

Literatur

Bildungstechnologien im Sport

Forschungsstand, Einsatzgebiete und Praxisbeispiele

Der Artikel fokussiert die Nutzung digitaler Medien im Kontext von Bewegung, Spiel und Sport. Diese Trias dominiert begrifflich in der deutschsprachigen Sportpädagogik, wohingegen international von 'körperlicher Aktivität‘ (eng. ‚physical activity‘) gesprochen wird. Dabei wird eine genuin sportpädagogische bzw. (medien-)didaktische Perspektive eingenommen. Zunächst wird das Gegenstandsfeld umrissen und die Potenziale, die aus dem Einsatz digitaler Medien in dieser Domäne erwachsen (können), abgeschätzt. Hieran schließt sich ein Überblick über den aktuellen Forschungs- und Entwicklungsstand an, bevor anhand von fünf ausgewählten Good-Practice-Projekten aus unterschiedlichen Anwendungsfeldern (Schulsport, Hochschulausbildung, Freizeitsport und Trainerwesen) die praktische Nutzung digitaler Medien beispielhaft aufgezeigt wird. Der Beitrag endet mit der Identifikation von Forschungsdefiziten und der Diskussion möglicher Entwicklungsperspektiven in Form eines Ausblicks.

Bildungstechnologien im Sport

Einleitung: Gegenstand ‚Sport‘ und die ambivalente Stellung von Bildungstechnologien

Wenn in einem Handbuch zum Lehren und Lernen mit digitalen Medien einzelnen Disziplinen, wie hier der Sportwissenschaft, ein eigener Raum eingeräumt wird, dann geschieht dies in der Annahme, dass domainspezifische Besonderheiten vorliegen, die einen, wenn schon nicht gänzlich anderen, so doch zumindest in Teilen sich von anderen Disziplinen unterscheidenden Zugang auf digitale Medien rechtfertigen.

Im Kontext von Bewegung, Spiel und Sport wird dabei häufig auf die Annahme eines Wissenstransfers verwiesen: Im Zuge des motorischen Lernens wird deklaratives Wissen (Faktenwissen) in prozedurales Wissen (Handlungswissen) überführt (zum Beispiel Mandl et al., 1986; Oswald & Gadenne, 1984). Ein weiteres Argument bezieht sich auf den Vermittlungsprozess als eine traditionell kognitiv angegangene Entwicklung des ‚Bewegungswissens‘ von der einfachsten Form der Vermittlung einer ‚Bewegungsvorstellung‘ durch Vormachen bis hin zu medial vermittelten Bewegungseindrücken über Abbildungen, Animationen oder Videosequenzen. Im Zuge der technologischen Entwicklung werden Eigenaktivitäten jedoch zunehmend medial begleitet beziehungsweise ergänzt, indem im Sinne einer ‚Augmented Reality‘ Zusatzinformationen generiert und (meist) visualisiert werden, welche die eigene Bewegung in Echtzeit beispielsweise mit externen Kenngrößen (Kraft-Zeit-Verlaufskurven, Geschwindigkeiten, Bewegungsfrequenzen usw.) in Beziehung setzen.

Als Argumentation für eine domänenspezifische Alleinstellung taugen die genannten Ansätze jedoch nur eingeschränkt, denn die Kombination von kognitiven und motorischen Anforderungen trifft nicht nur für Bewegung, Spiel und Sport zu. So bedürfen beispielsweise Chirurginnen und Chirurgen oder Zahnmediziner/innen einer elaborierten Auge-Hand-Kombination in Verbindung mit kognitiven Wissensinhalten und eine erfahrungsgestützte Expertise, ebenso wie Kranführer/innen oder Pilotinnen und Piloten.

Die Besonderheiten des Feldes Bewegung, Spiel und Sport resultieren daher vor allem aus dem Gegenstand selbst: Charakteristisch sind...

  1. die Ambivalenz zwischen offener und regelgebundener Zweckfreiheit der Tätigkeit, der Inanspruchnahme von Bewegung, Spiel und Sport für erzieherische- und bildungsbezogene Zwecke und schließlich der Inszenierung und Fokussierung körperlicher Leistungen im Profisport, jeweils auf ein Individuum oder soziale Gruppen bezogen,
  2. die Varianz der Lernorte und Bewegungsstätten (von der Nutzung normierter Sportstätten über die Umwidmung öffentlichen Raums als Bewegungsorte bis hin zu hoch situativen Bewegungsumfeldern – beispielsweise in den Natursportarten),
  3. die Verortung gleichermaßen in formellen wie informellen Lernprozessen sowie
  4. eine zumindest originär intrinsische Motivation.

Der Einsatz digitaler Medien eröffnet innerhalb dieses weiten Feldes vielfältige Chancen, die sich vor allem aus der Unterstützung der in der Auseinandersetzung mit der eigenen Bewegung intendierten Interdependenz von Motorik und Kognition ableiten. Auf der anderen Seite können digitale Medien in diesem Feld jedoch auch zu einer Hürde werden, wenn die individuelle Motivation zur Körperbewegung auf eine medialisierte ‚Entsportung‘ trifft. Vordergründig steht in diesem Sinne im Schulsport der eigene Körper als vergegenständlichtes Medium der Bewegung den digitalen Technologien als bewegungsarmen Gegenpol gegenüber, was in Verbindung mit dem Qualitätsmerkmal eines hohen Anteils an Bewegungszeit in der Praxis durchaus kontrovers diskutiert wird (Kretschmann, 2010b).

Insgesamt überrascht es, wie wenig sich die Sport- und Bewegungswissenschaft (sowohl im deutschsprachigen als auch englischsprachigen Raum) bisher der Thematik des Lehrens und Lernens mit digitalen Medien im Sport angenommen hat (Igel & Vohle, 2008). Ein Grund dafür mag in der Dominanz von (schul-)sportpädagogischen Ansätzen liegen, die sportliche Bewegung zum Beispiel für Gesundheitsziele oder Körpererfahrung in Anspruch nehmen will (Funke-Wieneke, 2007). Dabei scheinen die (digitalen) Medien, verstanden als ‚Ver-Mittler‘, in einem Widerspruch zu der unmittelbaren Körpererfahrung zu stehen. Vor allem die Potenziale der digitalen Medien zur asynchronen Reflexion oder zum sozialen Lernen werden hier (noch) nicht gesehen.

Ein weiterer Grund für die Abstinenz könnte darin liegen, dass seit den 70er Jahren des letzten Jahrhunderts die digitalen Medien vor allem im Bereich der Technikschulung zum Einsatz gekommen sind; also primär Visualisierungshilfen (Repräsentation, Simulation) zur Unterstützung des Wissensaufbaus angeboten wurden. Lernen mit digitalen Medien wird hier im Kern als Wissensdistribution mit Content-Dominanz verstanden (zum Beispiel Baca, 2006; Igel & Daugs, 2005; Mester & Wigger, 2005; Wiemeyer & Hansen, 2010). Erst in neuer Zeit, sicherlich auch mit der Funktionserweiterung des Internets und entsprechender Software (Stichwort Web 2.0, Kretschmann, 2010b), geraten genuine, didaktische Prozesse in den Blick, die sich mit digitalen Medien anregen und unterstützen lassen.

?

Diskutieren Sie didaktische Potenziale digitaler Medien im Feld ‚Bewegung, Gesundheit, körperliche Aktivität, Spiel und Sport‘!

Bildungstechnologien im Sport

Forschungsstand

Der Medieneinsatz im Sport hat eine vergleichsweise lange Tradition. Auf der einen Seite stellte die Dynamik sportlicher Bewegung ein idealtypisches Anwendungsfeld für die, in der zweiten Hälfte des vorletzten Jahrhunderts aufkommende, Chronofotografie und später Kinematographie dar. Auf der anderen Seite wurde rasch die Bedeutung dieser Bewegungsaufzeichnungen für das Erlernen und Optimieren sportlicher Bewegungen erkannt. Während Bewegtbilder auf Grund der damit damals verbundenen Aufwände allerdings zunächst kaum eine Bedeutung für die sportpraktische Ausbildung hatten, etablierte sich bereits zu Beginn des letzten Jahrhunderts die Nutzung von grafischen Schaubildern einzelner Bewegungsphasen für Vermittlungsprozesse im Sport (Schröder, 2012, 33). Ab Ende der 40er Jahre des letzten Jahrhunderts wurde vor allem in der Schweiz intensiv mit dem Medium „Lehrfilm“ experimentiert (zum Beispiel Wüthrich, 2004), das im Zuge der technologischen Weiterentwicklung mit Einführung der Videografie in den 70er Jahren zu einem dominanten Lern- und Lehrmedium wurde. Diese Dominanz steigerte sich noch in Verbindung mit der Digitalisierung: Animierte Bewegungsabläufe in Form von aneinandergereihten Einzelbildern (sogenannte Gif-Animationen) sowie Videoaufzeichnungen von Teilbewegungen und Bewegungssequenzen wurden zum bestimmenden Content sowohl auf Online-Plattformen (zum Beispiel www.sportpaedagogik-online.de) als auch auf Datenträgern (sogenannten ‚Lern-CDs‘). Während hier zunächst die Orientierung an idealtypischen Bewegungsfertigkeiten im Zentrum eines unterrichtsmethodischen Zugangs stand (und steht), wurde später auch die ‚Werkzeugfunktion‘ der digitalen Aufzeichnungen von Bewegungsabläufen erschlossen, indem die Auseinandersetzung mit der eigenen und/oder fremden Bewegung über die eigenaktive Produktion angeregt werden sollte (Hebbel-Seeger, 2010, 34). Anders als für die Vermittlung theoretischer Inhalte, beispielsweise bezüglich der Biomechanik des Sports oder der Physiologie, spielt für die Vermittlung sportpraktischer oder taktischer Inhalte die Nutzung von interaktiven Anwendungen und Simulationen bisher kaum eine Rolle, was vor allem mit den hohen Aufwänden für Entwicklung und Pflege solcher Anwendungen begründet werden kann.

Medien wurden und werden in sportlichen Lehr-/Lernprozessen genutzt. Dennoch finden sich im deutsch- und englischsprachigen Raum vergleichsweise wenige Lehrbücher, die sich explizit des Medieneinsatzes annehmen (zum Beispiel Kirsch, 1984, das sich aufgrund seines Alters allerdings nicht mit digitalen Medien beschäftigt; Castelli & Fiorentino, 2008; Mitchel et al., 2004; Mitchel & McKethan, 2003; Mohnsen, 2012; Sanders & Witherspoon, 2012 und andere). Viele der einschlägigen deutsch- (Balz & Kuhlmann, 2006; Bräutigam, 2006; Größing, 2007; Prohl, 2010) und englischsprachigen Lehrbücher zur Sportpädagogik (Graham et al., 2007; Kirk et al., 2006; Lumpkin, 2007; Siedentop, 2008) thematisieren die Nutzung digitaler Medien kaum oder gar nicht. Lediglich in Lange & Sinning (2007) findet sich ein „Medienkapitel“ von Danisch & Friedrich (S. 319-329). Breiteren Raum nimmt die Thematik des Medieneinsatzes im Sportunterricht erst in jüngsten Lehrbuchauflagen im englischsprachigen Raum ein (zum Beispiel Ciccomascolo & Sullivan, 2013; Rink, 2013).

Im Literaturüberblick lassen sich insgesamt die Bereiche Trainerausbildung (I), Hochschule/Universität (II), Sportlehrerausbildung (III), Sportunterricht (IV) und Sportwissenschaft (V) identifizieren, in denen ein digitaler Medieneinsatz vornehmlich a) theoretisch diskutiert, b) anhand eines Praxisbeispiels veranschaulicht oder c) empirisch erforscht wird.

I) Im Bereich der Trainerausbildung dominieren Blended Learning-Konzepte. Hebbel-Seeger (2003), Leser et al. (2008), Stewart (2006) sowie Vohle (2009; 2010; 2011) präsentieren Konzepte, die Online-Tools und -umgebungen in die klassische Präsenzausbildung integrieren beziehungsweise zu Blended Learning-Szenarien erweitern, wobei lediglich Vohle (positive) empirische Evaluationsergebnisse liefern kann. Eine Studie von Reinmann et al. (2010) gibt einen Überblick zum Einsatz digitaler Medien in deutschen Sportverbänden beziehungsweise in der Traineraus- und -fortbildung.

II) Im Bereich der Hochschule/Universität finden sich neben Erfahrungsberichten (Bennett & Green, 2001; Nichols & Levy, 2009) und Praxisbeispielen von Lernplattformen sowie ICT im Allgemeinen (Danisch, 2007; Danisch et al., 2007; Hebbel-Seeger, 2005; Hebbel-Seeger & Koch, 2002, 2003; Sturm, 2008) empirische Akzeptanz- und Einschätzungsstudien (Danisch, 2007; Rank, 2004; Papastergiou, 2010; Wiemeyer & Hansen, 2010). Akzeptanz und Bedeutung digitaler Medien im Hochschulstudium werden überwiegend positiv eingeschätzt. Hebbel-Seeger (2008; 2009a) konnte zudem einen positiven Transfereffekt vom digitalen Lernspiel auf die sportliche Praxis nachweisen. Neuere Transferstudien zeichnen hingegen ein uneinheitliches Bild (Hebbel-Seeger, 2013a).

III) Im Bereich der Sportlehrendenausbildung dominieren neben Praxisbeispielen und Erfahrungsberichten von Blended Learning-Szenarien und ICT-Einsatz (Bredel et al., 2005; Keller, 2008; Schell, 2004; Tearle & Golder, 2008) überwiegend empirische Studien, die angehende Sportlehrende zu ihren Einschätzungen bezüglich des Technologieeinsatzes innerhalb ihres Studium befragen (Ince et al, 2006; Fischer et al., 2005; Thomas & Stratton, 2006; Yaman, 2007a; Yaman, 2008). Angehende Sportlehrende sehen den digitalen Medieneinsatz im Studium differenziert, eher kritisch und beurteilen dessen Mehrwert nicht losgelöst vom jeweiligen Kontext. Fischer et al. (2005) konnten beispielsweise zeigen, dass ein positiver motivationaler Effekt sich durch digitalen Medieneinsatz nicht einstellt. Im anglo-amerikanischen Raum wurde die breite Nutzung und allgemeine Akzeptanz einer Mailingliste für (angehende) Sportlehrende empirisch festgestellt (Pennington & Graham, 2002; Pennington et al., 2004). Sportlehrkräfte stehen dem Einsatz digitaler Medien im Vergleich zu Studierenden der Sportwissenschaft für das Lehramt eher kritisch gegenüber (Adamikis & Zounhia; 2013; Kretschmann, 2012). Bislang existiert lediglich ein Lehrbuch, das versucht, ein theoretisches Konzept der Medienintegration in die Sportlehrendenausbildung mit Praxisbeispielen zu veranschaulichen (Mitchel & McKethan, 2003).

IV) Im Bereich des Sportunterrichts finden sich im Vergleich zu den anderen Bereichen zahlenmäßig die meisten Publikationen. Neben Curriculumsanwendungen (Mitchel, 2001, 2006; Mohnsen, 2005a/b/c) dominieren Praxisbeispiele und Erfahrungsberichte, die einzelne technische Geräte oder Software thematisieren (PDAs: DerVanik, 2005; McCoughtry & Dillon, 2008; Wegis & van der Mars, 2006; Pedometers: Cagle, 2004; Dunn & Tannehill, 2005; Laptop: Dober, 2006; Video Editing: Fiorentino & Castelli, 2005; Schweihofen, 2009; Internet Quellen: Elliot et al., 2007). Allgemeine, konzeptionelle und theoretische Überlegungen zu digitalen Medien im Sportunterricht stellen Dober (2004), Gubacs (2004), Ladda et al. (2004), Thienes et al. (2005) sowie die Lehrbücher von Castelli & Fiorentiono (2007), Mitchel et al. (2004) und Mohnsen (2010) an. Den besonderen Stellenwert von digitalen Spielen für den Sportunterricht arbeiten Papastergiou (2009), Hayes & Silberman (2007) und Hebbel-Seeger (2013b) heraus, während Trout & Zamora (2005) ein Praxisbeispiel des Spiels DDR im Sportunterricht geben. Kretschmann (2010a) wiederum postuliert ein allgemeines Kompetenzmodell digitaler Sportspiele. Die wenigen empirischen Ergebnisse liegen in Form von Evaluationsergebnissen von Internetanwendungen in der Vor- und Nachbereitung der Präsenzphasen (Cothran et al., 2009; Yaman, 2007b; Yaman, 2009) vor und lassen auf Skepsis auf Seiten der Schülerinnen und Schüler im Hinblick auf den Mehrwert digitaler asynchroner Kommunikationsmittel schließen.

V) Im Bereich der Wissenschaft wurden im Rahmen von zwei Positionspapieren (Baca et al., 2007; Borkenhagen et al., 2007) Strategien für die nachhaltige Implementierung von ICT in die Sportwissenschaft erarbeitet. In Igel & Daugs (2005) sowie Wiemeyer & Hansen (2010) finden sich Überblicksdarstellungen über E-Learning-Projekte in der Sportwissenschaft.

Insgesamt lässt sich feststellen, dass die wissenschaftliche Auseinandersetzung mit den digitalen Medien im Sport in drei Richtungen geht: (a) In eine hochschulpolitische Diskussion mit theoretischen Anleihen aus der Organisationsentwicklung, (b) in eine informationstechnische Diskussion zu Potenzialen von Multimedia, virtuellen Welten und Simulationen und (c) eine sportdidaktische Diskussion, die gleichwohl bisher nur sehr rudimentär ausgearbeitet ist.

Bildungstechnologien im Sport

Einsatzmöglichkeiten und Praxisbeispiele: Selbstreflexion, Wissensproduktion und Kollaboration mit digitalen Medien

Wenn Sport in der Schule, in der Hochschule, aber auch im Verein betrieben wird, dann soll er (auch) bildend sein, das heißt, in der reflexiven Auseinandersetzung mit der eigenen Bewegung, dem eigenen Körper, mit gemeinschaftlichem Spiel und wettkampfgemäßer Taktik soll ein Bewegungserlebnis zu einer bewussten Erfahrung werden. Zur Förderung des bewussten Erfahrungsbezugs haben sich in den letzten Jahren konstruktivistische Formen der Unterrichtsgestaltung entwickelt. Im Zuge dieser eher offenen Lernumgebungen (Schulmeister, 1997) können vor allem die Web 2.0 gestützten Formate und Lernsettings ihr didaktisches Potenzial entfalten. Die folgenden Beispiele aus unterschiedlichen „Sportstätten“ sollen einen Einblick geben, wie digitale Medien das Lernen und Lehren konkret unterstützen können, so dass eigenaktive, selbstgesteuerte und soziale Lernprozesse wahrscheinlich werden.

Beispiel 1: Selbst- und Fremdreflexion durch Videofeedback

Im Rahmen von Stationsarbeit in der Sporthalle wird an einer Station ein softwaregestütztes Videofeedback-Szenario durchgeführt (Bredel et al., 2005; Schweihofen, 2009). Die Gruppe der Schülerinnen und Schüler beziehungsweise die Studierendengruppe übt in Tandems die Technik des Volleyball-Pritschens in einer Partner-Zuspielübungsvariante. Die Schülerinnen und Schüler beziehungsweise die Studierenden werden per Videokamera aufgezeichnet. Das Kamerabild wird an die, auf einem Laptop installierte, Software SIMI VidBack übertragen und per Beamer an die Wand projiziert.

Die Software ermöglicht die Videowiedergabe mit einer 60 Sekunden-Verzögerung, sodass unmittelbar nach einer Übungszeit von 60 Sekunden das übende Tandem am Laptop die Videoaufzeichnung analysieren kann. Selbstreflexion des Pritschenden und Fremdreflexion des Zuspielpartners bereichern somit den Technikschulungsprozess. Im Sinne eines Kontinuums kann das nächste Tandem aus der Warteposition die Pritschen-Zuspielübung beginnen, sobald das übende Tandem zum Laptop gewechselt ist.

Abb. 1: Übungsaufbau (in Anlehnung an Bredel et al., 2005)
Abb. 1: Übungsaufbau (in Anlehnung an Bredel et al., 2005)

Beispiel 2: Video-PodCast in der sportwissenschaftlichen Ausbildung

Im Bereich der Theorie-Praxis-Ausbildung in den Wintersportarten im Sportstudium wird mit dem Projekt „BoardCast“ (www.boardcast.de) versucht, die Nutzung von Videoprojektionen im direkten Bewegungskontext außerhalb normierter Sportstätten (am Berg) durch die Nutzung mobiler Endgeräte (Handy/Smartphone) zu ermöglichen: Die Studierenden haben zum einen die Chance, sich in Kleingruppen die gestellte Aufgabe jeweils stets aufs Neue zu vergegenwärtigen. Zum anderen können die Bewegungsversuche in der Kleingruppe mit dem eigenen Gerät aufgezeichnet und mit den Beispielfilmen verglichen werden.

Die Videoprojektionen liefern auf diese Weise konkrete Anlässe, sich über die jeweils gestellte Bewegungsaufgabe und die gefundenen Bewegungslösungen auszutauschen: Es gilt die ‚Knackpunkte‘ einer Bewegung zu identifizieren und einen Konsens hinsichtlich Auswahl und Gewichtung der Beobachtungsaspekte der dokumentierten Bewegung herzustellen.

Darüber hinaus werden neue Potenziale erschlossen, wenn Lernende zu Produzenten werden: Produktion setzt die Analyse und Abstraktion des Lerngegenstandes ebenso voraus wie die Reflexion der (Zwischen-)Ergebnisse. Die Frage der Perspektive ist keine primär ästhetische, sondern muss klären, ob als zentral identifizierte Bewegungselemente einerseits dieser Zuweisung Stand halten und andererseits als solche auch erkennbar werden (Hebbel-Seeger, 2009b).

Ganz allgemein geht es dabei im Grunde also um eine Unterstützungsfunktion von filmischen Darstellungen für die Ausbildung einer handlungsleitenden Bewegungsvorstellung auf Seiten der Lernenden (Elbaek, 2005, 130; Lees, 2002). In Kombination mit mobilen Endgeräten eröffnen sich hierbei neue didaktische Optionen insbesondere für den Einsatz außerhalb fester Sportstätten mit einer entsprechenden Infrastruktur.

Beispiel 3: Interaktive Simulation in der segelpraktischen Ausbildung im Freizeitsport

Für die Unterstützung der praktischen Ausbildung in der Wassersportart Segeln wurde mit der Software ‚e-Törn‘ (www.e-toern.de) eine interaktive Simulation entwickelt, die das Lernen auf dem Wasser flankieren, ergänzen und verlängern soll. Ausgangspunkt für die Entwicklung war die Analyse der Lernsituation im Segelsport, die vor allem zu Beginn des Lernprozesses durch eine ständige Überforderung gekennzeichnet ist: Denn weder lassen sich die äußeren Variablen der komplexen Lernsituation im Segelsport reduzieren, noch unmittelbar beeinflussen (zum Beispiel Windstärke, Strömung, Verkehrsaufkommen usw.). Ebenso wenig ist es möglich, eine Reduktion der Anforderungen auf einem fahrenden Boot vorzunehmen: Segellernende müssen von Beginn an Mehrfachaufgaben bewältigen, deren wesentliche Komponenten in der Steuerung des Bootes und der Wahrung der waagerechten Lage über die drei zentralen Steuerelemente ‚Pinne‘ (Steuer), ‚Schot‘ (Seil zur Beeinflussung der Segelstellung) und ‚Gewicht‘ (Einsatz des eigenen Körpergewichtes zur Wahrung von Gleichwicht mit Einfluss auf die Fahrtrichtung) bestehen.

Interventionen durch Lehrende sind in diesem Umfeld dadurch erschwert, dass in der Regel die oder der Lehrende aus einem Begleitboot heraus mehrere Boote mit Lernenden parallel zu betreuen hat. Über das Briefing vor Beginn einer Übungsstunde und eine anschließende Reflexion hinaus sind Hinweise und Anweisungen auf dem Wasser nur eingeschränkt möglich. Von zentraler Bedeutung sind daher die Auswahl, Abstimmung und Reihenfolge von Übungsformen auf dem Wasser, welche von den jeweils vorherrschenden äußeren Bedingungen abhängen. Eine ‚Steuerung‘ des Lernprozesses erfolgt daher überwiegend mittelbar über die Gestaltung der Lern- und Übungsbedingungen. Von besonderer Bedeutung ist in einem solchen Setting die Einordnung der individuellen Bewegungserfahrungen und subjektiven Theorien in das übergeordnete Konzept der Sportart. Im ‚klassischen‘ Segelunterricht wird dies über die jeweils der Übungspraxis nachgelagerte Besprechung und Reflexion der Segelpraxis geleistet. Dabei lässt sich jedoch beobachten, dass insbesondere zu Beginn des Lernprozesses die verbale Auseinandersetzung Abstraktionsleistungen voraussetzt, die von vielen Lernenden (noch) nicht geleistet werden können.

Hier setzt die interaktive Simulation und Lernhilfe ‚e-Törn‘ an, indem die zentralen Übungsformen der Segelpraxis jeweils digital adaptiert sind (vgl. Abb. 2). Die Reflexion der Segelpraxis wird damit über die Simulation des zuvor auf dem Wasser Erlebten unterstützt. Die auf dem Wasser beispielsweise angebahnte subjektive Theorie, welchen Einfluss der Einsatz des eigenen Körpergewichtes auf die Fahrtrichtung des Bootes hat, lässt sich damit eigenaktiv rekonstruieren und validieren (vgl. Hebbel-Seeger, 2009a).

Abb. 2: User Interface von
Abb. 2: User Interface von "e-Törn" mit dem in dieser Übung exklusiv definierbaren Steuerelement "Gewicht"

Beispiel 4: Blended Learning mit Technologieintegration in der Traineraus- und -fortbildung

In der Traineraus- und -fortbildung des Deutschen Tischtennis Bundes e.V. und seinen Landesverbänden wurde ab 2008 ein Web 2.0-gestütztes sowie konstruktivistisch geprägtes Blended Learning-Szenario in allen drei Lizenzstufen (C, B, A) eingeführt und bundesweit ausgebaut. Hierbei kommt ein spezieller Lehr-Lern-Campus mit Schwerpunkt Videokommentierung bzw. Videoannotation zum Einsatz (http://edubreak.sportcampus.de). Ein zentrales Lernziel in allen drei Lizenzstufen besteht darin, Bewegungsanalysen durchzuführen, das heißt, Bewegungsfehler zu identifizieren und mit individuellen Bewegungskorrekturen zu versehen.

Vor dem Hintergrund dieses Ziels wird eine Online-Umgebung genutzt, in der beliebiges Videomaterial (zum Beispiel das aus den Präsenzsitzungen) zeitmarkengenau mit Kommentaren in Form von Texten, Pfeilen, Schlagworten angereichert werden kann (rich video annotation). Diese Videokommentare können in der Teilnehmendengruppe untereinander rekommentiert und im Sinne eines Videodialogs geteilt werden (Vohle & Reinmann, 2012). Ein individuelles Feedback der Moderatorinnen und Moderatoren für jeden Teilnehmer schließt den Lernzyklus ab. Neben der skizzierten Videokommentierung kommen Weblogs zur Reflexion der eigenen Lehrpraxis sowie Concept-Maps zum Aufbau von Theoriewissen zum Einsatz. Im Rahmen der einjährigen A-Lizenzausbildung nutzen die Teilnehmenden ein spezielles E-Portfolio zur Dokumentation eines, die Ausbildung begleitenden, Coachingprojekts. So können die Teilnehmenden zum Beispiel Videokommentare aus unterschiedlichen Zeitphasen vergleichen und Folgerungen zum eigenen Lernprozess ziehen (Vohle, 2011). Die Entwicklung dieses kompetenzorientierten Ausbildungskonzepts mit den drei Säulen Didaktik, Technologie und Organisation wird seit 2008 zusammen mit Praxis- und Wissenschaftspartnern nach Maßgabe einer didaktischen Entwicklungsforschung (design based research) vorangetrieben, durch primär qualitative Methoden evaluiert und fortlaufend optimiert (Reinmann & Vohle, 2013).

Beispiel 5: Exergaming im Schulsport

Exergaming-Konsolen wie Nintendo Wii, Sony Playstation Eyetoy und Move sowie Microsoft X-Box Kinect finden ihren Einsatz mittlerweile nicht nur im Wohnzimmer in der Freizeit, sondern auch in der Schule im Sportunterricht. Beispielsweise wurde das Tanzspiel ‚Dance Dance Revolution‘ bereits mehrfach für Sportunterricht adaptiert und dokumentiert (Hicks & Higgins, 2010). Das Spielgeschehen wird entweder auf einen großen Bildschirm oder auf eine Leinwand zentral und frontal für alle Schüler sichtbar projiziert. Die Schülerinnen und Schüler erhalten quadratische sogenannte Tanzmatten, die als Game-Controller fungieren und verschiedene Symbole (Richtungspfeile) in verschiedenen Bereichen der Matte haben. Das Spiel gibt zu entsprechender Tanzmusik verschiedene Symbolkombinationen vor, die unter entsprechendem Zeitdruck von den Spielerinnen und Spielern auf der Tanzmatte mit den Füßen realisiert werden müssen. Da nur max. zwei Tanzmatten gleichzeitig an die Konsole angeschlossen werden können, wird das Bildschirmfeedback über richtige oder falsche Schrittkombinationen nur von diesen beiden Matten für alle sichtbar. Die anderen üben sozusagen „trocken“. Durch Rotation der Schülerinnen und Schüler im Stationsprinzip auf die angeschlossenen Matten können aber alle das direkte Spielfeedback erleben.

Ebenso lassen sich Exergames sportspielspezifisch einsetzen. Die „Wii Sports“-Spielesammlung, welche die Sportspiele Tennis, Golf, Baseball, Bowling und Boxen beinhaltet, wurde im Sportunterricht erfolgreich getestet (Perlmann et al., 2012). Für die Sportart Tischtennis wurde ein Tischtennis-Spiel auf der Konsole Nintendo Wii im Sportunterricht simultan zusätzlich zu „realen“ Tischtennisplatten implementiert (Sohnsmeyer, 2012). Das Problem der limitierten Stückzahl von Konsolen und Projektionsmöglichkeiten wurde dadurch gelöst, dass sich die Schülerinnen und Schüler abwechselten und in Gruppen vom realen Tischtennis zum digitalen rotierten.

Die Idee der Integration von Exergames im Schulsport besteht darin, aus der Alltagswelt bekannte, zur Bewegung animierende Exergames in den Schulalltag zu integrieren, um Motivation zur körperlichen Aktivität, Bewegungsfreude zu fördern. Bildungsgehalte lassen sich im Sinne von Transfereffekten auf den Ebenen der Wahrnehmungsleistung sowie des motorischen und kognitiven Lernens nachweisen (Perlmann et al., 2012; Sohnsmeyer, 2012). Willkommener Nebeneffekt ist die Fittness-steigernde Bewegungsintensität, die mit sedentarischen digitalen Spielen nicht erreicht wird (Lyons et al., 2012).

!

Digitale mediendidaktische Szenarien haben die Besonderheit, die verschiedenen „Sportstätten“ und -bereiche zu bedienen, die über das Klassenraumszenario hinausgehen. Eine körperliche, motorische Aktivität soll unterstützt, vorbereitet und/oder nachbereitet, nicht jedoch ersetzt werden.

?

Entwickeln Sie ein Unterrichtsszenario mit digitalem Medieneinsatz für die Bereiche a) Trainerausbildung, b) Hochschule/Universität und c) Sportlehrerausbildung! Berücksichtigen Sie a) die unterschiedlichen Sportstätten (Halle, Stadion, Schwimmbad, Natur, urbane Plätze etc.), b) die Inhalte der Praxis und Theorie, c) die Lernziele/ Kompetenzen (motorisch, kognitiv, sozial, emotional) sowie vielfältige digitalen Medien und Technologien (Beamer, Laptop, PDA, Handheld, WLAN, Learning Management System, virtuelles Klassenzimmer etc.)!

Bildungstechnologien im Sport

Forschungsdefizite und Entwicklungsperspektiven

Eine kritische Bewertung der aktuellen Situation in der Sport- und Bewegungswissenschaft im Kontext der Nutzung digitaler Medien kommt in Anlehnung an Kretschmann (2008; 2010b) zu sechs Aussagen:

Forschungsstrategisch ist anzumerken, dass neben der ‚rein‘ empirischen Forschung oder der ‚reinen‘ normativ-interpretativen Forschung eine didaktische Entwicklungsforschung (design based research) vonnöten ist, die in Zusammenarbeit mit Praktikerinnen sowie Praktikern und mit theoretischem Anspruch eine auf Dauer verbesserte Praxis im Sinne einer Bildungsinnovation verwirklicht (Reinmann & Vohle, 2013).

?

Überlegen Sie, wie Sie in den sechs kritischen Bereichen für Entwicklung und Innovation sorgen können!

  1. Planen Sie eine empirische Studie (qualitativ und/oder quantitativ) zum Medieneinsatz im Sport!
  2. Wie kann man mediendidaktische Angebote weiterentwickeln, sodass dem Prinzip „Aus der Praxis/Für die Praxis“ genüge getan wird?
  3. Nach welchen Kriterien sollten Medienangebote im Sport kategorisiert und bewertet werden, damit sie vergleichbar sind?
  4. Überlegen Sie, welche Inhalte a) im Lehrplan Sport in der Schule, b) im Sportlehrerstudium und c) in der Sportlehrerfortbildung bezüglich Bildungstechnologien im Sport obligatorisch verankert sein sollen!
  5. Wie muss eine Sporthalle ausgestattet sein, damit ein adäquater Medieneinsatz möglich ist? Welche Kompetenzen müssen die Lehrkräfte mitbringen?
  6. Wie kann man die Dissemination sportwissenschaftlicher E-Learning-Projekte in die Sportpraxis bewerkstelligen? Welche Voraussetzungen müssen geschaffen werden, damit (wissenschaftliche) Projekte auch in der Praxis nachhaltig Anwendung finden?

Ein interessantes Feld zukünftiger Forschungs- und Entwicklungsperspektiven stellt die Entwicklung von Videoportalen wie beispielsweise YouTube dar. Die Vielzahl an strukturierten Lernvideos und Interaktionskommentaren von Betrachtenden sowie Erstellerinnen und Erstellern zeugt von einem dynamischen Prozess der Interaktion und Kollaboration im Word Wide Web. Experten geben ihr Wissen über YouTube weiter und treten in Diskussion mit Novizen und anderen Expertinnen und Experten über Web 2.0-Technologien. Gerade in Trendsportarten wie Crossgolf, BMX oder Parkour, finden sich neue Formen des Sich-Bewegens, der Körperinszenierung mit zum Teil hohem Wagnischarakter. Web 2.0-Anwendungen bieten hier die Möglichkeit der schnellen Distribution von Lehr-Lernmaterialien (Zum Beispiel Video-PodCasts), der Reflexion und kollaborativen Bearbeitung. In Abgrenzung zu institutionellen Lernfeldern im Sport steht hier aber das informelle Lernen, das Lernen ‚en passant‘, im Zentrum (Schwier, 2010).

Darüber hinaus wachsen Inhalt und Qualität von Internet-Wissensportalen, wie beispielsweise Wikipedia (http://de.wikipedia.org/wiki/Portal:Sport). Die sportspezifischen Inhalte bergen eine tagesaktuelle Informationsmöglichkeit sowie Lern- und Wissensmaterialien, jenseits von fachwissenschaftlichen Lehrbüchern. So finden sich beispielsweise zum Teil ausgezeichnete Informationen zur Historie einzelner Sportarten. Sportwissenschaftlich „tiefe“ Inhalte sind zwar (noch) kaum vertreten, könnten aber eine mögliche zukünftige Entwicklung darstellen.

Die Nutzung digitaler/ virtueller Welten eröffnet schließlich verschiedene didaktische Optionen, die insbesondere für eine theoriegeleitete Reflexion von Bewegung, Spiel und Sport wertvoll sein können. So erlauben virtuelle Realitäten die Darstellung von Dingen und Sachverhalten, die den menschlichen Sinnen nicht unmittelbar zugänglich sind, weil sie in der Realität beispielsweise entweder zu klein oder zu groß sind oder sich zu schnell oder zu langsam vollziehen, um vom menschlichen Auge wahrgenommen zu werden. Zu diesem Zweck können in virtuellen Räumen Wissensinhalte, beispielsweise Bewegungsabläufe, taktische Varianten von Sportspielen oder physiologische Anpassungsprozesse visualisiert, skaliert und schematisiert werden. Dabei lässt sich eine Annäherung an ein generisches Lernen erreichen, indem an einer abstrahierten Wirklichkeit Erkenntnisprozesse nachvollzogen werden. Während bei Explorationswelten Verstehensprozesse im Vordergrund stehen, die auf der Idee des forschenden Lernens aufsetzen (zum Beispiel Schwan & Buder, 2006), haben Trainingswelten vor allem die Vermittlung prozeduraler und handlungsbezogener Fertigkeiten zum Ziel (Bünger et al., 2007). Dabei erhalten die Lernenden häufig neuartige oder die Realität ergänzende Formen des Feedbacks (zum Beispiel Rosser et al., 2000).

Die größten potentiellen Handlungsmöglichkeiten eröffnen sich in virtuellen Welten jedoch dann, wenn gestaltend in das virtuelle Umfeld eingegriffen werden kann, indem Objekte modelliert und mit Funktionen versehen werden (Hebbel-Seeger, 2011). Durch das Arbeiten in der Gruppe werden hier idealtypisch konstruktive, kommunikative und kollaborative Prozesse begünstigt.

Aktuelle, vor allem auf mobilen Endgeräten aufsetzende Entwicklungen versuchen den Gap zwischen Realität und Virtualität zu überbrücken, indem die Realität durch digitale Inhalte erweitert wird bzw. reale Welt und Virtualisierung in einem „Mixed-Reality“-Konzept verschmelzen. Unter dem Begriff der ‚Augmented Reality‘ firmieren dabei Anwendungen, welche die Sicht auf die Realität (Zum Beispiel durch eine Brille oder Kameralinse) überlagern, indem Objekte der Realität (Zum Beispiel Spielende, ein Sportgerät etc.) als Marker fungieren, die, sobald sie fokussiert werden, datenbankbasierte Informationen abrufen und im Kontext der Weltsicht visualisieren (Beispiel: Skibrille mit eingeblendeten Zusatzinformationen zur Piste: Ideallinie, Techniktipps, kritische Stellen etc.).

Eine äußerst dynamische Entwicklung haben Apps für Tablets und Smartphones erfahren (Cummiskey, 2011; 2012). Die Bandbreite der Einsatzgebiete und Funktionalitäten der in Bewegung und Sport(unterricht) angesiedelten Apps reicht von jenen für Videofeedback- und -analyseszenarien (Coach’s Eye; Ubersense), Coaching Tools (CoachNote), Übungssammlungen (Group Games App; TGfU App), Wissensdistribution (Sports Rules; iMuscle) bis zu Apps für bewegungsintensive Klassenraumaktivitäten in der Schule (Class Break App).

!

Weiterführende Links zum Kapitel finden Sie auf Diigo

Bildungstechnologien im Sport

Literatur

Fremdsprachen im Schulunterricht

Mit Technologien Sprachen lernen und lehren

In diesem Kapitel wird ein exemplarischer Überblick über den Einsatz von Technologien beim Fremdsprachenlernen und -lehren gegeben. Ausgehend vom „Gemeinsamen europäischen Referenzrahmen” wird der Technologieeinsatz bei der Entwicklung und Einübung der dort erwähnten Fertigkeiten erläutert. Die weiteren Abschnitte behandeln Sprachenportfolios, Fort- und Weiterbildungsangebote für Fremdsprachenlehrende sowie aktuelle Praxisprojekte (wie zum Beispiel das Projekt „eTwinning“), die den Einsatz von Technologien im schulischen Fremdsprachenunterricht illustrieren und konkretisieren sollen.

Fremdsprachen im Schulunterricht

Einleitung

Im Zeitalter von Internet, Web 2.0 und mobilen Endgeräten sind moderne Technologien auch aus dem Bereich des Sprachenlehrens und -lernens kaum mehr wegzudenken (Nieweler, 2006). Besonders die Netzgeneration erwartet, dass Werkzeuge und Kommunikationsformen, die sie in ihrer Freizeit verwendet, auch für den schulischen Kontext nutzbar gemacht werden.

In einer globalisierten Welt kann Lernen und Lehren auf die unterschiedlichen Bedürfnisse und Voraussetzungen von Lernenden besser eingehen. Moderne Technologien eröffnen enorme Möglichkeiten für verstärkte Individualisierung. Sie machen Lernende räumlich und zeitlich weitgehend unabhängig und erleichtern selbstbestimmtes, autonomes, konstruktivistisches Lernen (Nieweler, 2006; Schmidt, 2005; vgl. Kapitel #lerntheorie). Für den Fremdsprachenerwerb und -unterricht ermöglichen sie neben leicht zu realisierender Informationsbeschaffung eine globale Vernetzung, weltweite Kommunikation und Kooperation und den Zugang zu topaktuellen authentischen Quellen und Unterrichtsmaterialien.

Der „Gemeinsame Europäische Referenzrahmen für Sprachen“ (GERS) definiert fünf Fertigkeitsbereiche, nämlich: „hören“, „lesen“, „zusammenhängend sprechen“, „an Gesprächen teilnehmen“ und „schreiben“ (ÖZG, 2009, 10; siehe Abbildung 1), die sich, wie auch Abbildung 1 zeigt, in konkreten Kommunikationssituationen überschneiden und somit nach Möglichkeit auch integrativ und nicht isoliert gelehrt und gelernt werden sollten.

Abb. 1: Die Fertigkeitsbereiche für Sprachkompetenz des Gemeinsamen Europäischen Referenzrahmens für Sprachen
Abb. 1: Die Fertigkeitsbereiche für Sprachkompetenz des Gemeinsamen Europäischen Referenzrahmens für Sprachen

Dieses Kapitel wird zunächst über den (möglichen) Technologieeinsatz beim Sprachenlernen berichten und sich dabei an der Struktur des GERS orientieren. Im Anschluss werden Projekte wie das europäische Sprachenportfolio beschrieben, Webangebote für Lernende und Fortbildungsangebote für Lehrende genannt und abschließend ein konkretes Beispiel für die Anwendung im Schulunterricht gegeben.

!

Die URL von diesen und allen weiteren im Kapitel genannten Angeboten finden Sie bei diigo.com unter den Schlagworten #l3t und #sprache.

Fremdsprachen im Schulunterricht

Hörverstehen

Im Netz sind viele fremdsprachliche Audiomaterialien verfügbar, etwa Radio-Streams, Podcasts, kostenlose und kostenpflichtige Hörbücher oder auch Videos (beispielsweise bei YouTube). Podcasting ist ein modernes Multimedia-Phänomen, das vielseitige Möglichkeiten unter anderem für den Unterrichtseinsatz eröffnet (siehe Kapitel #educast). Bei vielen Podcasts handelt es sich oft um die Zweitverwertung von Nachrichtensendungen, Reportagen oder Interviews. Ein umfangreiches Angebot bieten Radio Nacional de España, BBC, NYT, Radio France und die ARD Mediathek.

Unter den Informationspodcasts finden sich Nachrichten in langsamem Sprechtempo mit transkribierten Hörtexten wie das „Journal en français facile“, die „BBC World News For Children“ und die langsam gesprochenen Nachrichten der Deutschen Welle. Private Podcasts werden von Sprachschulen und Fremdsprachenlehrenden angeboten, die in didaktisierter Form transkribierte Hörtexte und Übungsmaterialien zur Verfügung stellen. Dazu gehören der Schweizer Podclub, das spanische Blog SSL4You von Teresa Sánchez, das französische Blog GABFLE, Breaking News English von Sean Banville und der deutsche Podcast Slow German. (Webressourcen zu diesen und weiteren Beispielen finden Sie unter #sprache auf diigo.com.)

Hörtexte auswählen und bearbeiten

Die Schwierigkeit bei der Suche nach geeigneten Podcasts liegt darin, aus dem reichhaltigen Angebot passende Beispiele auszuwählen, die dem Kompetenzniveau der Lernenden entsprechen, wobei Hörtexte im Vergleich zu Lesetexten nicht überflogen und quergelesen werden können, sondern bei der Unterrichtsvorbereitung der gesamte Podcast angehört werden muss, bevor man entscheiden kann, ob der Text geeignet ist. Oft finden sich schriftliche Kurzzusammenfassungen der Inhalte oder sogar komplette Transkriptionen der Sprechertexte, die die Textvorauswahl unterstützen. Das Hördokument soll den curricularen Vorgaben entsprechen, an die Erfahrungswelt der Lernenden anknüpfen und aktuelle und authentische Kontexte bieten (Heckmann, 2009a). Sollte das Sprechtempo zu schnell sein, kann das Tempo der Hörtexte mit der freien Software zur Audiobearbeitung Audacity oder anderen Audioeditoren verändert werden (vgl. Kapitel #educast). Zudem können die Hörtexte geschnitten und die einzelnen Teile beliebig zu einem neuen Text zusammengefügt werden. Die Audiobearbeitung kann sowohl Aufgabe der Lehrperson während der Unterrichtsvorbereitung sein, als auch eine Möglichkeit, die Lernenden zu aktivieren und ihnen die Gelegenheit zu geben, Hörtexte zu suchen, zu bearbeiten und der Lerngruppe beispielsweise auf einer Lernplattform zur Verfügung zu stellen.

Individuelles Hörverstehen und Partizipation

Im Gegensatz zum traditionellen Hörverstehen frontal im Klassenverband haben die Lernenden über portable Abspielgeräte wie Handy oder MP3-Player von jedem beliebigen Ort aus Zugriff auf die Hördateien und bestimmen das Hörtempo individuell, indem sie den Hörtext anhalten sowie vor- und zurückspulen. Nachdem das Hörverstehen über geschlossene oder offene Aufgaben gesichert wurde, sollte eine produktiv-kreative Phase anschließen, die über den eigentlichen Hörtext hinausgeht. Beim Einsatz von Podcasts bietet es sich an, über die Kommentarfunktion, die viele Podcast-Anbieter/innen in ihren Blogs vorsehen, die Lernenden zu schriftlichen Texten in Form von Meinungsäußerungen oder persönlichen Berichten anzuregen. Eine weitere Form der Partizipation besteht in der Produktion eigener Hörtexte, die anschließend, zum Beispiel bei Audio-Lingua.eu, Sprachenlernenden aus der ganzen Welt zur Verfügung gestellt werden können. Die Möglichkeit der sozialen Interaktion zwischen den Lernenden schafft authentische Schreib- und Sprechanlässe (Heckmann, 2009b, vgl. Kapitel #educast).

Fremdsprachen im Schulunterricht

Fremdsprachliche Lesekompetenz

Die Entwicklung des Lese- ebenso wie die des Hörverstehens ist als notwendiger rezeptiver Ausgangspunkt, als Basiskompetenz für das Lernen und als Input und Impulsgebung für andere, produktive sprachliche Äußerungen, wie Diskussionseinstiege, zu betrachten.

Auch hier können neue Medien, Social Software und Internetressourcen sowohl in informellen als auch formellen, institutionellen Kontexten von großem Nutzen sein und besitzen, wie bereits einleitend erwähnt, einen hohen Mehrwert gegenüber herkömmlichen Methoden und Ressourcen.

Internet als Quelle von Hypertext und Hypermedien

Das Internet bietet eine Fülle an Texten in vielen europäischen Sprachen und Schwierigkeitsgraden und zu jedem nur vorstellbaren Thema. Seit den Anfängen des Web 1.0 bereichern Hypertext, Hypermedien und diverse Hypertext-Nachfolgesysteme (Schulmeister, 2007, 295ff) den Fremdsprachenerwerb und unterstützen mit ihren nicht-linearen Texten vor allem autonome, konstruktivistisch orientierte Sprachenlernende dabei, sich ihre individuellen Lernpfade selbst zu organisieren, rasch an weiterführende Information zu gelangen oder Definitionen und/oder Übersetzungen von ausgewählten Schlüsselwörtern oder Redewendungen zu erhalten (zum Beispiel Britannica, Wikipedia). Auch sogenannte „Cursor Translator“ sind hilfreiche Werkzeuge zur leichteren Erschließung von Texten (zum Beispiel Online-Zeitschriften des Spotlight-Verlags).

Bei manchen Ressourcen, zum Beispiel bei Online-Zeitungen wie bei den New York Times, oder auch bei freien Bildungsressourcen (Open Educational Resources, kurz OER, siehe Kapitel #openness) wie dem Open-Courseware-Projekt vom MIT, gibt es die Möglichkeit der audio-visuellen Rezeption. Dabei werden die Transkripte gemeinsam mit Videoaufzeichnungen wichtiger Interviews, Fernsehdiskussionen oder Vorlesungen online veröffentlicht, sodass Lernende zum besseren Verständnis der Hörtexte die synchron geschalteten Transkripte heranziehen können. Ebenso ermöglichen bestimmte OER-Angebote das Verfolgen von Video-Vorlesungen zusammen mit den jeweiligen Transkripten (zum Beispiel der Stanford University auf iTunesU; vgl. Kapitel #openness).

Wie bei allen Internetressourcen ist jedoch die Evaluierung der Qualität gewählter Ressourcen notwendig. Texte aus zuverlässigen Quellen auszuwählen, ist ein erster Schritt der Qualitätskontrolle. Textmaterialien von qualitativ hochwertigen Websites, wie zum Beispiel von internationalen Kulturinstituten, öffentlich-rechtlichen Radio- und Fernsehanstalten mit Bildungsauftrag, renommierten Bildungseinrichtungen oder Onlineversionen von Qualitätszeitungen und -zeitschriften weisen normalerweise die von Sprachenlernenden und -lehrenden erwartete Qualität auf.

Online-Wörterbücher, Korpora, Konkordanzen und Enzyklopädien

Neben einer Vielzahl von ein-, zwei- oder mehrsprachigen Online-Wörterbüchern bietet das Internet für fortgeschrittene Fremdsprachenlernende auch Korpora, Konkordanzen und Enzyklopädien in vielen europäischen Sprachen. Einige davon sind frei im Internet verfügbar, andere sind kommerzielle Produkte.

In der Praxis: Kostenlose Wörterbücher

Multilinguale Wörterbücher

Beispiele für einsprachige englische Wörterbücher

Weblogs, Web-Quests, Wikis, Open Educational Resources (OER) und Social-Bookmarking-Dienste

Auch Weblogs, Wikis und OER können, sofern sie den geforderten Qualitätskriterien genügen, wertvolle Quellen für authentische Texte sein und sowohl die Entwicklung der Lese- als auch der interkulturellen und kommunikativen Kompetenz fördern. Social-Bookmarking-Dienste helfen bei der Recherche, RSS-Feeds beim regelmäßigen Zugang zu geeigneten Materialien (Rüddigkeit, 2006).

Kommerzielle Online-Ressourcen zum Fremdsprachenlernen

Neben einer unerschöpflichen Fülle von frei verfügbaren authentischen, teilweise bereits didaktisch aufbereiteten Texten, bietet das Internet auch Ressourcen auf kommerziellen Plattformen. Die Anbieter/innen sind zum Beispiel Verlage, die für die Abonnentinnen und Abonnenten ihrer Sprachzeitschriften oder die Käuferschaft ihrer Lehrbücher aktuelle, didaktisch aufbereitete Onlinematerialien und Onlinedossiers teilweise gratis, teilweise gegen geringe Gebühren zur Verfügung stellen.

Fremdsprachen im Schulunterricht

Sprechinhalte erarbeiten und präsentieren

Zur Förderung der Sprechkompetenz bietet das Internet heute, im Gegensatz zur Anfangszeit des Webs, die der mündlichen Kommunikation nur begrenzten Raum ließ, diverse Möglichkeiten. Aufgrund schneller Internetzugänge, Breitbandnetze und der Partizipationsmöglichkeiten des Web 2.0 ist es möglich, neben dem Schreiben, Lesen und Hören nun auch das Sprechen zu fördern.

Asynchrone Kommunikation

Asynchrone Sprechanlässe monologischer Form können Lehrende und Lernende begleitet von audiovisuellem Material mit Hilfe von Präsentationsoftware (zum Beispiel Powerpoint) zunächst realisieren und anschließend anderen Lernenden zugänglich machen, indem sie für die eigene Lerngruppe, für eine größere Lerngemeinschaft oder sogar für alle Internetnutzer/innen veröffentlicht werden (zum Beispiel via YouTube). Dabei besteht noch die Kommentarfunktion der erstellten Beiträge, womit, in Kombination zum Sprechen, die Entwicklung von weiteren Kompetenzen, zum Beispiel argumentatives oder meinungsbetontes Schreiben, angeregt wird (siehe auch Kapitel #educast).

Motivationsfördernd können Web 2.0-Tools zudem für gelenkte Sprechäußerungen zeitversetzt eingesetzt werden, womit mündliche Beiträge aufgenommen, anderen Nutzerinnen und Nutzern per Mail geschickt beziehungsweise in Blogs oder Plattformkursen eingebettet werden. Dabei variiert die Übungspalette. Es können einfache reproduktive Sprechaufträge, bis hin zu Kettenübungen und Aufgaben zur Durchführung von kleinen kooperativen Projekten gestellt werden. Ihr Mehrwert liegt grundsätzlich darin, dass sie durch eine einfache Bedienung systematisch die Zielsprachverwendung einführen und konstruktiv das freie Sprechen vorbereiten.

Synchrone Kommunikation

Um intensive Interaktionsprozesse für das Mündliche zu initiieren, sind Sprechaktivitäten dialogischer Form angebracht, in denen nicht nur Inhalte reproduziert werden, sondern Kommunikation in der Zielsprache angestrebt wird.

!

Das Projekt E-Journal bietet Unterstützung und ein eigenes Werkzeug für Fremdsprachenlehrende: http://dafnord.eduprojects.net/ejournal.html

Zur Unterstützung von Gesprächsentwicklung, von Konferenzen und multimedialem kollaborativem Austausch in synchroner Form bieten sich verschiedene Werkzeuge an (Döring & Pöschl, 2003; siehe Kapitel zu #kommunikation, #videokonferenz). Das dialogische Sprechen kann zu zweit oder in Gruppenarbeit durchgeführt werden, wobei gelenkte und freie Übungen eingesetzt werden können (Beißwenger & Storrer, 2005). Dadurch findet Interaktion zwischen Lehrenden und Lernenden, hauptsächlich jedoch unter Lernenden statt. Über Sprechaufträge hinaus eignen sich solche Software-Programme als reine Kommunikationsmittel in der Zielsprache zur Erarbeitung und Betreuung von kollaborativer Spracharbeit (zum Beispiel Schulprojekte, internationale Projekte). Dabei besteht der positive Effekt für das Lernen darin, dass die Lernenden auf diesem Wege – und umgeschaltet auf eine prinzipiell authentischere sprachliche Ebene – zur Anbahnung und Aufrechterhaltung der Kommunikation angeregt werden.

!

Zusätzlich zu unterschiedlichsten Kommunikationstools können auch Lernpartnerschaften gesucht und gepflegt werden. Hier unterstützen Angebote wie das „eTandem“ der Universität Bochum (Brammerts & Kleppin, 2001).

Fremdsprachen im Schulunterricht

Fremdsprachliche Schreibfähigkeit entwickeln

Schreiben wird – zusammen mit Sprechen – als produktive Fertigkeit charakterisiert. Das Schreiben, beziehungsweise der von Lernenden geschriebene Text, spielt im Unterricht eine bedeutende Rolle als Wiedergabe von Gelerntem, als persönliche Ausdrucksmöglichkeit der Lehrnenden, als Auseinandersetzung mit einem Text oder auch teilweise zu Prüfungszwecken, da ein geschriebener Text Sprachnormen fassbar repräsentiert und leichter bewertbar macht. Das Internet bietet zahlreiche zusätzliche Möglichkeiten, um dieser Fertigkeit eine besondere und interessante Bedeutung zu geben (Würffel, 2008): das Senden von SMS oder auch das Instant Messaging zur informellen Kommunikation, der E-Mail-Verkehr im beruflichen Kontext, das Schreiben von Rezensionen und Stellungnahmen, das Erklären von Sachverhalten und Aufbereiten von Lerninhalten für Wikis und vieles mehr. Im Sinne der Förderung kommunikativer Kompetenz sollte dabei unbedingt die Verwendung unterschiedlicher Register der jeweiligen (Fremd-)Sprache in Verbindung mit unterschiedlichen Medien und Textsorten thematisiert und so ein Bewusstsein für situationsgerechte Kommunikation angeregt werden. Vor der praktischen Anwendung sollten daher authentische fremdsprachige Beispiele gelesen und diskutiert werden.

E-Mail-Projekte (Netz & Heinen, 2004) im Sinne von Brieffreundschaften mit Personen in der Zielsprache sind im Fremdsprachenunterricht sehr beliebt, da die Verwendung neuer Vokabel durch diesen spannenden Austausch unterstützt und der aktive Wortschatz dabei erweitert wird. Solche virtuellen Schulpartnerschaften werden in Europa vom EU-Programm eTwinning gefördert. Es vernetzt Schulen aus Europa über das Internet miteinander. Mit eTwinning findet man eine Partnerschule und arbeitet in einem geschützten virtuellen Klassenraum an einem gemeinsamen Unterrichtsprojekt (http://www.etwinning.net).

Für Hebel et al. (2002) zählen „im Netz interagieren“, „Dokumentation für einen Internetbeitrag zusammenstellen“ und „Netzpräsentation gestalten“ zu den produktiven Kompetenzen im Umgang mit dem Internet im Unterricht (S. 90).

Eine hervorragende Kombination all dieser Elemente bieten Web-Quests an. Web-Quests basieren auf einem didaktischen Modell, um sinnvoll mit Internet und PC zu arbeiten. „Die abenteuerliche Spurensuche im Internet“, deren Steuerungs- und Kontrollfunktion die Lernenden übernehmen, kann sie zum Lernen motivieren. Web-Quests stellen also eine Möglichkeit dar, im Unterricht lernendenzentriert zu arbeiten, sowie Computer und Internet sinnvoll einzusetzen (Moser, 2000). Zusätzlich fördern sie aufgrund der Heterogenität der angebotenen Medien einen integrativen Zugang zu einzelnen Fertigkeiten des Referenzrahmens, indem sie verstehendes Lesen und Hör-Seh-Verstehen mit produktiven Fertigkeiten, zum Beispiel durch das Erstellen eines schriftlichen Textes, verknüpfen. Zudem fordern sie die Rezeption unterschiedlicher Medien und machen einen Transfer der gefundenen Informationen in Hinblick auf Modus und Medien nötig.

Auch Weblogs und Wikis können die schriftliche Kommunikation im Fremdsprachenunterricht bereichern (Platten, 2008) und sowohl als Kommunikationsmedium (asynchron), Informationsquelle (aktuell und authentisch) und Publikationsmedium von Projekten und Ergebnissen fungieren.

!

Sprachlernangebote im Web: Für Lernende, die keine konventionellen Sprachkurse in Anspruch nehmen können oder wollen, bietet das Web zahlreiche Online-Kursangebote, beispielsweise busuu.com, livemocha.com und langmaster.com. Zudem werden auch kostenfrei „virtuelle Klassenzimmer“ angeboten, zum Beispiel vom Berlitz-Verlag.

Fremdsprachen im Schulunterricht

Sprachenportfolios

Das vom Europarat im Jahr 2000 initiierte „Europäische Sprachenportfolio/ESP” hat zwei Grundfunktionen, eine pädagogische und eine Berichts- und Dokumentationsfunktion (Schneider & Lenz, 2001, 3). Die pädagogische Funktion soll Lernende zum Sprachenlernen im Allgemeinen motivieren, zu plurilingualen und interkulturellen Erfahrungen sowie zur Selbstreflexion anregen. Die Berichts- und Dokumentationsfunktion hat zum Ziel, Lernende zur Dokumentation ihrer Sprachkompetenzen zu ermuntern. Auf Basis der Papierversion vom Juni 2000 wurde in enger Zusammenarbeit von EAQUALS (European Association for Quality Language Services) und ALTE (Association of the Language Testers in Europe) ein „Elektronisches Europäisches Sprachenportfolio/eESP” entwickelt und vom Europarat akkreditiert. Die elektronische Version wird für erwachsene Lernende (16 Jahre und älter) empfohlen, ist derzeit auf Englisch und Französisch verfügbar und kann von der ALTE-Website kostenfrei heruntergeladen werden (http://www.alte.org/projects/eelp.php).

Ebenfalls vom Europarat wurde der „europass“ entwickelt. Er besteht aus den fünf Teilbereichen Lebenslauf, Sprachenpass, Mobilität, Diploma-Supplement und Zeugniserläuterungen. Der persönliche „europass“-Sprachenpass dokumentiert mit Hilfe von Selbstbeurteilungsrastern die individuelle Sprachkompetenz, listet die erworbenen Zertifikate und Diplome auf und beschreibt die persönlichen sprachlichen Erfahrungen. So wie das eESP kann der „europass“ kostenfrei heruntergeladen werden (via http://www.europass-info.de).

Individuell gestaltete, multimediale, webbasierte Sprachenportfolios können aber auch mit Software wie Mahara, Wordpress, Elgg und anderem erstellt werden (Buchberger et al., 2007).

Fremdsprachen im Schulunterricht

Fort-und Weiterbildungsmöglichkeiten für Fremdsprachenlehrer/innen im Web

Einige Institutionen wie das Goethe-Institut oder das Referat Kultur und Sprache im österreichischen Bundesministerium für Unterricht, Kunst und Kultur bieten selbstständig Fort- und Weiterbildungsseminare für (Fremd-)Sprachenlehrer/innen an, die den Einsatz von Technologien beim Sprachenlernen behandeln. Fortbildungsmöglichkeiten bieten auch offene Online-Lehrendengemeinschaften an (zum Beispiel http://dafnet.web2.0campus.net/ oder http://livedeutsch.blogspot.de/, die es auch als Facebook-Gruppen gibt). Selbstverständlich liefern aber auch viele der weiter oben genannten Internetressourcen sowie Fernlehre- oder Blended-Learning-Angebote internationaler Universitäten und Hochschulen Fortbildungsmöglichkeiten für Lehrende. Eine neue Art der Fortbildungsmöglichkeit findet sich auch in den MOOCs (siehe Kapitel #lll, #offeneslernen).

!

Moderne Technologien ermöglichen im Fremdsprachenunterricht neben leicht zu realisierender Informationsbeschaffung auch globale Vernetzung, weltweite Kommunikation und Kooperation sowie Zugang zu topaktuellen authentischen Quellen und Unterrichtsmaterialien.

In der Praxis: eTwinning-Projekte

eTwinning ist Teil des COMENIUS-Projektes und versucht, Schulen im europäischen Raum für Unterrichtsprojekte in geschützten virtuellen Klassenräumen zu vernetzen. Im Folgenden sollen kurz zwei solcher eTwinning-Projekte vorgestellt werden.

„Abenteuer Freiheit – The Adventure of Freedom“

Im Jahre 2009-2010 wurde zwischen mehreren europäischen Schulen ein eTwinning-Projekt mit Thema „Abenteuer Freiheit – The Adventure of Freedom“ durchgeführt. Freiheit war das Ziel, das die Menschen in der DDR mit ihrer friedlichen Revolution im Jahr 1989 erreichen wollten, und der Fall der Berliner Mauer ließ diesen Wunsch endlich Wirklichkeit werden. Doch der Mauerfall und die Wiedervereinigung Deutschlands waren nur das Ergebnis eines länger andauernden Prozesses der Demokratisierung ganz Europas, in Polen waren die Arbeiter/innen der Danziger Werft und die Gewerkschaft Solidarność richtungweisend für den Aufbruch in die Demokratie. Für die griechischen Schüler/innen war der Fall der Berliner Mauer ein höchst interessantes Thema im Deutschunterricht. Daraus entstand der Wunsch, sich genauer über Deutschland zu informieren. Doch der Inhalt dieses Projekts sollte sich nicht auf eine rein historische Betrachtungsweise beschränken. In diesem Projekt blickten griechische, polnische und deutsche Schüler/innen nicht nur auf die Ereignisse der Jahre 1989/1990 zurück, sondern setzten sich mit persönlichen, gesellschaftlichen und politischen Freiheiten auseinander. Alle Endprodukte der am Projekt beteiligten Schüler/innen wurden auf einem Online-Poster aufgelistet und somit der Allgemeinheit zugänglich gemacht.

Das Projekt „Кlassenzeitung“:

Im Zeitraum 2012-2013 entstand durch die Teilnahme an einem gemeinsamen eTwinning-Projekt einer Schule aus Griechenland und einer Schule aus der Türkei eine deutschsprachige Zeitung. Dafür wurden verschiedene Technologien wie zum Beispiel QR-Codes, Videos, Social-Bookmarking, etc. und Web 2.0-Werkzeuge wie etwa Glogster, fotobabble, simplebooklet und ähnliche erfolgreich im Unterricht eingesetzt.

Fremdsprachen im Schulunterricht

Ausblick

Das weite Feld der Fremdsprachenaneignung- und -vermittlung mit Hilfe neuer Technologien nahm in den letzten Jahrzehnten eine rasante Entwicklung, die sich in Zukunft in erhöhtem Tempo fortsetzen könnte. Das immer größer werdende Angebot an modernen Technologien und Webressourcen erleichtert zunehmend die Informationsbeschaffung, Kollaboration und Kommunikation sowie weltweite Vernetzung. Dies ermöglicht selbstbestimmten Lernenden ihren individuellen Bedürfnissen im Fremdsprachenlernen entsprechend Angebote zu nutzen, birgt aber auch die Gefahr, dass der Überblick in der Fülle der Angebote verlorengeht.

Auch wenn die Arbeit mit modernen Technologien von Lernenden gegenüber konventionellen Werkzeugen und Methoden geschätzt wird, stellt sie selbst für technologieaffine Lernende gelegentlich eine hohe Herausforderung dar. Zumindest bei vielen älteren Menschen besteht nicht selten eine Hemmschwelle gegenüber Computer und Internet.

Für Fremdsprachenlehrende und -lernende bedeutet dies, dass die (Weiter-)Entwicklung der Medienkompetenz, die kontinuierliche Fortbildung des Lehrpersonals und die Aufnahme neuer Lehr- und Lernformen (zum Beispiel Blended Learning) in die Curricula hohe Priorität hat. Weitere Forschungsergebnisse sind wünschenswert und könnten einen wertvollen Beitrag zur sinnvollen Weiterentwicklung des technologieunterstützten Fremdsprachenunterrichts leisten.

?

Welche Technologien, Werkzeuge und Methoden sind für Ihre Bedürfnisse als Fremdsprachenlernende/r oder -lehrende/r zielführend?

Fremdsprachen im Schulunterricht

Literatur