Human-Computer-Interaction

Usability Engineering im Bildungskontext

Moderne Informationstechnologie im Bildungskontext ermöglicht raschen Zugriff auf immer mehr Daten. Mehr Daten heißt aber nicht mehr Information. Mehr Information heißterst recht nicht mehr Wissen. Während die technische Performanz steigt, stößt die kognitive Performanz der Lernenden rasch an ihre Grenzen. Die zunehmende Informationsflut bei steigender Komplexität der Inhalte lässt daher Benutzbarkeit (Usability) nicht mehr als Zusatznutzen (added value) erscheinen, sondern vielmehr als zentralen Erfolgsfaktor. Grundvoraussetzung dafür ist ein Verständnis für Problemstellungen an der Nahtstelle von Informatik und Psychologie. Grundlagen dazu kann das Fach Mensch-Computer-Interaktion (engl. „human-computer-interaction“, HCI)einbringen, die im Usability Engineering (UE) praktisch umgesetzt werden. Die Herausforderung liegt in der Interaktionzwischen Mensch und Computer. Dazu benötigen wir zunächst einen kurzen Überblick über die historische Veränderung dieser Interaktion. Danach lernen wir, ausgehend von den prinzipiellen Unterschieden zwischen Mensch und Computer, einige Grundlagen, die zur technischen Gestaltung der Interaktion der Nahtstelle von Mensch und Maschine (engl. „Graphical User Interface“, GUI) wichtig sind.

Einführung

Human-computer-interaction (HCI) ist ein erst seit rund 30 Jahren etabliertes Teilgebiet der Informatik, das mit der Verbreitung sogenannter grafischer Benutzeroberflächen (Shneiderman, 1983) entstand und von Beginn an versucht, die Interaktion zwischen Computern (wie auch immer sie heute aussehen, mobil, pervasive, ubiquitous) (siehe Kapitel #grundlagen) und Menscheffektiv und effizient zu ermöglichen. Während die klassische HCI-Forschung (Card, Moran & Newell, 1983; Norman, 1986) sich auf das Zusammenspiel zwischen Mensch–Aufgabe–Computer konzentrierte, widmet sich die neuere HCI-Forschung neben der Erforschung neuer Interaktionsparadigmen (zum Beispiel intelligente, adaptive, personalisierte Interfaces, Augmented Non-Classical Interfaces, aber auch Social Computing und andere) vor allem der Erhöhung der Effektivität und Effizienz des Zusammenwirkens menschlicher und technischer Performanz. HCI-Wissen ist somit auch grundlegend zur Optimierung technologiegestützten Lehrens und Lernens (Niegemann et al., 2008),insbesondere im Bereich der Interaktion zwischen zukünftigen semantischen Technologien und menschlichen Wissensräumen (Cuhls, Ganz & Warnke, 2009). Die Betrachtung der Unterschiede und Gemeinsamkeiten von menschlicher und maschineller Intelligenz ist ein wichtiger Aspekt moderner HCI-Forschung (Holzinger, 2013).

Abb. 1: HCI erforscht Aspekte an der Nahtstelle zwischen Information, Perzeption und Kognition
Abb. 1: HCI erforscht Aspekte an der Nahtstelle zwischen Information, Perzeption und Kognition

Interaktion und Interaktivität

Interaktion ist eigentlich ein Begriff aus der Psychologie und bezeichnet einen auf der Basis gewisser Erwartungen, Einstellungen und Bewertungen beruhenden Austausch (von Information) auf sprachlicher oder nichtsprachlicher (symbolischer) Ebene. Interaktion ist also eng mit dem Begriff Kommunikation verbunden. Darum wird im Deutschen HCI auch oft als Mensch-Computer-Kommunikation bezeichnet. Interaktivität hingegen ist ein technischer Begriff, der Möglichkeiten und Eigenschaften des Computers bezeichnet, den Benutzerinnen und Benutzernverschiedene Eingriffs-, Manipulations- und Steuerungsmöglichkeiten zu ermöglichen.

Interaktivität wird zu einem didaktisch wichtigen Teil des technologiegestützten Lernens gezählt (Schulmeister, 2002), insbesondere weil Interaktivität die Möglichkeit bietet, dass die Endbenutzerinnen und Endbenutzer die Auswahl, die Art und die Präsentation von Informationen aktiv manipulieren können und damit ihrem individuellen Vorwissen und ihren Bedürfnissen anpassen können (Holzinger, Searle & Wernbacher, 2011). Das war allerdings nicht immer so. Zu Beginn der Computertechnik war die Interaktivität sehr beschränkt, Computer hatten weder Bildschirm noch Tastatur: Eingabedaten wurden mit Lochkarten in Stapelverarbeitung (Batch-Processing) an den Rechner übergeben, die sequenziell abgearbeitet wurden und als Output wiederum Ausgabedaten auf Lochkarten erzeugten.

Character-based User Interfaces

Die Verwendung von Bildschirm (vom Fernsehgerät) und Tastatur (von der Schreibmaschine) als Computer-Interface-Geräte war ein wichtiger Schritt: Zeichen sind nun unabhängig davon, was sie darstellen und können daher auf unterschiedlichste Weise realisiert werden. Anstatt einen auf Lochkarten vorgefertigtenStapel von Aufträgen zu liefern und auf das Ergebnis zu warten, wird die Aufgabe nun Schritt für Schritt im Dialog erledigt. Somit wird nicht nur die Durchführung der eigentlichen Aufgabe, sondern auch die Entwicklung der Aufgabenstellung im Dialog mit dem Computer unterstützt.

Das ist eine ganz wesentliche Voraussetzung für Lernprogramme. Allerdings waren es anfangs noch Dialogsysteme mit Kommandozeilen-Interpreter (engl. Command Line Interpreter,Shell). Dies waren die ersten User Interfaces, die bereits Text in der Kommandozeile einlesen, diesen Text als Kommando interpretieren und ausführen konnten. So konnten Programme gestartet, Parameter und Dateien übergeben werden. Die Realisierung als eigenständiges Programm führte schnell zu Verbesserungen zum Beispiel durch Fehlerbehandlungsroutinen und Kommandounterstützung. Waren Computerbenutzerinnen und Computerbenutzer anfangs noch ausgewiesene Expertinnen und Experten, wird nun – gerade aufgrund der immer breiteren Gruppe von Endbenutzerinnen und Endbenutzern - die Benutzeroberfläche selbst zum Gegenstand von Forschung und Entwicklung. Damit war die Basis geschaffen, HCI an unterschiedlichste Dialogprinzipien anpassen zu können.

Graphical User Interfaces (GUI)

Die immer breitere Anwendung von Computern in der Öffentlichkeit verlangte, dass die zeichenbasierte Unabhängigkeit der Dialogsysteme noch weiter abstrahiert wurde, weil auch andere als alphanumerische Zeichen für die Darstellung und den Dialog verwendet werden können:Dies sind grafische Elemente, die analog zum alltäglichen Arbeiten durch Zeigen, Nehmen, Verschieben, Ablegenund anderes manipuliert werden können (sogenannte WIMP: Windows, Icons, Menus, Pointers). Diese WIMP-Interaktion, die sich als „Desktop Metapher“ an unterschiedliche Arbeitsumgebungen anpassen kann und über „Point&Click“ sowie „Drag&Drop“ benutzbar ist, eröffnete dem technologiegestützten Lernen einen ungeheuren Schub, da diese Möglichkeit der „direkten Manipulation“ virtueller Objekte den kognitiven Konzepten der Benutzerinnen und Benutzer sehr entgegenkommt.GUI und Desktop sind Kernparadigmen der HCI, die zwar kontinuierlich erweitert und verbessert werden (zum BeispielToolbars, Dialogboxen, adaptive Menüs), aber vom Prinzip her konstant bleiben. Dies ist eine Konstanz, die ein wichtiges Prinzip unterstützt: Reduktion kognitiver Überlastung. Die GUIs bestehen zwar aus grafischen Elementen, dochim Hintergrund bleiben abstrakte, zeichenbasierte Beschreibungen von Prozessen, die grundsätzlich unabhängig von der Art der Darstellung sind und daher auch über unterschiedlichste Interface-Prinzipien realisiert werden können.

Erweiterte WIMP-Interfaces: SILK (Speech, Image, Language, Knowledge)

Der Desktop als Metapher ist nicht für alle Anwendungsbereiche ideal. Durch die Einbindung von Multimedia (Sprache, Video, Gesten und andere mehr) in das GUI und die Integration mobiler und zunehmend pervasiver und ubiquitärer Technologien, also Computer, die in Alltagsgegenständen eingebettet und als solche gar nicht mehr erkennbar sind,werden Alternativen zu WIMP nicht nur möglich, sondern auch notwendig.Hier können quasi-intelligente, semantische Funktionen integriert werden, wodurch ein weiterer wichtiger Schritt erfolgte: Wenn Interfaces unterschiedlichste Metaphern unterstützen müssen und die Metapher an unterschiedliche Benutzerinnen und Benutzer, Medien, Endgeräte und Situationen angepasst werden muss, bedarf es einer Standardisierung der Interfacemechanismen und einer entsprechenden Beschreibung (zum Beispieldurch XUL – XML User Interface Language), die über unterschiedliche Werkzeuge realisiert werden können.

!

GUI und Desktop sind Kernparadigmen der HCI, die zwar kontinuierlich erweitert und verbessert werden (zum Beispiel Toolbars, Dialogboxen, adaptive Menüs), aber vom Prinzip her konstant bleiben.

Non-Classical Interfaces

Desktop und WIMP-Interfaces beruhen auf der Nutzung der klassischen Interface-Geräte (Bildschirm, Tastatur, Maus usw.), die Schritt für Schritt bei Beibehaltung ihrer Grundstruktur erweitert – zum Beispiel für SILK oder für andere Metaphern – und adaptiert werden. Die Leistungsfähigkeit der Computer und die zunehmende Unabhängigkeit der Interfaces integrieren damit Schritt für Schritt auch andere Ein- und Ausgabegeräte und Interaktionsmechanismen wie beispielsweise Sprache und Gesten. Unsere klassischen Sinne Sehen und Hören können damit durch weitere „körperbewusste“ (propriozeptive) Modalitäten wie Berühren/Tasten, Schmecken, Riechen, aber auch Temperatur, Gleichgewicht, Schmerz, Aufmerksamkeit und so weiter ergänzt werden. Solche „Non Classical Interfaces“ haben sich daher zu einem wichtigen Forschungsbereich entwickelt. Damit wird der Mensch als Ganzes in die Interaktion miteinbezogen, was zu neuen Möglichkeiten des Lehrens und Lernens führt (ein aktuelles Beispiel ist die Nintendo Wii mit der Wiimote (Holzinger et al., 2010).

!

Moderne Interfaces erlauben nicht nur die Interaktion des Menschen mit dem Computer mit herkömmlichen Eingabegeräten, sondern versuchen, haptische Möglichkeiten zu berücksichtigen.

Intelligente adaptive semantische Interfaces

Da heutige Computersysteme zunehmend alle Lebensbereiche durchdringen und sich die Interaktivität immer mehrvom klassischen Schreibtisch wegbewegt, verbreiten sich neue ubiquitäre, pervasive Möglichkeiten für das Lehren und Lernen (Safran et al., 2009). In Zukunft werden Benutzeroberflächen mit intelligenten, semantischen Mechanismen ausgestattetsein. Diese unterstützen die Benutzerinnen und Benutzerbei den immer vielfältiger und komplexer werdendenAufgaben des täglichen Lernens und wissensintensiven Arbeitens (zum Beispiel Suchen, Ablegen, Wiederfinden, Vergleichen). Diese Systeme passen sich dynamisch an die Umgebung, Geräte und vor allem ihre Benutzerinnen und Benutzer und deren Präferenzen an(Holzinger & Nischelwitzer, 2005). Entsprechende Informationen werden für die Gestaltung der Interaktion in Profilen gesammelt und ausgewertet (User profiling).Ebenso erlaubt die steigende technische Performanz,die Multimedialität und Multimodalität voranzutreiben, wodurch man sich von der Desktop Metapher immer weiter entfernen kann. Damit können adaptive Systeme realisiert werden, bei denen die Systeme selbst mit der Umgebung intelligent interagieren und semantische Information verarbeiten und so die User Interfaces der jeweiligen Situation, den Bedürfnissen, dem Kontext und den vorhandenen Endgeräten anpassen (Holzinger, Nischelwitzer & Kickmeier-Rust, 2006), (Holzinger, Geier & Germanakos, 2012). Personalisierung ist auf vielen Gebieten ein wichtiger Trend (Belk et al., 2013).

Web 2.0 als Ausgangspunkt der veränderten HCI

Mit dem Aufkommen des Web 2.0 (O’Reilly, 2005,2006) veränderte sich die Interaktion – weg vom klassischen Personal Computing. Die Benutzerinnen und Benutzer sind nicht mehr passive Informationskonsumentinnen und -konsumenten, sondern erstellen aktiv Inhalte, bearbeiten und verteilen und vernetzen sich darüber hinaus mit anderen (socialcomputing). Obwohl der Begriff Web 2.0 keine rein technische Entwicklung bezeichnet, werden einige Ansätze aus der Informatik unmittelbar damit verbunden wie zum Beispiel RSS-Feeds (Really Simple Syndication) zum schnellen Informationsaustauschfür die einfache und strukturierte Veröffentlichung von Änderungen auf Websites (beispielsweise Blogs) in einem standardisierten Format (XML) oder AJAX (Asynchronous JavaScript and XML) als mächtiges Konzept der asynchronen Datenübertragung zwischen einem Browser und einem Server. Damit hat man die Möglichkeit, in einem Browser ein desktopähnliches Verhalten zu simulieren, wodurch sich vielfältige Möglichkeiten für E-Learning-Anwendungen ergeben. Wir wenden uns nun aber in aller Kürze einigen Grundregeln für benutzergerechte HCI zu.

Grundregeln für benutzergerechte HCI

Unterschiede Mensch-Computer

Wenn wir uns mit der Interaktion, Perzeption und Kognition von Information durch den Menschen beschäftigen,müssen wir einige wesentliche Unterschiede zwischen Mensch und Computer kennen. Während Menschen die Fähigkeit zum induktiven, flexiblen Denken und komplexen Problemlösen auszeichnet, zeigen Computer bei deduktiven Operationen und logischen Aufgaben ermüdungsfreie Performanz (Bild 2).

Abb. 2: Grober Vergleich Mensch – Computer (Holzinger, 2000c)
Abb. 2: Grober Vergleich Mensch – Computer (Holzinger, 2000c)

!

Usability ist nicht nur die – wie das Wort ins Deutsche übersetzt wird – schlichte „Gebrauchstauglichkeit“. Usability setzt sich nämlich aus Effektivität, Effizienz und der Zufriedenheit der Endbenutzerinnen und Endbenutzer zusammen.

HCI und Usability

Zur Interaktion zwischen Mensch und Computer gibt es einige Elemente, die im Folgenden kurz vorgestellt werden. Wichtig ist zu berücksichtigen, dass sowohl funktionale als auch ästhetische Elemente zusammenwirken sollten. Brauchbarkeit (usefulness), Benutzbarkeit (usability) und Ästhetik (enjoyability) sollten ausgewogen zusammenwirken.

Usability – was ist das eigentlich? Usability ist nicht nur die – wie das Wort ins Deutsche übersetzt wird – schlichte „Gebrauchstauglichkeit“. Usability setzt sich nämlich aus Effektivität, Effizienz und der Zufriedenheit der Endbenutzerinnen und Endbenutzer zusammen. Effektivität wird daran gemessen, ob und in welchem Ausmaß die Endbenutzerinnen und Endbenutzer ihre Ziele erreichen können. Effizienz misst den Aufwand, der zur Erreichung dieses Ziels nötig ist. Zufriedenheit schließlich ist gerade im E-Learning wichtig, denn sie enthält subjektive Faktoren wie „joy of use“, „look & feel“ und „motivation & fun“ (enjoyability). Usability wird demnach durch das optimale Zusammenspiel von Effektivität, Effizienz und Zufriedenheit für einen bestimmten Benutzerkontext gemessen.

In den folgenden Aufzählungen soll exemplarisch klar werden, worauf es in der Usability ankommt:

  1. Orientierung. Elemente wiebeispielsweise Übersichten, Gliederungen, Aufzählungszeichen, Hervorhebungen oder Farbbereiche dienen dazu, sich zurechtzufinden. Die Endbenutzerinnen und Endbenutzer müssen stets zu jeder Zeit genau erkennen, wo sie sich befinden und wo sie „hingehen“ können.
  2. Navigation (zum Beispiel Buttons, Links oder Navigationsleisten) helfen den Benutzerinnen und Benutzern, sich zu bewegen und gezielt bestimmte Bereiche anzuspringen. Die Navigation muss logisch, übersichtlich, rasch und konsistent (immer gleichartig) erfolgen. Sprichwort: „Whatever you do, beconsistent“ Das gilt auch für Fehler: Solange sie konsistent sind, fallen sie nicht so sehr auf.
  3. Inhalte (zum Beispiel Texte, Bilder, Töne, Animationen, Videos) sind die Informationen, die vermittelt werden sollen (engl. „content“). Hier gelten alle Grundregeln der menschlichen Informationsverarbeitung. Alle Inhaltselemente müssen entsprechend aufbereitet werden. Text muss kurz und prägnant sein. Anweisungen müssen eindeutig und unmissverständlich sein.
  4. Interaktionselemente (zum Beispiel Auswahlmenüs, Slider, Buttons) ermöglichen, gewisse Aktionen zu erledigen. Sämtliche Interaktionen müssen den (intuitiven) Erwartungen der Endbenutzerinnen und Endbenutzer entsprechen.

Usability-Engineering-Methoden sichern den Erfolg. Eine breite Palette an Usability-Engineering-Methoden (UEM) sichern erfolgreiche Entwicklungsprozesse (sieheHolzinger, 2005). Ein Beispiel hierfür ist das „User-Centered Design“ (UCD). Dieser Ansatz orientiert sich an Bedürfnissen, Fähigkeiten, Aufgaben, Kontext und Umfeld der Endbenutzerinnen und Endbenutzer, die von Anfang an in den Entwicklungsprozess mit einbezogen werden. Daraus entwickelte sich das „Learner-Centered Design“ (LCD), das sich auf die Grundlagen des Konstruktivismus (Lernen als konstruktive Informationsverabeitung) und des Problem-basierten Lernens stützt. Ähnlich wie beim UCD fokussiert sich das LCD auf das Verstehen der Lernenden im Kontext. Die E-Learning-Umgebung (also das Tool) und der Lerninhalt (engl. „content“) müssen einen maximalen Nutzen (Lernerfolg) bringen.

Ähnlich wie im User-Centered Design wird bei dieser Methode ein spiralförmiger (iterativer) Entwicklungsprozess durchlaufen, der aus drei Phasen besteht. In jeder Phase kommen spezielle Usability-Methoden zum Einsatz, die Einblick in die Bedürfnisse, das Verhalten und den Kontext der Endbenutzerinnen und Endbenutzer erlauben (Wer? Was? Wann? Wozu? Wie? Womit? Warum?). So kann eine genaue Kenntnis der Lernenden gewonnen werden: Ziele, Motivation, Zeit, Kultur, Sprache, Voraussetzungen, Vorwissen und weiteres.

!

„Thinking aloud“ beschreibt eine Methode, bei der zumeist vier bis fünf Testpersonen gebeten werden, ein Programm oder einen Programmablauf zu testen und ihre Gedanken dabei laut auszusprechen.

Es wird jeweils zum nächsten Schritt übergangen, wenn kein nennenswerter Erkenntnisgewinn mehr erzielt wird. Wichtig ist die interdisziplinäre Zusammenarbeit verschiedener Personen, wie zum Beispiel Fachexperten und Fachexpertinnen, Didaktiker/innen, Multimedia-Experten und -Expertinnen, Usability-Ingenieure und Lernende! Selten fallen alle Rollen in einer Person zusammen. Während der Analysen wird klar, welches didaktische Modell für den jeweiligen Kontext am besten geeignet ist und welche pädagogischen Konzepte angewandt werden können, die die Lernenden im Zielkontext mit der jeweiligen Zieltechnologie (zum Beispiel Mobiltelefon, iPod, iTV) bestmöglich unterstützen.

Mit Hilfe eines ersten Prototyps kann Einsicht in viele Probleme gewonnen werden. Sehr bewährt hat sich das sogenannte „Rapid Prototyping“, das auf papierbasierten Modellen beruht und enorme Vorteile bringt (Holzinger, 2004). Dabei kann das Verhalten der Endbenutzerinnen und Endbenutzer zum Beispiel mit der Methode des Lautdenkens (englisch „thinking aloud“, siehe Infokasten) untersucht werden. Erst wenn auf Papierebene alles „funktioniert“, wird ein computerbasierter Prototyp erstellt, der dann wiederholt getestet wird. Erst wenn auch hier kein weiterer Erkenntnisgewinn erfolgt, kann die Freigabe für die Umsetzung der endgültigen Version gegeben werden. Papier in der Anfangsphase, das klingt seltsam, ist aber extrem praktisch, weil wesentliche Interaktionselemente schnell erstellt und simuliert werden können, ohne dass bereits Programmierarbeit geleistet wird.

!

Erfolgsregel: Alles, was bereits in der Anfangsphase erkannt wird, spart Zeit und Kosten! Der Return on Investment (RoI) liegt dabei zwischen 1:10 bis 1:100.

!

„Bedienerfreundlichkeit“ wird im englischen Sprachraum nicht mit Usability bezeichnet. Der Begriff Usability setzt sich aus zwei Worten zusammen: use (benutzen) und ability (Fähigkeit), wird im Deutschen mit „Gebrauchstauglichkeit“ übersetzt und umfasst weit mehr als nur Bedienerinnen- und Bedienerfreundlichkeit: In der ISO Norm 9241 wird Usability als das Ausmaß definiert, in dem ein Produkt durch bestimmte Benutzer/innen in einem bestimmten Nutzungskontext (!) genutzt werden kann, um deren Ziele effektiv und effizient zu erreichen.

Lerninhalt – Metadaten – Didaktik. Damit E-Learning-Inhalte einem lerntheoretisch adäquaten Ansatz entsprechen, müssen diese nicht nur entsprechend aufbereitete Lerninhalte und Metainformationen (Metadaten sind Informationen die zum Beispiel das Wiederfinden ermöglichen) enthalten, sondern auch noch einige weitere technische Voraussetzungen erfüllen. Ähnlich wie in der objektorientierten Programmierung (OOP), entstand die Grundidee von Lernobjekten, das heißt komplexe Lerninhalte (engl. „content“) in einzelne kleine Objekte aufzuteilen. Wünschenswerte technische Eigenschaften solcher Objekte sind Austauschfähigkeit (engl. „interoperability“) und Wiederverwertbarkeit (engl. „reusability“). Dazu muss das Objekt aber nicht nur Lerninhalte und Metadaten enthalten, sondern auch Fragen zum Vorwissen (engl. „prior knowledge questions“) und zur Selbstevaluierung (engl. „self-evaluation questions”).

Fragen zum Vorwissen haben im Lernobjekt die Funktion von AdvanceOrganizers(Ausubel, 1960). Dabei handelt es sich um einen instruktionspsychologischen Ansatz in Form einer „Vorstrukturierung“, die dem eigentlichen Lernmaterial vorangestellt wird. Allerdings driften hier die Forschungsbefunde auseinander: Die ältere Forschung betont, dass ein Advance Organizer nur dann wirksam wird, wenn dieser tatsächlich auf einem höheren Abstraktionsniveau als der Text selbst liegt, das heißt lediglich eine inhaltliche Zusammenfassung des nachfolgenden Textes ist noch keine Vorstrukturierung. Solche Vorstrukturierungen, die analog zu den Strukturen des Textes aufgebaut sind, bringen bessere Ergebnisse bei der inhaltlichen Zusammenfassung als solche, die zwar inhaltlich identisch, aber nicht in diesem Sinn analog aufgebaut sind. Andererseits hebt die jüngere Forschung hervor, dass sich konkrete, das heißt weniger abstrakt formulierte, Vorstrukturierung auf das Behalten längerer Texte positiv auswirkt. Sie aktivieren demnach das vorhandene Vorwissen und verbinden sich damit zu einer „reichhaltigen Vorstellung“ – einem mentalen Modell (dazu Ausubel, 1968; Kralm & Blanchaer, 1986; Shapiro, 1999). Das Konzept der AdvanceOrganizer ist verwandt mit dem Schema-Modell kognitiver Informationsverarbeitung (Bartlett, 1932). Schemata spielen eine wichtige Rolle bei der sozialen Wahrnehmung, beim Textverstehen, beim begrifflichen und schlussfolgernden Denken und beim Problemlösen. Ähnlich wie Schemata funktioniert die Theorie der Frames und Slots nach Anderson(Anderson et al., 1996). Die Wissensrepräsentation mit Hilfe von Frames stellt eine objektorientierte Wissensrepräsentation dar und zeigt Ähnlichkeiten zwischen menschlichem Gedächtnis und wissensbasierenden Informationssystemen. Objekte der realen Welt werden dabei durch sogenannte Frames dargestellt. Die Eigenschaften der Objekte werden in den Frames in sogenannten Slots (Leerstellen) gespeichert. Der Tatsache, dass es in der realen Welt mehrere unterschiedliche Objekte eines Objekttyps gibt, wird mit Hilfe von generischen Frames und deren Instanzen Rechnung getragen. Ein generischer Frame hält für jedes Attribut, mit dem ein Objekt beschrieben wird, einen Slot bereit. In einer Instanz des generischen Frames wird nun jedem Slot – entsprechend für das Attribut, für das er steht, – ein Wert zugeordnet. Die Beziehung zwischen einem generischen Frame und einer Instanz wird mit Hilfe des „is-a“-Slot hergestellt. Im Beispiel ist im ,,is-a“-Slot gespeichert, dass es sich bei Katharina um ein Kind handelt. In den übrigen Slots sind jeweils Werte zu den Attributen gespeichert. Diese Theorien besagen, dass Lernende besser lernen, wenn die Information assoziativ organisiert ist, da Lernende neue Informationen stets auf alten Informationen (Vorwissen) aufbauen. Bereits Piaget (1961) bezeichnete Schemata als grundlegende Bausteine zum Aufbau von Wissen.

In der Praxis: Evaluation von Systemen und Software

Für die Praxis ist die Evaluation, also die Beurteilung von Systemen und Software wichtig. Eine Evaluation sollte stets systematisch, methodisch und prozessorientiert durchgeführt werden.

Es wird unterschieden zwischen formativer Evaluation (während der Entwicklung) und summativer Evaluation (nach der Fertigstellung). Subjektive Evaluation schließt die mündliche und die schriftliche Befragung und das laute Denken ein. Objektive Evaluation bedient sich der anwesenden und abwesenden Beobachtung. Bei leitfadenorientierten Evaluationsmitteln wird das Produkt entlang eines Prüfleitfadens beurteilt, der sich aus typischen Aufgaben des Systems ergibt. Bei der Erfassung der Messwerte können verschiedene Skalen (zum Beispiel Nominalskala, Rangskala, Verhältnisskala) verwendet werden, die unter bestimmten Voraussetzungen durch eine Skalentransformation ineinander überführt werden können. Messungen sollen sich stets durch hohe Reliabilität (Zuverlässigkeit), Validität (Gültigkeit) und Objektivität (Sachlichkeit) auszeichnen. Als Beurteilungsverfahren (Zuweisung von Werten) werden Grading (Einstufung), Ranking (Reihung), Scoring (Punktevergabe) und Apportioning (Aufteilung, Zuteilung) verwendet. Eine quantitative Beurteilung (Vorteil: leichte Vergleichbarkeit von Systemen) kann durch Schulnoten erfolgen; oft wird es aber auch umgekehrt gemacht, wobei mehr Punkte besser sind. Multimedia-Systeme können systematisch mit Checklisten beurteilt werden.

Was bringt Usability? Ein Usability-orientierter Prozess schafft Erfolgssicherheit, deckt Risiken frühzeitig auf und sichert eine endbenutzerinnen- und endbenutzerzentrierte Entwicklung. Usability-Engineering-Methoden machen nicht nur Probleme sichtbar, sondern generieren in der Entwicklungsphase neue Ideen und Möglichkeiten – denn Usability Engineering stellt den Menschen in den Fokus der Entwicklung.

Ausblick

So spannend Forschung und Entwicklung neuer Technologien zur Unterstützung menschlichen Lernens auch sind, muss uns doch stets klar sein: Lernen ist ein kognitiver Grundprozess, den jedes Individuum selbst durchlaufen muss – Technologie kann menschliches Lernen lediglich unterstützen – nicht ersetzen. Unsere großen Chancen beim Einsatz neuer Technologien liegen zusammengefasst in drei großen Bereichen (Holzinger, 1997; Holzinger & Maurer, 1999; Holzinger, 2000a; Holzinger, 2000d):

?

Überlegen Sie, wie man mit zukünftigen Computersystemen in Dialog treten könnte. Denken Sie dabei an schon vorhandene Interfaces, zum Beispiel WiiRemote Controller: Was ist dort besonders gut gelungen? Was wird unterstützt? Was könnte damit alles gemacht werden?

Technologiegestütztes Lehren und Lernen erfordert,stets den gesamten Bildungsprozess inklusive der durch die neuen Medien entstehenden Lehr-Lern-Kultur und den Kontext zu betrachten. Fragen der Effektivität (Ausmaß der Zielerreichung) und der Effizienz (Kosten-Nutzen-Relation) sind notwendig. HCI-Forschung versucht, einen kleinen Beitrag dazu zu leisten und UE versucht, die Erkenntnisse auf systemischer Ebene einfließen zu lassen.

?

Gehen Sie in Gedanken systematisch Ihre persönliche Arbeitsumgebung durch (also jene Dinge, die Sie selbst als Lernunterstützung verwenden), und bewerten Sie diesemit der Schulnotenskala (1 „sehr gut“ bis 6 „nicht genügend)“ anhand der folgenden ausgewählten Kriterien:

Literatur