Hypertext

Geschichte, Systeme, Strukturmerkmale und Werkzeuge

Hypertext ist die Grundlage des World Wide Web. Die Geschichte des Hypertexts ist somit zugleich ein Beitrag zur Geschichte der Entstehung des World Wide Web. Der Artikel informiert über die Ursprünge der Idee von vernetzten Informationen und Daten von Vannevar Bush (Memex) und führt anhand der ersten historischen Vorstufen, erdacht von Douglas Engelbart und Ted Nelson, in die Grundlagen von Hypertext-Programmen ein. Erst anhand dieser berühmten Beispiele kann erkannt werden, wie das World Wide Web, wie wir es heute kennen, entstehen konnte. Abschließend werden noch die strukturellen Merkmale des Hypertexts diskutiert und die besonderen Merkmale wie die Nichtlinearität, die beliebigen Verbindungen usw. herausgearbeitet. Inwieweit sich Texte, die dermaßen aufgebaut sind, für Lernen und Lehren eignen, ist nach wie vor eine interessante Frage.

Vorkommen

Zum Glück müssen wir heute nicht mehr über Ideen, Visionen oder Pläne reden, wenn
wir erläutern wollen, was Hypertext ist. Wir sind eigentlich ständig damit beschäftigt,
einen Hypertext zu nutzen, wenn wir im World Wide Web im Internet etwas lesen,
suchen oder schreiben.

Die meisten Webseiten basieren auf Hypertext. Der bekannteste Hypertext ist vermutlich Wikipedia. Der Idee nach und historisch gesehen bestehen Hypertexte aus elektronischen Texten, die in sich markierte Textstellen (Sprungadressen) enthalten, mit deren Hilfe man von einem Begriff oder Absatz zu einem anderen Begriff oder Absatz in demselben Text oder in einer anderen Textdatei „springen“ kann. Die Verbindung zwischen den Textstellen oder Dateien, der „Sprung“, wird mit dem englischen Begriff „Link“ (Verknüpfung) bezeichnet. Die technische Realisierung war vor der Verfügbarkeit der Fenstersysteme und der Maus recht unterschiedlich.

Ein Beispiel

Im Wikipedia-Artikel zum Begriff Hypertext findet sich zu Beginn ein
Inhaltsverzeichnis, das sieben Einträge mit Links zu sieben Knoten anbietet, die durch
blaue Farbe als anklickbar herausgehoben werden:

Abb. 1: Screenshot des Wikipedia-Artikels „Hypertext“. Quelle: (Stand 09/2010)
Abb. 1: Screenshot des Wikipedia-Artikels „Hypertext“. Quelle: (Stand 09/2010)

Klickt man mit der Maus auf die Zeile „3 Geschichte und Entwicklung“, so landet man bei folgendem Text im selben Wikipedia-Artikel:

Abb. 2: Screenshot des Wikipedia-Artikels „Hypertext“. Quelle: (Stand 09/2010) [http://de.wikipedia.org/wiki/Hypertext](http://de.wikipedia.org/wiki/Hypertext)
Abb. 2: Screenshot des Wikipedia-Artikels „Hypertext“. Quelle: (Stand 09/2010) [http://de.wikipedia.org/wiki/Hypertext](http://de.wikipedia.org/wiki/Hypertext)

!

Heute werden Hypertexte mit Hilfe der Auszeichnungssprache HTML (HyperText Markup Language) aufbereitet. Mit HTML können Texte aber nicht nur stilistisch aufbereitet werden (Zeichensätze, Stile, Größen), sondern sie können auch Sprungmarken („Anker“) und Sprungadressen aufnehmen, die man als Links oder Hyperlinks bezeichnet, und die zu anderen Texten (als Knoten bezeichnet) führen.

Solche Sprungadressen können zu anderen Stellen im selben Text, zu anderen Seiten derselben Webseite, zu Dateien oder gar zu anderen Webseiten führen. Links sind nicht auf Begriffe und Textstellen beschränkt, sondern können heute auch von Bildern und Filmen ausgehen oder zu Bildern und Filmen führen. Zuständig für die Weiterentwicklung von HTML ist heute das World Wide Web Consortium (W3C).

Abb. 3: HTML-Code des Kastens „Inhaltsverzeichnis“ aus Abbildung 1. Quelle: (Stand 09/2010) [http://de.wikipedia.org/wiki/Hypertext](http://de.wikipedia.org/wiki/Hypertext)
Abb. 3: HTML-Code des Kastens „Inhaltsverzeichnis“ aus Abbildung 1. Quelle: (Stand 09/2010) [http://de.wikipedia.org/wiki/Hypertext](http://de.wikipedia.org/wiki/Hypertext)

Geschichte

Memex

Die Hypertext-Idee geht auf Vannevar Bush zurück. Vannevar Bush, Berater von Präsident Roosevelt, beschrieb 1945 als Memex eine Maschine zum Blättern und Anfertigen von Notizen in riesigen Textmengen, die per Microfiche Annotationen und Kommentare speichern sollte (das Konzept geht bis in die 1930er Jahre zurück; Nielsen, 1995, 33).

!

Hinweis: Alle im Kapitel erwähnte Links und weitere sind bei Diigo in der L3T Gruppe mit dem Hashtag #l3t und #hypertext abgelegt.

!

Zum Vertiefen: Der berühmt gewordene Aufsatz „As We May Think“ aus dem Magazin „The Atlantic Monthly“ vom Juli 1945 (176(1), 101-108) wird vom Magazin im Netz angeboten (http://www.theatlantic.com/doc/194507/bush).

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Mit Memex hatte Bush eine Analogie zwischen dem „assoziativen“ Arbeiten des menschlichen Gehirns und dem assoziativen Vernetzen von Texten im Auge. Heute finden sich viele Dokumente zu Bush im Internet mit den Originalzeichnungen des Memex und Fotos des von Bush 1931 entwickelten „Differential Analyzer“, einer analog arbeitenden Maschine für die Lösung von Differentialgleichungen.

Abb. 4: Der Memex-Tisch von Vannevar Bush.Quelle: [http://iasl.uni-muenchen.de/links/GCA-VI.2.html#Think](http://iasl.uni-muenchen.de/links/GCA-VI.2.html#Think)
Abb. 4: Der Memex-Tisch von Vannevar Bush.Quelle: [http://iasl.uni-muenchen.de/links/GCA-VI.2.html#Think](http://iasl.uni-muenchen.de/links/GCA-VI.2.html#Think)

NLS Augment

Die Vision von Bush fand Nachfolger/innen (Bush, 1986; Conklin, 1987, 20; Kuhlen, 1991, 66ff.; Nielsen 1990, 31ff.; Nielsen, 1995, 33ff.). 1962 veröffentlichte Douglas Engelbart am Stanford Research Institute den Bericht über das SRI Project No. 3578 „Augmenting Human Intellect: A Conceptual Framework“, mit dem er das Ziel verfolgte, die Reichweite des menschlichen Denkens zu erweitern. 1968 implementierte er am „Augmented Human Intellect Research Center“ das System NLS Augment (oN Line System) und erfand die Computer-Maus als Eingabegerät (Engelbart, 1988; Conklin, 1987, 22; Kuhlen, 1991, 67ff.; Gloor, 1990, 176ff.; Nielsen, 1990, 34ff.; Nielsen, 1995, 36ff.).

!

Zum Vertiefen:

Augment kam bei der Luftfahrt-Firma McDonnel Douglas zu größerer Anwendung (Ziegfeld & Hawkins et al., 1988). Es erwies sich dort als zunehmend wichtig, umfangreiche technische Dokumentationen mit ihren internen Relationen und Verweisen elektronisch speichern zu können, zum Beispiel umfasste ein Handbuch für Düsenflugzeuge 1988 circa 300.000 Blatt, wog 3.150 Pfund und nahm einen Raum von 68 Kubikfuß ein. Ventura (1988) berichtet, dass das amerikanische Verteidigungsministerium allein fünf Millionen Blatt pro Jahr auswechseln musste (Ebenda, 111). Der Zugang zu Informationen, zum Beispiel zu Sammlungen von Photoagenturen, zu Dokumentationen von Zeitungsverlagen, zu Gesetzesblättern, wurde derart schwierig, dass vermehrt Datenbanken eingeführt wurden, um die Informationen effektiver verwalten und leichter auffinden zu können.

Xanadu

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Fast gleichzeitig mit Engelbart entwickelte Ted Nelson (1967) das Hypertext-System Xanadu (die Xanadu Operating Company ist eine Filiale der Autodesk, Inc.). Ihm wird die Erfindung des Begriffs „Hypertext“ zugeschrieben (Nielsen, 1995, 37ff.), er selbst nimmt dies für sich auf seiner Homepage auch in Anspruch (vgl. http://ted.hyperland.com/). Das im Internet eingerichtete Archiv enthält ein Dokument, in dem der Begriff Hypertext vermutlich zum ersten Mal auftrat, 1965 in einer Ankündigung am Vassar College (vgl. http://xanadu.com/). Das Projekt Xanadu, das zum Ziel hatte, sämtliche Literatur der Welt zu vernetzen, wurde nie ganz realisiert. Nelson schwebte bereits eine Client-Server-Konzeption mit nicht-lokalen Verknüpfungen wie heute im World Wide Web vor (Nelson, 1974; Ambron & Hooper, 1988; Conklin, 1987, 23; Kuhlen, 1991, 68ff.; Nielsen, 1990, 35ff.).

!

Zum Vertiefen: Es existiert neben der Homepage des Projekts (http://xanadu.com/) noch eine australische Variante (http://xanadu.com.au/).

Die Distribution von Xanadu wurde für 1990 von der „Xanadu Operating Company“ angekündigt (Kuhlen, 1991, 71; Woodhead, 1991, 190ff.). Berk (1991) beschreibt das Client-Server-Modell von Xanadu näher.

KMS

Knowledge Systems’ KMS (1983) für SUN- und Apollo-Rechner (Akscyn & McCracken et al., 1988) ist eine Weiterentwicklung des frühen Hypertext-System ZOG (1972 und 1975; Robertson & McCracken et al., 1981) einer Entwicklung der Carnegie-Mellon University (Woodhead, 1991, 188ff.). Über ZOG ist vermutlich die erste Dissertation zum Thema Hypertext geschrieben worden (Mantei, 1982; Nielsen, 1995, 44ff.). Von 1980 bis 1984 wurde mit ZOG ein computerunterstütztes Managementsystem für den mit Atomkraft angetriebenen Flugzeugträger USS Carl Vinson entwickelt (Akscyn & McCracken et al., 1988, 821). KMS wurde 1981 begonnen, weil eine kommerzielle Version nachgefragt wurde. KMS ist bereits ein verteiltes Multi-User-Hypertext-System (Yoder & Akscyn et al., 1989). Es basiert auf Rahmen, die Text, Grafik und Bilder in beliebiger Kombination enthalten können und deren Größe auf maximal 1132 x 805 Pixel festgelegt ist. In KMS sind die Modi der Autor/innen und der Leser/innen noch ungetrennt. Leser/innen können jederzeit Text editieren, neue Rahmen und Verknüpfungen anlegen, die durch kleine grafische Symbole vor dem Text signalisiert werden. KMS benutzt eine Maus mit drei Knöpfen, die neun verschiedene Funktionen generieren können.

HyperTIES

Mit der Entwicklung von Ben Shneidermans HyperTIES wurde bereits 1983 an der University of Maryland begonnen. HyperTIES wurde ab 1987 von Cognetics Corporation weiterentwickelt und vertrieben (Shneiderman et al., 1991). HyperTIES erscheint unter DOS als Textsystem mit alphanumerischem Interface im typischen DOS-Zeichensatz. Die Artikel fungieren als Knoten und die Hervorhebungen im Text als Verknüpfungen. Hervorhebungen erscheinen in Fettdruck auf dem Bildschirm. Die puritanische Philosophie der Entwickler/innen drückt sich in der sparsamen Verwendung von Verknüpfungen aus, die auf Überschriften beschränkt wurden: „We strongly believe that the use of the article titles as navigation landmarks is an important factor to limit the disorientation of the user in the database. It is only with caution that we introduced what we call 'opaque links' or 'blind links' (a link where the highlighted word is not the title of the referred article), to satisfy what should remain as special cases“ (Plaisant, 1991, 20). HyperTIES kennt nur unidirektionale Verknüpfungen, „because bidirectional links can be very confusing“ (Ebd., 21).

Abb. 5: Ausschnitt aus HyperTIES
Abb. 5: Ausschnitt aus HyperTIES

Der untere Bildschirmrand bietet einige Befehle für die Navigation (Vor, Zurück, zum Beginn, Index, Beenden). Repräsentativ für das System ist das sowohl als Buch als auch als elektronischer Text auf Diskette veröffentlichte „Hypertext Hands-On!“, das 180 Aufsätze als auch das als zum Thema umfasst (Shneiderman & Kearsley, 1989) und den Leserinnen und Lesern einen direkten Vergleich von Buch und Hypertext ermöglicht (Nielsen, 1995, 45ff.). Unter grafischen Fenstersystemen entfaltet HyperTIES mehr grafische Fähigkeiten, so zum Beispiel im dort zitierten Beispiel der Encyclopedia of Jewish Heritage (157), das 3.000 Artikel und 10.000 Bilder auf einer Bildplatte umfassen soll, sowie in der auf einer SUN erstellten Anwendung zum Hubble Space Telescope (siehe Shneiderman, 1989, 120). Jedoch sind die Bilder nur als Hintergrund unterlegt und nicht mit integrierten Verknüpfungen in die Hypertext-Umgebung eingelassen (Plaisant, 1991). In der SUN-Version hat man sich mit „tiled windows“ begnügt, weil man überlappende Fenster für Neulinge als zu schwierig betrachtete. HyperTIES folgt nach Aussage von Shneiderman der Metapher des Buchs oder der Enzyklopädie (156), von der sich der Name TIES („The Electronic Encyclopedia System“) herleitet (Morariu & Shneiderman, 1986). Einen Überblick über HyperTIES gibt Plaisant (1991).

!

Zum Vertiefen: Das Human Computer Lab der University of Maryland, der Ursprung von HyperTIES, bietet historische Informationen zu seinem Produkt an (http://www.cs.umd.edu/hcil/hyperties/).

Obwohl das Autorinnen- und Autorentool bereits einige Aspekte der automatischen Konstruktion von Hypertext erleichterte, musste Shneiderman die Buchseiten noch manuell setzen. Auch die Links im Text wurden einzeln gesetzt und mussten nach Editiervorgängen, die den Text verkürzten oder verlängerten, manuell versetzt werden. In modernen Hypertext-Systemen haften die Links am Text und müssen beim Editieren nicht mehr manuell gesetzt werden.

NoteCards

Xerox PARC’s NoteCards (1985) ist ein unter InterLisp geschriebenes Mehrfenster-Hypertext-System, das auf den mit hochauflösenden Bildschirmen ausgestatteten D-Maschinen von Xerox entwickelt wurde. Die kommerzielle Version von NoteCards wurde unter anderem auf Sun-Rechnern implementiert. Sie ist bereits weiter verbreitet als die vorgenannten Systeme, Xerox hat NoteCards jedoch nie vermarktet. NoteCards folgt, wie der Name sagt, der Kartenmetapher. Jeder einzelne Knoten ist eine Datenkarte, im Gegensatz zur ersten Version von HyperCard jedoch mit variablen Fenstern. Links beziehen sich auf Karten, sind aber an beliebigen Stellen eingebettet, zusätzlich gibt es Browser, die wie Standardkarten funktionieren, und Dateiboxen, spezielle Karten, auf denen mehrere Karten zusammengefasst werden können, die wie Menüs oder Listen oder Maps funktionieren (Halasz, 1988) Die Browser-Karte stellt das Netz als grafischen Überblick dar (Conklin, 1987, 27ff.; Gloor, 1990, 22ff.; Catlin & Smith, 1988; Woodhead, 1991, 189ff.; Nielsen, 1995, 47ff.). Halasz (1988) hatte noch sieben Wünsche an NoteCards: Suchen und Anfragen, zusammengesetzte Strukturen, virtuelle Strukturen für sich ändernde Informationen, Kalkulationen über Hypermedia-Netze, Versionskontrolle, Unterstützung kollaborativer Arbeit, Erweiterbarkeit und Anpassbarkeit.

Intermedia

Intermedia (1985) von Andries van Dam und dem Institute for Research in Intermedia Information and Scholarship (IRIS) der Brown University ist bereits ein System, das im Alltag einer Universität und in mehreren Fächern (Biologie, Englische Literatur) für die kooperative Entwicklung von Unterrichtsmaterialien und zum Lernen am Bildschirm eingesetzt wird. Yankelovich et al. (1985) schildern die Entwicklung, die elektronische Dokumentensysteme an der Brown University genommen haben. Nach dem rein textorientierten System FRESS (1968; vgl. Nielsen, 1995, 40) und dem Electronic Document System, das bereits Bilder und grafische Repräsentationen der Knoten-Struktur darstellen sowie Animationssequenzen spielen konnte, und BALSA (Brown Algorithm Simulator and Animator) wurde erst mit Intermedia ein echter Durchbruch erzielt. Yankelovich et al. (1988) beschreiben das System anschaulich anhand von 12 Bildschirmabbildungen einer Sitzung. Intermedia besteht aus fünf integrierten Editoren: InterText (ähnlich MacWrite), InterPix (zum Zeigen von Bitmaps), InterDraw (ähnlich MacDraw), InterSpect (Darstellen und Rotieren dreidimensionaler Objekte) und InterVal (Editor für chronologische Zeitleisten). Zusätzlich können direkt aus Intermedia heraus „Houghton-Mifflin’s American Heritage Dictionary“ oder „Roget’s Thesaurus“ aufgerufen werden. Intermedia operiert mit variablen Fenstern als Basiseinheit. Alle Links sind bidirektionale Verknüpfungen von zwei Ankern. Intermedia arbeitet mit globalen und lokalen Maps als Ausgangspunkt für Browser, das WebView-Fenster stellt die Dokumente und die Links durch mit Linien verbundene Mini-Icons dar (Conklin, 1987, 28ff.; Kuhlen 1991, 198ff.; Gloor, 1990, 20ff., 59ff.; Nielsen, 1995, 51ff.).

Abb. 6: Die Anwendung „Perseus“ realisiert unter Intermedia
Abb. 6: Die Anwendung „Perseus“ realisiert unter Intermedia

Intermedia Version 3.0 wurde anfangs kommerziell vertrieben. Aber diese Version lief nur unter A/UX auf dem Macintosh (Woodhead, 1991, 181ff.). Da dieses System nicht sehr häufig eingesetzt wurde, fand Intermedia leider keine große Verbreitung (Nielsen, 1995, 51). Erfolgreiche kommerzielle Systeme sind aus diesen historischen Prototypen also nicht geworden.

!

Zum Vertiefen: Die Geschichte von Intermedia zeichnet die „Electronic Library“ (http://elab.eserver.org/hfl0032.html) nach.

Erfolgreich verbreitete Systeme

Guide

Erst Guide (1986) von OWL (Office Workstations Limited) ist das erste kommerziell erfolgreiche Hypertextsystem. Peter Brown hatte es bereits 1982 in England an der University of Kent begonnen. Nielsen meinte (1990, 42; 1995, 54ff.), dass Guide den Übergang von einem exotischen Forschungsprojekt zu einer „Realen-Welt“- Anwendung markiere. Guide wurde von OWL zunächst für den Macintosh, später auch für PCs entwickelt. Es orientiert sich am strengsten von allen Systemen am Dokument. Guide stellt Textseiten zur Verfügung, auf denen Textstellen als Verknüpfungen mit unterschiedlicher Bedeutung markiert werden können. Über den Textstellen nimmt der Cursor unterschiedliche Gestalt an und teilt den Benutzer/innen so die Existenz von Verknüpfungen mit. Guide kennt drei Arten von Verknüpfungen: Springen zu einer anderen Stelle im selben oder in einem anderen Dokument, Öffnen eines Notizfensters oder -dialogs über dem aktuellen Text sowie Ersetzen von Text durch kürzeren oder längeren Text (Auffalten, Einfalten). In Version 2 wurde eine Skriptsprache für den Zugriff auf Bildplattenspieler eingebaut.

HyperCard

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

1987 erschien Bill Atkinsons HyperCard. Schon vorher gab es gespannte Erwartungen. Conklin (1987) gab in seinem historischen Überblick über Hypertext-Systeme sogar das Gerücht weiter: „As this article goes to press, there is news that Apple will soon have its own hypertext system, called HyperCards“ (S. 32). Man darf wohl mit Recht behaupten, dass keine andere Software, schon gar keine andere Programmierumgebung, einen derart bedeutsamen Einfluss auf den Einsatz von Computern gehabt hat wie HyperCard. In der Literatur speziell zu Hypertext wird die historische Bedeutung von HyperCard immer wieder betont, obwohl Landow (1992a) sicher Recht hat, wenn er HyperCard und Guide nur als „first approximations of hypertext“ bezeichnet, da die eigentlichen Merkmale von Hypertext wie die Links in Form von durchsichtigen Schaltflächen (Bedienknöpfen) über den Text gelegt werden mussten. 1989 realisierte David Jonassen in HyperCard eine Hypertext-Umgebung über das Thema Hypertext.

Abb. 7: Hypertext realisiert unter HyperCard. Quelle: Beispiel aus Jonassen, 1989.
Abb. 7: Hypertext realisiert unter HyperCard. Quelle: Beispiel aus Jonassen, 1989.

Das World Wide Web und die Browser

Viele Informationen und vor allem aktuelle Informationen bezieht man heute aus dem Internet selbst, und dies mit Hilfe einer Software, die Hypertexte bzw. Texte, die mit HTML codiert wurden, lesen kann. Diese Software wird als Webbrowser oder kurz Browser bezeichnet. Bekannte Browser sind: Mosaic oder Netscape Navigator, Internet Explorer, Mozilla und Firefox, Safari, Opera und jüngst Google Chrome.

!

Browser sind Softwareprogramme, die heute in der Lage sind, den HTML-Code und weitere in den Text inkorporierte Designelemente (css, cascading stylesheets), Programme (QuickTime, Flash) und Skriptsprachen (zum Beispiel php) zu entziffern und in lesbare und grafisch gestaltete Seiten zu übersetzen.

Etwa 1993 begann der Ursprung des World Wide Web (WWW) und an dieser Stelle sei auf das Kapitel „Die Geschichte des WWW aus europäischer Sicht“ verwiesen (siehe #www), welches speziell diese Entwicklung herausarbeitet. Jedenfalls wurden seither mehrere Browser entwickelt, und seitdem haben es alle anderen Applikationen leicht, weil sie sich dieser Grundlagen des Internets und des WWW bedienen können und den Browser als Zugang zu ihren Leistungen nutzen können. Auf derartigem Fundament bauen die Wikis auf, aber auch die Weblogs und sogar die Lernplattformen.

Strukturmerkmale von Hypertext

Zum Hypertext-Konzept gibt es ausreichend Literatur (Kuhlen, 1991; Nielsen, 1995; Schulmeister, 1996), und zu allen damit im Zusammenhang stehenden Begriffen finden sich in Wikipedia Stichworte, die einen Artikel wie diesen eigentlich überflüssig machen könnten. Die Funktion dieses Textes besteht daher mehr oder minder in der Zusammenstellung der historischen Fakten und der Diskussion der Strukturmerkmale. Schoop und Glowalla (1992) unterscheiden strukturelle (nodes, links), operationale (browsing), mediale (Hypermedia) und visuelle Aspekte (Ikonizität, Effekte). Nicht-linearer Hypertext wird auch als nicht-linearer Text (Kuhlen, 1991) oder nicht-sequentieller Text (Nielsen, 1995, 1) bezeichnet. Das Lesen eines Hypertexts ähnelt dem Wechsel zwischen Buchtext, Fußnoten und Glossar: „Therefore hypertext is sometimes called the 'generalized footnote'“(Ebenda, 2).

!

Hypertext-Systeme bestehen aus Texten, deren einzelne Elemente (Begriffe, Aussagen, Sätze) mit anderen Texten verknüpft sind.

Die Bezeichnung Hypertext spiegelt die historische Entstehung wider: Es wurde zunächst tatsächlich an reine Textsysteme gedacht. Heute können Texte aber auch mit Daten in einer Datenbank, mit Bildern, Filmen, Ton und Musik verbunden werden. Deshalb sprechen viele Autorinnen und Autoren inzwischen von Hypermedia statt von Hypertext, um die Multimedia-Eigenschaften des Systems zu betonen. Möglicherweise ist der Standpunkt Nielsens (1995b) vernünftig, der alle diese Systeme wegen ihres Konstruktionsprinzips als Hypertext bezeichnet, weil es keinen Sinn mache, einen speziellen Begriff für Nur-Text-Systeme übrig zu behalten (S. 5). Hypertext ist zuerst Text, ein Textobjekt, und nichts anderes. Hypertext entsteht aus Text, indem dem Text eine Struktur aus Ankern und Verknüpfungen übergelegt wird. Nun kann man diskutieren, ob bereits das Verhältnis der Textmodule ein nicht-lineares ist oder ob Nicht-Linearität erst durch die Verknüpfungen konstituiert wird. Auf jeden Fall trifft die Einschätzung von Nielsen (1995) zu, dass Hypertext ein echtes Computer-Phänomen ist, weil er nur auf einem Computer realisiert werden kann, während die meisten anderen Computer-Anwendungen ebenso gut manuell erledigt werden können (S. 16). Landow (1992b) erwähnt literarische Werke, die auf Papier ähnliche Strukturen verwirklicht haben. Ein Hypertext-System besteht aus Blöcken von Textobjekten; diese Textblöcke stellen Knoten in einem Gewebe oder Netz dar; durch rechnergesteuerte, programmierte Verknüpfungen, den Links, wird die Navigation von Knoten zu Knoten gemanagt, das sogenannte „Browsing“. Landow weist auf analoge Vorstellungen der französischen Strukturalisten Roland Barthes, Michel Foucault und Jacques Derrida hin, die sich sogar in ihrer Terminologie ähnlicher Begriffe (Knoten, Verknüpfung, Netz) bedienten, wie sie in der heutigen Hypertext-Technologie benutzt werden (Ebenda, 1ff.). Für die Konstitution des Netzes ist die Größe der als Knoten gesetzten Textblöcke, die „Granularität“ oder „Korngröße“ der Informationseinheiten entscheidend. Am Beispiel einer KIOSK- Anwendung, die lediglich dem Abspielen von Film-Clips von einer Bildplatte dient, erläutert Nielsen, dass für ihn eine KIOSK-Anwendung kein Hypertext ist, weil Benutzer/innen mit dem Video nicht interagieren können, sobald es läuft. In dem Fall sei die Granularität zu groß und gebe den Benutzerinnen und Benutzern nicht das Gefühl, die Kontrolle über den Informationsraum zu besitzen (S. 14).

Für das Netz des Hypertexts hat Landow (1992b) die Begriffe Intertextualität und Intratextualität geprägt (S. 38). Der Begriff Intertextualität (s.a. Lemke, 1992) hat nun wiederum Sager (1995) zur Schöpfung des Begriffs der Semiosphäre angeregt: „Die Semiosphäre ist ein weltumspannendes Konglomerat bestehend aus Texten, Zeichensystemen und Symbolkomplexen, die, auch wenn sie weitgehend in sich abgeschlossen sind, in ihrer Gesamtheit doch umfassend systemhaft miteinander vernetzt und damit kohärent, nichtlinear und sowohl denk- wie handlungsorientierend sind“ (Ebenda, 217). Sager berichtet über multimediale Hypertexte auf kunstgeschichtlichem Gebiet, die über das Netz mit Videokameras in weit entfernten Museen verbunden sind. Die Hypertext-Benutzer/innen können von ihrem Platz aus die Kameras fernsteuern (geplant im Europäischen Museumsnetz). Sager erwähnt auch das Projekt „Piazza Virtuale“ auf der Documenta 9, in dem per Live-Schaltung Fernsehzuschauer/innen Annotationen in einen Hypertext einbringen können. Auf diese Weise entstehen weltumspannende Räume, die über die Anwendung hinausweisen und je nach Interesse der Benutzer/innen andere Inhalte inkorporieren können (S. 224).

Je nach Art der Knoten und Verknüpfungen kann der Zugriff auf Informationen in einem Hypertext frei oder beschränkt sein (Lowyck & Elen, 1992, 139). In einer offenen Umgebung treffen die Benutzer/innen alle Entscheidungen über den Zugang und die Navigation, in einer geschlossenen Umgebung werden diese Entscheidungen vorab von den Designer/innen getroffen. In jedem Fall können sich zwischen den Vorstellungen der Benutzer/innen und denen der Designer/innen Spannungen ergeben. Aus der Konzeption der Textblöcke, ihrer Intertextualität, können semiotische Muster resultieren (Lemke, 1992), die als Kunstformen genutzt werden könnten. Die Diskussion über semiotische oder narrative Strukturen von Hypertexten ist aber erst ganz am Anfang. Thiel (1995) unterscheidet eine monologische Organisationsform für Hypertexte von einer dialogischen Form (S. 45), die eine Art Konversationsmodus für den interaktiven Dialog der Benutzer/innen mit dem Hypertext etablieren könne, konzipiert durch Sprechakte oder Dialogskripte.

?

Suchen und lesen Sie eine Hypertext-Erzählung im Internet und diskutieren Sie, ob Hypertext für poetische Gattungen geeignet ist. Zum Beispiel hier:

Bei der Segmentierung von Texten in Textblöcke stellt sich die Frage, ob es eine „natürliche“ Einteilung der Textblöcke in Informationseinheiten gibt. Dabei ist die Idee aufgetaucht, ob es gelingen könnte, Form und Größe der Textblöcke als kognitive Einheiten, sogenannte „Chunks of Knowledge“, zu definieren (Kuhlen, 1991, 80ff.): „Zur intensionalen Definition informationeller Einheiten hilft das 'chunk'-Konzept auch nicht entscheidend weiter“ (S. 87). Kuhlen verweist auf Horn, der das Chunk-Konzept am konsequentesten umgesetzt habe und vier Prinzipien für die Unterteilung von Info-Blöcken unterscheide: „chunking principle, relevance principle, consistency principle“ und „labeling principle“. „Aus dieser knappen Diskussion kognitiver Einheiten und deren kohäsiven Geschlossenheit läßt sich die Einsicht ableiten, daß weder Umfang noch Inhalt einer informationellen Einheit zwingend festgelegt werden kann“ (S. 88). Eine zu große Einteilung der Texteinheiten kann das Hypertext-Prinzip Granularität konterkarieren, das heißt, der Benutzerin oder dem Benutzer wird dann gar nicht mehr deutlich, dass sie/er einen Hypertext vor sich hat. Lowyck und Elen (1992) schildern diese Form drastisch so: „When larger pieces of information are given the hypermedia environment is used as an integrated pageturner and audio- or videoplayer. When hypermedia would be used instructionally a highly branched version of programmed instruction is offered. This kind of instruction does not stem from a cognitive but from a behavioristic background“ (S. 142). Die Aufsplitterung in zu kleine Informationseinheiten kann ihrerseits zu einer Atomisierung der Information führen, was sich möglicherweise auf die kognitive Rezeption durch die Benutzer/innen auswirkt: Sie können keine Zusammenhänge mehr entdecken, sie können nicht „verstehen“.

Die verschiedenen Hypertext-Systeme fördern die eine oder die andere Seite dieses Problems, sofern sie auf dem Datenbank-Konzept oder dem Kartenprinzip beruhen (kleine Einheiten) oder die Organisation in Dokumenten präferieren (größere Einheiten). Nicht immer ist die Basiseinheit der Knoten, es kann auch Knoten kleinerer Größe innerhalb von Rahmen oder Fenstern geben, zum Beispiel ein Wort, ein Satz, ein Absatz, ein Bild. Diese Differenzierung verweist auf eines der Grundprobleme von Hypertext, das in der Hypertext-Terminologie als Problem der Granularität bezeichnet wird. Dass die Granularität nicht leicht zu entscheiden ist (nach dem Motto „je kleiner desto besser“), zeigt eine Untersuchung von Kreitzberg und Shneiderman (1988). Sie vergleichen in einem Lernexperiment zwei Hypertext- Versionen, von denen die eine viele kleine, die andere wenige große Knoten aufweist. Zwar kommen die Autoren in ihrer Untersuchung zu der Folgerung, dass die Version mit den kleineren Knoten bessere Resultate zeitigt (gemessen durch richtige Antworten auf Fragen zum Text in Multiple-Choice-Tests), doch Nielsen (1995) macht plausibel, dass dieses Ergebnis wahrscheinlich von einer speziellen Eigenschaft von HyperTIES abhängig ist, die nicht für andere Hypertext-Systeme gilt, denn HyperTIES ist eines der Hypertextsysteme, die zum Anfang eines Artikels verlinken und nicht zu der Stelle innerhalb des Artikels, an der sich die Information befindet, auf die der Ausgangsknoten verweisen soll. Aufgrund dieser Eigenschaft ist HyperTIES besonders leicht handhabbar, wenn der Text aus kleinen Knoten mit genau einem Thema besteht, so dass klar ist, worauf der Link verweist (S. 137ff.).

Einer Zersplitterung kann durch intensive Kontextualisierung der Chunks entgegengewirkt werden. Dieser Weg wird bei Kuhlen (1991) an Beispielen aus Intermedia diskutiert (S. 200). Die Kontextualisierung, die der Zersplitterung vorbeugen soll, muss nicht nur wie in den Intermedia-Beispielen aus reichen Kontexten innerhalb des Systems bestehen, sondern kann auch durch den gesamten pädagogischen Kontext sichergestellt werden wie in den konstruktivistischen Experimenten zum kooperativen Lernen in sozialen Situationen (Brown & Palincsar, 1989; Campione et al., 1992).

Canter et al. (1985) unterscheiden fünf Navigationsmethoden: Scannen, Browsen, Suchen, Explorieren, Wandern. McAleese (1993) unterscheidet die Navigationsmethoden analog zu dem aus der Lernforschung bekannten Konzept des entdeckenden Lernens oder problemorientierten Lernens. Kuhlen (1991) unterscheidet, eher in Anlehnung an die strukturellen Eigenschaften von Hypertexten, folgende Formen des Browsing (S. 128ff.):

Die Klassifikation von Navigationsmethoden in Hypertexten ist abhängig von dem jeweiligen Interpretationsraster der Autorinnen und Autoren. Das Augenmerk kann dabei auf der Hypertext-Struktur, den angestrebten Lernmethoden oder auf Prozessen der Arbeit liegen, die mit dem Hypertext-Werkzeug erledigt werden sollen. Zwei Fragen ergeben sich daraus:

Kuhlen (1991) unterscheidet die Navigationsmittel in konventionelle Metainformationen und hypertextspezifische Orientierungs- und Navigationsmittel:

Zu den die Navigation unterstützenden Methoden zählen neben den von Kuhlen recht vollständig aufgeführten Mitteln noch kognitive Karten (Bieber & Wan, 1994; Edwards & Hardman, 1993, 91) und spezielle Mittel zur Verwaltung fest verdrahteter oder benutzerinnen- und benutzereigener Pfade (siehe uch Gay & Mazur, 1991; Gloor, 1990). Bieber und Wan (1994) schlagen mehrere Formen des Backtracking vor, insbesondere differenzieren sie die Rückverfolgung danach, ob die Navigation durch einen Fensterwechsel oder durch Anklicken eines Textankers durchgeführt wurde (zur Funktion des Backtracking: Nielsen, 1995, 249ff.; Kuhlen, 1991, 156ff.).

?

Rand Spiro hat eine neue Homepage mit seinen Aufsätzen zur sogenannten Cognitive Flexibility Theory eingerichtet (http://postgutenberg.typepad.com/newgutenbergrevolution/). Suchen Sie sich dort einen Text aus (zum Beispiel Spiro & Jehng), der die „Theorie der kognitiven Flexibilität“ erklärt und diskutieren Sie, warum Spiro und seine Mitautoren die These aufstellen, Hypertext würde sich besonders für schlecht-strukturierte Wissensgebiete eignen. Begründen Sie, warum Spiro meint, das Lernen mit Hypertexten sollte fortgeschrittenen Lernenden vorbehalten bleiben und eigne sich nicht für Anfänger/innen. Oder widerlegen Sie diese Ansicht. Weiterhin diskutieren Sie, ob es sich bei der Cognitive Flexibility Theory um eine Theorie handelt.

Werkzeuge

Man sollte die Navigation in Hypertext-Umgebungen nicht nur unter dem Aspekt ihrer Orientierungs- und Interaktionsfunktion, sondern auch als aktive Form des Lernens und Arbeitens betrachten. Diese Perspektive auf die Strukturelemente von Hypertext ist aus der Sicht der Benutzer/innen oder Leser/innen möglicherweise die wichtigere: Für die Designer/innen stehen Nodes und Links im Vordergrund, für die Leser/innen aber benutzereigene Pfade, Notizen, Annotationen. Diese Objekte der Struktur bieten ihnen eine Chance für aktives Arbeiten und Produzieren mit Hypertext.

Als Mittel, die aktives Lernen und Arbeiten in Hypertext unterstützen, gelten Notizbücher, Instrumente zum Anlegen von eigenen Links und Pfaden und für die Konstruktion von eigenen kognitiven Karten, integrierte Spreadsheets und der direkte Zugriff auf Datenbanken (zu Annotationen für Intermedia siehe Catlin et al., 1989). Neuwirth et al. (1995) haben die Möglichkeit für Annotationen in ihren PREP- Editor eingebaut. Etwas Ähnliches wie Annotationen sind Pop-Up-Felder oder Pop- Up-Fenster mit nur-lesbaren Informationen, die nur solange geöffnet bleiben, wie die Maustaste gedrückt gehalten wird (Nielsen, 1995, 142ff.). Annotationen, die Benutzer/innen selbst hinzufügen können, also Fenster für Notizen, den aktiven Verarbeitungsprozess der Leser/innen unterstützen.

Eine Alternative zu Annotationen sind Randnotizen oder Marginalien, die dem eigentlichen Textkorpus nichts hinzufügen, wohl aber den Benutzerinnen und Benutzern zur Verfügung stehen. Das MUCH-Programm („Many Using and Creating Hypertext“) der Universität Liverpool (Rada et al., 1993) bietet den Lernenden sogar ein Instrument für die Anlage eigener Thesauri. Für die Verknüpfung der Einträge stehen den Studierenden Link-Typen wie „usedfor“, „narrower-than“ und „related“ zur Verfügung.

Erstes, nachstehendes, Element wird ans Ende der vorherigen Seite gestellt

Die Strukturelemente eines Hypertexts nehmen visuelle Qualitäten an, um sich vom Kontext deutlich zu unterscheiden und die Aufmerksamkeit der Leser/innen erringen zu können, indem sie die Struktur, zum Beispiel Verbindungen und Knoten, den Leser/innen transparent machen. Dabei sind visuelle Elemente der Benutzer/innen-Oberfläche mit operationaler Funktion (Navigation) von funktionalen Bedienungsaspekten zu unterscheiden. Kahn et al. (1995) erheben am Beispiel einer Analyse von Intermedia und StorySpace derartige visuelle Signale zu den „drei fundamentalen Elementen der visuellen Rhetorik“ von Hypertexten: „These three fundamental elements are:

Es gibt bis heute keine Konventionen für die Darstellung von Knoten und Verknüpfungen im Text. Einige Programme drucken sensible Textstellen fett, so dass man „fett“ als Stil ansonsten im Text nicht mehr verwenden kann. Andere Programme wählen Unterstreichungen. Einige Programme umrahmen Texte beim Anklicken, wieder andere invertieren ausgewählten Text.

Es ist auffällig, dass Hypertext-Systeme sich mit Ikonen und Metaphern umgeben, die mehr oder minder konsistent kleine bildliche „Welten“ konstituieren. Für Hypertext-Umgebungen werden in der Regel dem jeweiligen Thema adäquate Metaphern gewählt: Das Buch, das Lexikon, die chronologische Zeitleiste, die Biographie, der Ort, das Abenteuer, die Maschine usw. Die Regeln der Benutzung durch Lernende, die Navigation, richten sich dann nach der jeweiligen Metapher: „Blättern“ im Buch, „Wandern“ durch eine Landschaft.

An Vorschlägen zur Weiterentwicklung von Hypertext zu Hybrid-Systemen mangelt es nicht. Sie zielen auf die Mathematisierung der Navigation, die Bildung semantischer Netze (Schnupp, 1992, 189), die tutorielle Begleitung durch Expertinnen- und Expertensysteme, die Integration wissensbasierter Generierungstechniken (S. 192) und den Zugriff auf relationale Datenbanken. So schlagen Klar et al. (1992) computerlinguistische Textanalysen in Hypertext- Systemen vor; Ruge und Schwarz (1990) suchen nach linguistisch-semantischen Methoden zur Relationierung von Begriffen; Irler (1992) befasst sich mit dem Einsatz von Bayesian Belief Nets zur Satzgenerierung bis hin zur automatischen „Generierung von Hypertextteilen auf der Basis einer formalen Darstellung“ (S. 115).

?

Das World Wide Web mit seiner Hypertext-Struktur hat in wenigen Jahren eine enorme Entwicklung hinter sich gebracht und großen Erfolg bei Nutzerinnen und Nutzern erzielt. Überlegen Sie, welche pädagogisch-didaktischen Faktoren möglicherweise dafür ausschlaggebend gewesen sind.

Klar (1992), der Hypertext durch Expertensysteme ergänzen will, folgert, dass „die formalen Wissensdarstellungen in Expertensystemen und die informalen Präsentationen in Hypertexten sich sinnvoll ergänzen können“ (S. 44). Kibby und Mayes (1993) wollen ihr Programm StrathTutor durch Simulation des menschlichen Gedächtnisses mit Attribut- und Mustervergleichen anreichern und kommen zu dem Schluss, dass dafür Parallelrechnersysteme angemessener wären. Ob es sinnvoll ist, derartige Wege der Komplexitätserhöhung zu beschreiten, lässt sich zu einem Zeitpunkt kaum entscheiden, in dem bisher nur wenige umfangreiche und inhaltlich sinnvolle Hypertext-Anwendungen überhaupt bekannt sind.

Zur weiteren Entwicklung von Hypertext

Zur Zeit der Entstehung des World Wide Web im Internet schien das Netz ein Lesemedium zu sein, in dem nur wenige Protagonistinnen und Protagonisten Inhalte produzieren würden. Es gab die Befürchtung, dass alle vor 1988 gedruckten Texte in Vergessenheit geraten würden. Inzwischen ist durch die Digitalisierung älterer Schriften, vor allem dank der Initiative von Google, ein großer Teil älterer Publikationen bewahrt worden.

„Die Wüste Internet“ lautete der deutsche Titel des Buches von Clifford Stoll (1996; orig. „Silicon Snake Oil“, 1995). Noch 1997 konnte Hartmut Winkler im Internet nur ein Medium der Texte und Schrift“ entdecken und musste folglich den „Hype um digitale Bilder und Multimedia“ als Übergangsphänomen (Winkler 1997, 375) verkennen. Inzwischen ist das Internet ein effizienter Träger für Bilder und Animationen, für Musik, Audio, Video und Film. Die Konvergenz der Medien ist keine bloße „historische Kompromissbildung“ (ebd.) mehr. Im Digitalen entsteht eine neue interaktive Gestalt aus der Synthese aller Medien.

?

Denken Sie sich ein Lernexperiment mit einem wissenschaftlichen Inhalt oder Gegenstand aus, der in Hypertext-Form verfasst ist. Überlegen Sie, ob und wie Sie den Lerneffekt des Experiments nachweisen könnten.

Es gibt zwar enorm leistungsfähige Suchmaschinen, doch Ordnung und Transparenz werden durch die Masse der Angebote und den Wildwuchs der Standards zugeschüttet, Ontologien, Metadaten und Taxonomien hinken weit hinter den seit Jahrhunderten gewachsenen Thesauri der Bibliotheken her. Das Internet versteht uns nicht, es ist nicht semantisch, das heißt, es kann nicht die Bedeutung von Aussagen und Sätzen verstehen. Dennoch ist es unverzichtbar geworden. Wir warten auf die nächste Entwicklungsstufe, die Tim Berners-Lee und eine Arbeitsgruppe des W3C unter dem Begriff „Semantic Web“ angekündigt haben.

Literatur