Die Geschichte des WWW
Zwischen der Entwicklung des WWW und des Internets wird in vielen Darstellungen wenig unterschieden. Das Internet, so wie wir es heute kennen, hat seinen Ursprung zweifelsfrei in den USA. Das WWW wird aber oft ebenso als amerikanische Erfolgsgeschichte dargestellt, obwohl es tatsächlich eine europäische ist. Warum dem so ist, soll dieser kurze Artikel darstellen. Es wird ferner das WWW als ein ‚„offensichtlicher‘“ Zusammenfluss von Hypertext bzw. Hypermediensystemen mit dem Internet gesehen, obwohl man, wie das in diesem Beitrag beschrieben wird, auch mit Recht behaupten kann, dass das WWW andere Wurzeln und andere Vorläufer hat als nur amerikanische Hypertext-Systeme und das Internet.
Dieser Beitrag versteht sich in einigen Punkten als eine Ergänzung zu heutigen, vielleicht einseitigen Darstellungen und konzentriert sich vor allem auf andere, insbesondere europäische Entwicklungen, die sich aber aus Gründen, die auch angedeutet werden, schlussendlich nicht durchgesetzt haben.
Autor: Hermann Maurer- Robnett Licklider, Ted Nelson und Sam Fedida
- Die Grundidee des BTX
- Erweiterungen des BTX
- Der Durchbruch des WWW und wie die USA die Führung übernehmen
- Literatur
Robnett Licklider, Ted Nelson und Sam Fedida
Die frühe Geschichte des Internets und der allmähliche Übergang von leitungsorientierten zu paketvermittelnden Systemen ist in der Literatur so ausführlich beschrieben, dass darauf hier nicht weiter eingegangen wird, sondern eher die Personen erwähnt werden, die die notwendigen vorangehenden geistigen Pionierleistungen erbrachten.
Zu selten wird dabei Joseph Carl Robnett Licklider (1915-1990) erwähnt, der schon in den fünfziger Jahren des vorigen Jahrhunderts vom Konzept des ‚„timesharing‘“ überzeugt war, dass also ein Computer viele Benutzerinnen und Benutzer gleichzeitig bedienen kann. Dies wurde damals von den meisten als zu wenig effizient, als Science-Fiction, abgetan. Einer der wenigen aktiven Unterstützer dieses Konzeptes war übrigens der kürzlich verstorbene Douglas Engelbart (1925-2013), der als Erfinder der Maus zu großen Ehren kam, obwohl seine größten Verdienste eher im konzeptionellen Bereich liegen. Dies ist ähnlich zu Licklider, die beide von der Mensch-Computer-Symbiose nicht nur träumten, sondern darüber schrieben und an Teilaspekten arbeiteten.
Licklider zeigte in einer erfolgreichen öffentlichen Vorführung 1957 das erste Time-Sharing-System auf einer PDP-1. Wenn man aber mit einem Rechner viele verteilte Benutzerinnen und Benutzer mit ihren Endgeräten innerhalb einer Firma gleichzeitig bedienen kann, dann erscheint mir der Sprung, über den Bereich eines Firmengeländes hinauszugehen, eher ein kleiner, ohne damit die Verdienste früher Pioniere von viel größeren Netzwerken wie es zum Beispiel das Internet wurde, allen voran natürlich Vint Cerf (geb. 1943) und Bob Kahn (geb. 1938), schmälern zu wollen.
!
Der PDP-1 (Programmed Data Processor 1) war der erste von der Firma DEC im Jahr 1959 entwickelte Minicomputer. Er war so groß wie zwei Kühlschränke, konnte aber im Gegensatz zu den größeren IBM-Maschinen hochgefahren und gesteuert werden.
Im Vergleich dazu erscheint mir die Betonung von Vannevar Bush (1890-1974) mit seinem Memex immer als überzeichnete Darstellung, da zumeist im englischen Sprachraum nicht bekannt ist, dass in vielen europäischen Bibliotheken bereits im 16. Jahrhundert mit mechanischen Buchautomaten experimentiert wurde, die ein automatisches Umblättern zu einer zugeordneten Seite eines anderen Buches ermöglichten. Abbildung 1 zeigt das ‚Buchrad‘ von Agostino Ramelli (1531-1610) aus dem Jahr 1588: Man konnte, während man eine Seite las, auf einer Tastatur beispielsweise 12378 tippen, wodurch dann automatisch die Seite 378 des Buches 12 aufgeschlagen wurde. Es gab viele, zum Teil sehr ausgefeilte Versionen solcher Buchräder: Trotz aller Einschränkungen (etwa die Anzahl der Bücher, die man verlinken konnte, und dass man sinnvollerweise bei Verweisen gleich die richtige Ziffernfolge, also hier 12378, in die Seite, von der man ‚verzweigen‘ wollte, eintrug) ist hier eine Informationsverlinkung gegeben, wie sie heute anstatt der Eingabe von einigen Ziffern durch einen Mausklick erledigt wird. Dies lässt Memex dann plötzlich nur noch als eine Neuaufwärmung einer uralten Idee mit etwas moderneren Mitteln erscheinen.
Die Vision von Ted Nelson (geb. 1937) im Jahr 1960 hingegen scheint sehr bedeutungsvoll. Sein Xanadu-Projekt wird oft als konzeptionell wegbereitend für späterere Hypertext-Systeme gesehen (Nelson prägte auch den Begriff Hypertext), doch werden zahlreiche besonders wesentliche Aspekte seiner Vision selten erwähnt. Drei dieser Aspekte sind:
- Links müssen bidirektional sein;
- wenn mehrere ‚Fenster‘ geöffnet sind, muss es möglich sein, Elemente der beiden Fenster zum Beispiel mit einer Linie zu verbinden;
- es muss Transklusion, also die Fähigkeit, andere Dokumente oder Abschnitte in sich selbst einzuschließen (‚einzubinden‘), möglich sein.
Der erste Aspekt (a) wird aus technischer Sicht noch später behandelt. Für Nelson war es aber wichtig, dass man in jedem Dokument feststellen kann, wer auf dieses verlinkt. Aspekt (b) ist bis heute noch immer in kein gängiges Betriebssystem implementiert, obwohl der Nutzen auf der Hand zu liegen scheint. So muss man sich zum Beispiel immer noch mit Screendumps, die man dann mit einem Grafikeditor bearbeitet, behelfen. Die fehlende Umsetzung von Aspekt (c) ist ebenso erstaunlich. Damit wäre es zum Beispiel einfach möglich, Links (entsprechen Sprungmarken, sogenannten GOTOs in der Programmierung) durch Unterprogrammaufrufe zu ersetzen. In der Programmierung sind GOTOs schon lange verpönt – in fast allen Hypertext-Systemen (auch den üblichen WWW-Anwendungen) wird hingegen noch immer mit Links eine Art ‚Spaghettiprogrammierung‘ (nach Robert Cailliau), anstelle vernünftiger Strukturen aufgebaut. Hingegen existier(t)en genug Systeme, die dies durchaus erlauben. Bei zweien war der Autor selbst involviert:
- HM-Card (Maurer & Sherbakov, 1995) und
- Hyperwave (Maurer, 1996).
Ein ähnliches System mit einer sehr hierarchischen Struktur ist das Gophersystem, das unter der Leitung von Marc McCahill (geb. 1956) an der Universität Minnesota um 1990 entwickelt wurde.
Während 1969, als das große Jahr des (langsamen) Starts des Internets überall erwähnt wird und vom WWW weit und breit noch nichts zu sehen war, hatte der englische Ingenieur Samuel Fedida schon 1968 die Vision ‘Viewdata‘ (und sogar ein Patent darauf), welche die aus funktionaler Sicht wichtigsten Elemente des WWW enthielt. Fedida betonte aber, dass er erst durch den durchaus spekulativen Beitrag „The Computer as a Communication Device“ von Licklider (Licklider & Taylor, 1968) auf die Idee kam und sehr zügig eine damals realistische Version implementierte. 1974, mehr als 15 Jahre vor dem WWW, ging sie als Prototyp in Betrieb und wurde noch in den 1970er Jahren im Vereinigten Königreich als kommerzieller Dienst (Fedida & Malik, 1979) angeboten. Der Dienst wurde später Prestel genannt, beziehungsweise in Deutschland und Österreich ‚Bildschirmtext‘ (BTX), wobei BTX in Deutschland 1977 erstmals auf der Internationalen Funkausstellung Berlin groß der Öffentlichkeit präsentiert wurde. Die Einführung als Pilotbetrieb beziehungsweise -dienst erfolgte dann etwas später, mit Beginn des Jahres 1981 auch in Österreich. Viele europäische Länder, aber auch zahlreiche außereuropäische, boten Varianten davon ab den 1980er Jahren als Dienst oder Pilotdienst an. Darüber wird im nächsten Kapitel berichtet.
!
Prestel kann heute als Vormodell des WWW angesehen werden und wurde in den 1970er -Jahren bereits im Vereinigten Königreich als kommerzieller Dienst angeboten.
Die Grundidee des BTX
1968 gab es noch wenige leistungsfähige Großcomputer. Der erste erfolgreiche Heimcomputer, MITS Altair 8800, kam erst 1976 auf den Markt. Der Apple I folgte ein Jahr später und der erste ernstzunehmende, nicht als Bausatz verfügbare Computer Apple II sogar erst 1977, gleichzeitig mit dem Commodore PET. 1979 folgten die Produktion und der Verkauf der ersten Atari-Computer. Die ersten echten Farbheimcomputer waren dann der Tandy TRS-80 Color Computer und der Sinclair ZX80, beide 1980.
Und trotzdem muss nochmals betont werden, dass Samuel Fedida bereits 1968, also mehr als 10 Jahre vor den ersten Heimcomputern, seine Vision, alle Haushalte mit farbtauglichen Geräten auszurüsten, die den Zugriff und die Interaktion mit großen Informationsdatenbanken ermöglichen sollen, präsentierte. Und es blieb keine Vision, sondern war eine konkrete Idee, die dann systematisch verwirklicht wurde:
Die meisten Haushalte hatten ein Farbfernsehgerät mit Fernbedienungstastatur und ein Telefon. Es lag nahe, mittels eines Modems die Telefonleitung zur Übertragung von Daten aus einem Netz von Servern zu verwenden und diese mit einem einfachen ‚Decoder‘ (als Zusatzgerät oder eingebaut) dem Fernseher als Displaygerät einzubauen, mit der Fernsehtastatur als Eingabegerät.
Ganz konkret bedeutet dies, dass man mit dem Fernsehgeräte Zeilen mit 40 Zeichen anzeigen konnte, wobei 288 anzeigbare Zeichen (wie in Abbildung 2) vorgesehen waren - zusätzlich zu verschiedensten, nicht anzuzeigenden Kontrollzeichen. Neben Groß- und Kleinbuchstaben sowie Sonderzeichen gab es auch ‚Mosaikzeichen‘, um damit einfache Grafiken erstellen zu können. Insgesamt waren sechs Hauptfarben sowie schwarz/weiß und einige weitere Besonderheiten (wie Blinken, Umrahmung, doppelte Größe u.Ä.) über Kontrollzeichen wählbar.
So rudimentär und einfach das aus heutiger Sicht klingt, man darf nicht vergessen, dass auch ein Apple II im Jahr 1977 noch Fernsehgeräte als Display verwendete und im Textmodus nur 64 druckbare Zeichen hatte. Auch kannte der Apple II noch keine Kleinbuchstaben.
Dass sich, wenn auch aufwendig, mit den Mosaiksteinchen durchaus ansehnliche Bilder erzeugen lassen, zeigen die klassischen ‚Portraits‘ von Einstein und Monroe in Abbildung 3.
Das ‚Netzwerk von Datenbanken‘ war am Anfang ein einzelner Rechner, später ein Netz von Rechnern, die sich immer synchronisierten. Anbieter von Informationen konnten entweder Platz auf einem Rechner mieten oder einige Jahre später einen eigenen Rechner über Datex-P/X25 anschließen.
!
Datex-P/X 25 war ein Kommunikationsnetz zur Datenübertragung der Deutschen Telekom, welches 1980 eingeführt wurde.
Da es als Eingabegerät zunächst nur die rein numerische Fernbedienungstastatur gab, war das System sehr stark menügetrieben. Durch wiederholte Auswahlschritte tastete man sich an die gewünschte Information heran. Dennoch war es von Anbeginn an möglich, Nachrichten (E-Mails) an andere Benutzerinnen und Benutzer oder Informationsdienste zu senden. Am einfachsten war dies natürlich bei vorformatierten Glückwünschen oder bei der Auswahl einer Bestellung usw. Aber bald wurde ein ‚Beschriftungstrick‘ angewandt: Jede Ziffer auf der Tastatur wurde mit zwei bis drei Buchstaben belegt: 0-ab, 1-cde, 2-fgh, 3-ijk, 4-lm, 5-nop, 6-qrs, 7-st, 8-uvw, 9-xyz. Wollte man ein Wort wie ‚Hallo‘ schreiben, so tippte man die entsprechende Ziffernfolge 20445. Diese fünf Ziffern ergeben Worte, die mit einer der sechs Kombinationen fa, fb, ga, gb, ha, hb beginnen, und die mit einer der 12 Kombinationen lln, llo, llp, lmn, mlo, mlp, mln ,mlo, mlp, mmn, mmo, mmp aufhören.
Aus den so entstehenden 72 Worten findet sich in einem deutschen Wörterbuch ausschließlich das Wort ‚hallo‘. Die deutsche Sprache ist also so redundant, dass einer Ziffernfolge meist nur ein Wort entspricht, d.h., man kann mit einer Zifferntastatur Text schreiben. In den wenigen Fällen, wo eine Ziffernkombination mehr als einem Wort entspricht, erlaubt man die gewünschte Wahl wieder durch die Eingabe von 1, 2 etc. Diese Idee stammt nach dem Wissen des Verfassers von DI Gerhard Greiner und dem Verfasser, und wurde viel später für das Versenden von SMS mit numerischer Tastatur wiederentdeckt.
In manchen Publikationen findet man bisweilen die Aussage: „Die erste E-Mail wurde 1983 von x an y übermittelt“. Das ist nur insofern richtig, wenn man eine Nachricht als E-Mail nur dann als solche bezeichnet, wenn das Internet der Transportweg ist. Ansonsten wurden E-Mails über BTX und ähnliche Systeme schon sehr viel früher versandt.
In diesem Sinn bot BTX nicht nur Informationen an, sondern erlaubte auch das Tätigen von Bestellungen und Buchungen sowie das Versenden von Nachrichten und anderer interaktiver Tätigkeiten. Man könnte überspitzt formulieren, dass die BOX-7 (wie man sie nannte) der erste Blog, den ein ganzes Land verwenden konnte, gewesen ist, wobei man nicht einmal einen eigenen BTX-Anschluss benötigte, weil viele Postämter gratis benutzbare öffentliche Terminals anboten. Die österreichische E.R.D.E (Elektronische Rede- und Diskussions-Ecke) von 1987 könnte wohl auch als erste, der breiten Öffentlichkeit zugängliche Chat-Plattform gelten.
Schon die ersten Versionen von BTX hatte einige interessante Eigenschaften, die dem heutigen Web fehlen: So hatten Nachrichten zum Beispiel einen bekannten Absender (SPAM konnte daher nicht existieren) und es gab gebührenpflichtige Seiten, die Mikrozahlungen zuließen, wobei diese (da die damaligen Telekomunternehmen staatliche Monopole waren) mit der Telefonrechnung ausgewiesen wurden. Damit war es möglich, ohne über Benutzerkennung und Passwort hinauszugehen, zum Beispiel eine BTX-Torte mit den Zuckerbuchstaben „Unserem Hannes alles Gute“ über BTX zu bezahlen und zu versenden.
Wie schon vorher erwähnt, wurde BTX in den verschiedensten Ländern mit zusätzlichen Funktionen ausgestattet, Funktionen, die zum Teil dem WWW bis heute fehlen. Darüber wird im nächsten Abschnitt berichtet.
Erweiterungen des BTX
In Kanada versuchte man besonders die komplexen Mosaik-Grafiken zu vereinfachen und programmierte den Decoder so, dass er automatisch gewisse geometrische Objekte zeichnen konnte. Statt zum Beispiel einen roten Kreis annähernd und aufwendig aus Mosaiksteinchen zusammenzusetzen, schickte man einen Code, der im Wesentlichen besagte: „Zeichne einen rot gefüllten Kreis mit Radius r und Zentrum (x,y).“ Diese Entwicklung von „geometrischer Grafik“ unter dem Namen „Telidon“ wurde dann von AT+T unter ‚NAPLPS‘ weiterverfolgt, ohne aber einen entscheidenden Durchbruch auszulösen.
!
Telidon und NAPLPS waren grafische Beschreibungssprachen für Video- und Bildschirmtext-Systeme.
In Japan setzte man mit dem Videotext-System ‚CAPTAIN‘ nur auf pixelorientierte Bilder, weil man so gleich auch japanische Schriftzeichen erzeugen konnte. Da es aber zu dieser Zeit noch kein Komprimierungsverfahren gab (wie zum Beispiel heute unter anderem bei Bildern im Format .jpeg in Verwendung), waren die Übertragungszeiten unangenehm lang. In Europa wurde von allen damaligen Kommunikationsmonopolbetreibern 1985 eine neue Norm, ‘CEPT II, Level 2 und 3‘ (Level 2 dabei verpflichtend), beschlossen, wodurch eine Umstellung bei den Benutzern und Benutzerinnen, bei den Serverbetreibenden und den Decoderherstellenden notwendig war und damit mit Sicherheit auch die Weiterentwicklung verlangsamt statt beschleunigt wurde.
Level 2 der Norm sollte ein verbessertes BTX sein: 4096 Farben, 32 verschiedene Blinkfrequenzen, frei definierbare Zeichensätze (dynamically redefinable charactersets, DRCS) u. Ä. erlaubten zwar die Erstellung sehr schöner Bilder, jedoch mit erheblichem Aufwand. Level 3 beinhaltete geometrische Grafik, war jedoch nicht verpflichtend in der Umsetzung und wurde eigentlich nur in Österreich aktiv verfolgt.
Es ist inzwischen so viel Zeit vergangen, dass man heute ungestraft erklären darf, warum Europa eine so eigene komplexe europäische Grafiknorm für BTX einführte: Man konnte damit die ersten am Horizont sichtbaren Heimcomputer aus Japan oder den USA aus Europa schlicht und einfach fern halten, denn ohne spezielle Hardware waren die eigentümlichen Anforderungen der Grafik erst mit sehr hochwertigen Heimcomputern und daher erst zehn Jahre später (mit dem ‚Amiga‘ von Commodore als erstem) möglich. Kurzum, die Norm war in Wahrheit ein Schutzschirm gegen Importe nach Europa. Im Schutze dieses Schirms hoffte man, eigene europäische Geräte erzeugen und anbieten zu können.
Zwei der wichtigsten europäischen Mitunterzeichnenden dieser Regelung kümmerten sich aber von Anfang an nicht um die neue Norm. Das Vereinigte Königreich machte mit dem anfänglichen BTX (‚Prestel‘) weiter wie gehabt, mäßig erfolgreich. Die Franzosen bauten mit einer gewissen Verzögerung einen S/W-Bildschirm mit alphabetischer Tastatur in das Telefon ein. Dieses Minitel war zwar meilenweit von der CEPT-II-Norm entfernt, aber ideal, um es als elektronisches Telefonbuch, Nachschlagewerk, Buchungsinstrument oder für Nachrichtendienste zu verwenden. Im Laufe der Zeit benutzten immerhin 30% der französischen Haushalte (6 Millionen) ein Minitel. Im Jahr 1996 war der mit Minitel erzielte Umsatz in Frankreich noch größer als jener mit dem Internet in den flächen- und einwohnermäßig wesentlich größeren USA. Die Verbreitung der Geräte in Frankreich wurde insofern unterstützt, als dass man anfangs Haushalten, die auf gedruckte Telefonbücher verzichteten, das Minitel gratis zur Verfügung stellte.
!
Minitel ist ein 1982 in Frankreich eingeführter Onlinedienst, der dem deutsch/österreichischen BTX sehr ähnlich war. Wesentlicher Unterschied ist, dass Minitel auf eigene Terminals setzte und keine Nutzung von Fernsehgeräten als Bildschirm benötigte.
Deutschland und einige Nachbarländer setzten auf den Level-2-Standard, wobei Österreich von Anfang an, also schon zu den Beginnzeiten des BTX, eine neue Idee verfolgte, die auf meinen damaligen Mitarbeiter und heutigen CIO der Regierung, Prof. Posch, und den Verfasser zurückging. Wenn Fernsehgeräte mit Elektronik nachgerüstet werden, wieso verwendet man nicht gleich programmierbare Computer, die natürlich nicht nur Level 3 unterstützen konnten, sondern die man auch ohne Telefonverbindung als Kleincomputer einsetzen konnte? Da insbesondere externe Speicher (wie Kassettenlaufwerke) langsam und unzuverlässig waren, beschlossen wir, alle Daten und Programme mit Ausnahme eines Kernbetriebssystems in den BTX-Zentralrechnern abzuspeichern. Im unveränderbaren ROM (Read Only Memory) des Gerätes, des MUPID (Mehrzweck Universell Programmierbarer Intelligenter Decoder - der wie Insider wissen: ‚Maurer Und Posch Intelligenter Decoder‘), befand sich Software zur Anzeige von Daten, für Interaktionen mit den BTX-Zentralen, für das Editieren und für das Programmieren (in einer Grafikversion der Programmiersprache BASIC).
!
BASIC steht für Beginner's All-purpose Symbolic Instruction Code und ist eine imperative Programmiersprache. Neben der einfachen Erlernbarkeit zeichnete diese Sprache in den Anfängen die Verwendung von Zeilennummern und Sprungbefehlen (GOTO) aus. Der Höhepunkt der Sprache kann mit Ende der 1970er, Anfang der 1980er Jahre datiert werden, als viele Heimcomputer mit einem BASIC-Interpreter ausgeliefert wurden.
Alle Daten und selbst programmierte oder komplexe zusätzliche Programme konnte man in den BTX-Zentralen ablegen und jederzeit abrufen - ähnlich, wie man es heute mit Smartphone-Apps macht oder über Cloud-Computing redet, nur nannte man es damals Teleprogramme und Zentralrechner. Die Programmierbarkeit des MUPIDS (der 1985 an den CEPT-Standard angepasst wurde) erweiterte die Möglichkeiten ungemein. Sehr erfolgreiche Berechnungen, Mehrpersonenspiele, Informationsverwaltungsprogramme, die ersten ‚Social Networks‘ entstanden und vieles mehr. Abbildung 4 zeigt den Stichtag 15. April 1982, als wir den ersten MUPID der damals tatsächlich staunenden Welt (auch Fachwelt) vorführten.
Der Siegeszug des MUPID im wichtigsten Absatzmarkt Deutschland wurde durch Interventionen der deutschen Post zu Gunsten deutscher Firmen gebremst, sodass die Gesamtproduktion 50.000 Geräte nicht überschritt, mit 40% Absatz in Österreich.
Natürlich wurde mit der Kombination MUPID/ BTX auch erstmals (landesweit) vernetztes Lernen und Lehren möglich, so dass im Laufe der Zeit über 300 einstündige Unterrichtseinheiten mit Bildern, Animationen, Frage/Antwortspielen usw. entwickelt wurden. Bei der IFIP Weltkonferenz 1986 wurde dies im Aufsatz über „Nationwide teaching through a network of microcomputers“ (Maurer, 1986) dargestellt. Das Projekt selbst nannte sich COSTOC (Computer Supported Teaching of Computer Science) und wurde an Dutzenden Universitäten weltweit eingesetzt. Eine partielle Liste findet sich auch in den Links zum Kapitel auf diigo.com.
Es gab Kurse in Deutsch und Englisch, einige von hochrangigen Wissenschaftlern wie Arto Salomaa, Thomas Ottmann oder Ian Witten verfasst.
!
Bildmaterial und andere Informationen zu MUPID, COSTOC, BTX, Autool (dem Editierwerkzeug für COSTOC), Hyper-G, Hyperwave, Harmony, Amadeus, HM-Card, GENTLE usw. finden sich unter http://much.iicm.edu/projects.
Mit MUPID waren auch schon Pixelbilder leicht generierbar und anzeigbar. Die fehlenden guten Bildkomprimierungsmethoden und langsamen Leitungen führten jedoch dazu, dass der Einsatz anfangs recht beschränkt war. Abbildung 5 zeigt, dass man BTX sogar verwendete, um den Prozess der Digitalisierung zu erklären.
Abbildung 6 zeigt die Anwendung MUPID-Teleschach. Damit konnte man synchron und asynchron mit mehreren Personen Schach spielen. Selbst eine Chat-Komponente war implementiert. Selbst wenn kein Spieler am System war, konnte man (ohne das vielleicht zu wissen) gegen ein Schachprogramm spielen, das sogar mit Eliza-ähnlichen Methoden am Chat teilnahm.
Nach all diesen erfreulichen Entwicklungen drängt sich nun die Frage auf, warum BTX in Kombination mit Geräten (Heimcomputern) nicht ein wirklicher Erfolg wurde, sondern dies anderen Systemen vorbehalten blieb, so dass nach 2001 allmählich alle BTX-Systeme eingestellt wurden, in Frankreich 2006 am spätesten. Die Antwort ist nicht für jedes Land gleich. Der relativ große Erfolg in Frankreich beispielsweise führte dazu, dass das WWW dort erst sehr spät eingeführt wurde, was für Frankreich einige Jahre lang sogar nachteilig war.
Im Folgenden eine Schilderung der Situation in Österreich, die in Variationen auch für andere Länder zutrifft. Die BTX-Zentralen waren teure und zunehmend schlecht wartbare bzw. modifizierbare Geräte. Die Strukturierung der Daten in einer einfachen Datenbank über Links war nicht gut genug. Die Protokolle waren zu wenig ausgefeilt, die Benutzbarkeit der Zentralen und der damit verbundenen ‚externen‘ Rechner war schwierig. Aber am schlimmsten waren die Kosten für die Benutzerinnen und Benutzer. Die Geräte konnten zwar recht preiswert von der damaligen Post gemietet und damit auch gratis gewartet werden, aber Telefonortsgespräche in Österreich kosteten pro Stunde ATS 40.-, was vermutlich heute etwa 20 Euro entsprechen würde. Wenn also ein Österreicher bzw. eine Österreicherin täglich 20 Minuten BTX benutzte, dann kosteten die reinen Telefongebühren für das BTX pro Monat zusätzlich 200 Euro. Dies zu einer Zeit, wo man in den USA pro Monat nur einen Pauschalbetrag von etwa 10 Euro für beliebig lange Telefongespräche zahlte.
Es wurde den technisch mit BTX-Beschäftigten, die zunehmend günstigen Zugriff auf das entstehende weltweite Internet hatten, augenscheinlich, dass man auf neue Großrechner (in vielen Fällen unter dem Betriebssystem UNIX), auf bessere Protokolle und auf vernünftige und ohnehin immer mehr verfügbare Personalcomputer zurückgreifen würde müssen.
Von den größeren Bestrebungen seien vor allem drei, die sich fast zeitgleich entwickelten, erwähnt:
- Das Projekt Gopher, das in erster Linie von Mark McCahill an der Universität Minnesota vorangetrieben wurde,
- das Projekt WWW, das eine Vierergruppe am CERN leitete, und
- das Projekt Hyper-G (später Hyperwave), welches auf mehrere Väter wie Ivan Tomek, Fritz Huber, Frank Kappe und den Verfasser selbst zurück geht.
Alle drei Systeme bauten auf dem Internet mit etwas verschiedenen Protokollen auf. Gopher war, im Hinblick auf Endgeräte und Serverkonfigurationen, sehr liberal und unterstützte auch die meisten gängigen Terminals bzw. PCs. Es erlaubte Links, Textsuche und eine hierarchische Gliederung der Daten, war also ein gut durchdachtes System, das 1990 vorgestellt wurde.
Im selben Jahr erschien der erste Zeitschriftenartikel über Hyper-G (Maurer & Tomek, 1990). Hyper-G bot statt der starren hierarchischen Gliederung eine flexiblere DAG-Gliederung (Directed Acyclic Graph) an, darüber hinaus auch Links, eine Suche und vor allem ‚Daten über Daten‘ (die man heute als ‚Metadaten‘ bezeichnen würde und nach denen man auch suchen, aber auch Rechte für Nutzerinnen und Nutzer vergeben kann). Damit kann ein und dasselbe Angebot für verschiedene Benutzerinnen und Benutzer ganz verschieden aussehen. Weitere Datenstrukturen wie Cluster und Sequenzen erleichterten die Datenablagerung und Auffindung. Sämtlich Links waren bidirektional und nicht Teil des Dokuments, d.h., wenn ein Dokument seinen Ort (seine URL) ändert, kann es alle darauf hinweisenden Links auf anderen Servern automatisch korrigieren. Dadurch war in einem Netzwerk von Hyperwave-Servern die Meldung „es gibt diese Seite nicht mehr“ bei einem Klick auf einen Link nicht möglich.
Es ist ein eigentümlicher Zufall, dass im selben Jahr am CERN der Vorschlag gemacht wird, ein System für wissenschaftliche Artikel anzulegen, welche für die ganze Welt über das Internet abrufbar sind. Es ist dabei zu beachten, dass Interaktivität jenseits von Abrufen und E-Mails nicht als wesentlich oder vorrangig betrachtet wurde, denn neben Suchfunktionen würden Links und Menüs für den Zugriff voll ausreichen. Ein Auszug der Originalmail ist in Abbildung 7 zu sehen:
Mir erscheint dieses E-Mail darum so wesentlich, weil es belegt, dass nicht Tim Berners-Lee das WWW allein vorantrieb, sondern ein Team, dessen zweitwichtigster Mann Robert Cailliau war, und den Berners-Lee, sobald es bequem erschien, immer ‚vergaß‘ zu erwähnen. Dies und nachfolgende Aktionen von Berners-Lee werden von Insidern als nicht besonders vornehm angesehen und haben Cailliau veranlasst, seine Version in dem Buch „How the Web was Born“ (Gilles & Cailliau, 2000) festzuhalten. Nur wird auch dieses Buch immer wieder verschwiegen. Die Welt hat eben abgestimmt, dass Bernes-Lee der große Erfinder des WWWs ist, und obwohl das nur sehr bedingt die Wahrheit ist, wird es immer mehr zur Wahrheit, da anders lautenden Aussagen immer mehr vergessen werden.
!
Mehr zur Abbildung 7, nämlich der gesamte Vorschlag, kann auf https://www.diigo.com/ nachgelesen werden.
Die drei Systeme WWW, Gopher und Hyperwave laufen 1991 als erste Versionen. Von den Systemen ist das WWW zweifelsohne das einfachste, denn es ist einfach zu installieren und kostenlos. Gopher ist doch deutlich komplexer und dass die Administration der Universität bei den meist ohnehin kostenlosen Lizenzen eingreift, ist bremsend. Hyperwave ist am weitaus mächtigsten, aber auch am kompliziertesten, und obwohl Bildungsinstitutionen das System gratis erhalten, zahlen große Konzerne (für die es als Wissensmanagementsystem fast noch immer eine Geheimwaffe ist) schon größere Beträge an die Firma Hyperwave.com. Abbildung 8 zeigt das mächtige Mehr-Fenster-Editierwerkzeuge ‚Harmony‘ von Hyper-G im Einsatz.
Der Durchbruch des WWW und wie die USA die Führung übernehmen
1992/1993 hatte Gopher weltweit über 50.000 Installationen, das WWW einige hundert, Hyperwave einige wenige, allerdings diese bei großen Konzernen wie Boeing, Motorola, Siemens u.a.
Im Jahre 1993 entwickelte das NCSA (National Center for Supercomputing Applications) den ersten echten grafischen Webbrowser für das WWW mit dem Namen Mosaic. Betaversionen für die verschiedensten Betriebssysteme erschienen ab September 1993 und verbreiteten sich lawinenartig. Die Chefentwickler Eric Bina und Marc Andreessen sind damit maßgeblich für den Erfolg des WWW verantwortlich. Der Name Mosaic wurde in den Jahren 1993/1994 kurzzeitig fast zum Synonym für Webbrowser.
Gopher und Hyperwave wurden rasch in kleinere, der Öffentlichkeit weniger bekannte Nischen zurückgedrängt. Die einfache und billige Handhabung der ersten WWW-Server in Zusammenspiel mit Mosaic überzeugten mehr als einige der wichtigen konzeptionellen Ideen der anderen Systeme: Gopher und vor allem Hyperwave waren für Einsteiger zu komplex, so wie BASIC für die Programmiereinsteigerin / den Programmiereinsteiger geeigneter war als zum Beispiel Pascal. Dass man aber in großen Konzernen mehr braucht als nur WWW-Server, ist heute so wahr wie immer, wie die Firma http://www.hyperwave.com/d/ gut belegt.
Die WWW-Hauptentwicklung lag 1993 noch bei CERN. Sowohl der EU wie den USA war aber inzwischen klar, dass hier ein Konsortium ‚W3C‘, das die weiteren Entwicklungen verfolgen sollte, notwendig sein würde. 1994 wurde am MIT in Massachusetts (USA) das W3C gegründet und Berners-Lee als Leiter in die USA geholt.
Böse Zungen behaupten, weil Berners-Lee alphabetisch vor Cailliau liegt, er daher zuerst das Angebot erhielt. In Wahrheit hatte Berners-Lee wohl nicht nur durch seine britische Staatsbürgerschaft gegenüber der belgischen von Cailliau einen Vorteil, sondern er hatte schon vor der oben zitierten E-Mail über den Wert von Hypertext für CERN spekuliert.
!
W3C ist das World Wide Web Consortium und kümmert sich um die Standardisierung von Techniken das WWW betreffend. Es wurde am 1. Oktober 1994 am MIT Laboratory for Computer Science gegründet und Tim Berners-Lee hat den Vorsitz inne.
Im selben Jahr kam es zu einem ‚Diskussionstreffen‘ in Brüssel, bei dem erarbeitet werden sollte, welche Aufgaben Europa und welche die USA im W3C übernehmen. Ich war als österreichischer Vertreter anwesend und muss berichten, dass es zu keiner Diskussion kam. Vielmehr legte die amerikanische Delegation ein fertiges Dokument auf den Tisch, in dem fast alle Rechte den USA übertragen wurden. Cailliau als Vertreter des CERN erklärte, dass dieses Dokument für CERN nicht akzeptabel sei. Da erklärte sich eine andere europäische Forschungsorganisation bereit, die Rolle von CERN zu übernehmen. Einem bleichen Cailliau und uns anderen Europäern war damit klar: Das WWW war nun mehr oder minder eine US-Angelegenheit.
?
Versuchen Sie in einer Zeitleiste die Entstehungsgeschichte von Bildtext und WWW nachzuzeichnen. Diskutieren Sie die maßgeblichen Ereignisse und Entwicklungsschritte.
Danksagung
Die Abbildung 1 und eine Abhandlung, warum solche Buchräder durchaus als Wegbereiter von Hypertext gesehen werden können, finden sich in der Habilitation von 1990 von Professor Keil von der Universität Paderborn, dem ich für seine Unterstützung danken möchte.
Seitenumbruch
Literatur
-
Fedida, S. & Malik, R. (1979). The Viewadata Revolution. London: Associated Business Press.
-
Gillies, J. & Cailliau, R. (2000). How the Web was Born: The Story of the World Wide Web. Oxford: Oxford University Press.
-
Licklider, J. C. R. & Talyor, R. W. (1968). The Computer as a Communication Device. In: Science and Technology, 76, 21-44.
-
Maurer, H. & Scherbakov, N. (1995). Multimedia Authoring for Presentation and Education: the official guide to HM Card. Bonn/Paris: AddisonWesley.
-
Maurer, H. & Tomek, I. (1990). Some Aspects of Hypermedia Systems and their Treatment in Hyper-G. In: Wirtschaftsinformatik, 32, 187-196.
-
Maurer, H. (1986). Nationwide teaching through a network of microcomputers. IFIP World Congress 1986, Dublin, 429-432.
-
Maurer, H. (1996). Hyper-G now HyperWave: The next Generation Web Solution. Harlow: Addison-Wesley.