MENU
150 Jahre TÜV NORD

Eine kurze Geschichte des Internets

© Maurus Zehnder

24. Oktober 2019

Das Internet – unendliche Weiten. Nie zuvor in der Menschheits­geschichte hat sich eine Technologie so rasant verbreitet. Und nichts hat die Art, wie wir kommunizieren, daten und einkaufen sowie uns entspannen, unter­halten und informieren so funda­mental verändert wie das World Wide Web. Was der Kalte Krieg mit der Entstehung des Internets zu tun hat, warum man es nicht einfach ausknipsen kann und wie sich der Schutz vernetzter Rechner vor Viren und Hackern entwickelt hat, das erzählen wir in unserer kurzen Geschichte des Internets.

Der 4. Oktober 1957 ist ein großer Tag für die Sowjetunion: Vom Welt­raum­bahnhof Baikonur im südlichen Kasachstan schießen die Ingenieure der UdSSR den ersten künstlichen Erd­satelliten ins All. Der kugel­förmige Sputnik mit seinen vier Antennen ist ein großer Wurf für die Menschheit – und ein über­raschender Wirkungs­treffer im Wett­streit der Systeme. Der technologische Vor­sprung der Sowjets trifft nicht nur empfindlich den Stolz der USA, er sorgt im Pentagon außer­dem für enorme Nervosität: Können uns die Russen nun mit Inter­kontinental­raketen attackieren? Was, wenn dabei auch unsere Nachrichten­systeme lahm­gelegt werden? Keine völlig unberechtigte Sorge. Denn seit Anbeginn des Fern­melde­wesens erreichen Informationen ihren Empfänger auf einem fixen Weg: Ob Rauch­zeichen, Brief­taube, Pony-Express, Tele­grafie oder Telefon­leitung – die Nachricht geht immer linear von A über B nach Z. Holt der Habicht die Brief­taube, wird der Pony­reiter abgefangen, werden Telegrafen­leitung oder Telefon­kabel gekappt, erreicht die Nachricht nicht mehr ihr Ziel. Die Lösung dieses Problems: ein System, in dem alle Computer mit anderen verbunden sind, wodurch Nachrichten auf unter­schiedlichen Wegen an ihr Ziel gelangen und das Gesamt­system weniger leicht gestört werden kann.

Digitale Pakete aus Nullen und Einsen: Die Gründung der ARPA

Um diese Überlegungen in die Tat um­zu­setzen, wird am 7. Februar 1958 die Advanced Research Projects Agency (ARPA) ins Leben gerufen. Schon bald nach der Gründung beginnen die Forscher der ARPA, Pakete zu packen – und zwar Pakete aus Nullen und Einsen. Die Daten, die über­mittelt werden sollen, werden in kleine Blöcke, die Pakete, zerlegt. Jedes Paket wird mit einer Absender- und Empfänger­adresse und einer Sequenz­nummer versehen. Das Kommunikations­system sendet die einzelnen Pakete dann an den Empfänger, wo sie anhand der Sequenz­nummer wieder in der richtigen Reihen­folge zusammen­gesetzt werden. Gehen bei diesem Vorgang Pakete verloren, sendet der Empfänger eine Anfrage, um die verlorenen Pakete erneut zu erhalten. Das Besondere daran: Die Pakete können durchaus andere Wege durch das Netz­werk nehmen. Anders als bei einer Telefon­leitung mit einer gleich­bleibenden Band­breite kann das zwar zu Verzögerungen führen. Doch dafür wird das Netz­werk effizienter genutzt, die Schnitt­stellen werden weniger stark belastet, und die Nachrichten erreichen auch dann den Empfänger, wenn ein einzelner Kanal blockiert ist oder lahmgelegt wird.

Diese Idee eines dezentralen Computer­netz­werks, in dem die Daten in Paketen verschickt werden, wird Ende der 1960er-Jahre erst­mals umgesetzt. Am 29. Oktober 1969 werden die Rechner der University of California in Los Angeles und des Stanford Research Institute in Menlo Park bei San Francisco über eine 50-Kilobit-Daten­leitung miteinander verbunden. Die welterste Internet­botschaft, die über das Netz­werk aus­getauscht wird, besteht aus zwei Buch­staben und lautet „lo“. Wenige Wochen später kommen die Groß­rechner der University of California in Santa Barbara und der University of Utah als weitere Netz­werk­knoten zum sogenannten ARPANET hinzu.

Die erste E-Mail und die „Telefonauskunft“ für das Internet

1971 schickt der Informatiker Ray Tomlinson den ersten elektronischen Brief durch das Netz. Um den Namen des Benutzers und den des Rechners, der die Nachricht versendet, eindeutig unter­scheiden zu können, wählt Tomlinson das @-Zeichen und fügt dieses dazwischen ein, da es in der Schrift­sprache nicht verwendet wird. Damit wird er zum Erfinder der E-Mail.

Noch steckt aber nicht nur die digitale Kommunikation zwischen Menschen, sondern auch die zwischen unter­schiedlichen Netz­werken in den Kinder­schuhen. Die ARPA-Wissenschaftler Vint Cerf und Bob Kahn finden 1973 eine Lösung, um Netze mit­einander zu verbinden, die auf unter­schiedlichen Technologien beruhen: Das Transmission Control Protocol und das Internet Protocol, kurz TCP und IP, erlauben zum Beispiel den Austausch zwischen Funk- und Kabel­netzen. Zum TCP/IP-Protokoll weiter­entwickelt, wird es zum Standard für den Daten­austausch im Internet.

Im Jahr 1982 sind bereits 88 Institutionen mit dem ARPANET verbunden. 1983 beginnt der Informatiker Paul Mockapetris mit der Entwicklung des Domain Name System, kurz DNS – und erfindet damit die Telefon­auskunft für das Internet. Anstatt sich die Zahlen­kolonne der IP-Adresse einzubläuen, genügt es nun, einen Domain-Namen wie „beispielsweise.org“ zu kennen, um vom DNS mit der Adresse des richtigen Rechners verbunden zu werden. Sechs Jahre später legt Tim Berners-Lee die Grund­steine für das World Wide Web, wie wir es heute kennen.

Winds of change: Tim Berners-Lee und das World Wide Web

Eigentlich will der britische Physiker am Forschungszentrum CERN bei Genf nur ein System zum besseren Informations­aus­tausch für Wissenschaftler und Universitäten entwickeln. Dazu ersinnt der Forscher die nötigen Komponenten eines solchen Systems: Der erste Baustein ist eine einheitliche Sprache, das HTML, durch die elektronische Dokumente mit Texten, Bildern und Hyperlinks strukturiert werden können. Der zweite Baustein ist die URL, eine Web­adresse, die für jede Webseite einzigartig ist und die über Links auf­gerufen werden kann. Hinzu kommt ein Protokoll, das die Über­mittlung der Informationen im Netz regelt: das Hypertext Transfer Protocol, kurz HTTP. Gespeichert werden die Webseiten auf einem Server. Nutzer können diese Informationen dann über eine Anwendung auf ihrem Rechner auslesen lassen – den ersten Browser namens WorldWideWeb.

Im März 1989 stellt Berners-Lee sein Konzept erstmals vor. Ende 1990 ist der Prototyp des WWW betriebs­bereit. Im Labor des Physikers läuft der erste Webserver, darauf klebt ein hand­geschriebener Zettel: „Dieses Gerät ist ein Server. Nicht aus­schalten!!“ Auf dem Server hat Berners-Lee eine erste Website konstruiert, die den CERN-Forschern als Aus­tausch­plattform dient und zudem das Prinzip des World Wide Web erklärt.

NCSA Mosaic: Der Browser breitet sich aus

1990 beginnt mit der Abschaltung des ARPANETs auch die kommerzielle Phase des Internets: Der erste gewerbliche Internet­provider World geht an den Start. Ab sofort kann offiziell jeder mit einem Rechner und einem Modem ins Netz. Und auch die ersten Maschinen gehen online. Den Anfang macht der Toaster von John Romkey, der sich via Internet an- und aus­schalten lässt. Im folgenden Jahr wird im lokalen Netz des Rechner­labors der britischen Universität Cambridge die erste Webcam in Betrieb genommen. Sie zeigt den Füll­stand der Kaffee­maschine vor dem sogenannten Trojan Room und soll den Studenten so vergebliche Wege zur Koffein­quelle ersparen.

Im Browser, wie ihn Berners-Lee programmiert hat, lässt sich die Kaffee­maschine aller­dings nur über ein Zusatz­programm auf dem Rechner betrachten. Denn Berners-Lees Webbrowser WorldWideWeb kann Grafiken nur in einem separaten Fenster anzeigen. Das ändert sich im Januar 1993 mit dem NCSA Mosaic. Der grafik­fähige Browser mit der rotierenden Welt­kugel im Logo verbreitet sich rasant und öffnet bald Menschen überall auf dem Globus das erste Mal das Fenster zum Internet; er wird zur Blau­pause für den ersten kommerziellen Browser Netscape und bildet später die Code-Basis für den Internet Explorer. Im April 1993 übergibt das CERN die WWW-Technologie offiziell in die Gemein­freiheit. Dadurch wird sicher­gestellt, dass jeder dieses System kosten­frei nutzen und weiter­entwickeln darf – die Basis für die grundsätzlich offene Struktur des World Wide Web. Tim Berners-Lee wechselt 1994 vom CERN zum MIT und gründet dort das World Wide Web Consortium (W3C), das von nun an über die Entwicklung des WWW wacht.

Das Netz wird durchsuchbar

Mit der Ausbreitung des Webs wächst auch die Zahl der Webseiten und damit das Bedürfnis, Ordnung in den Informations­wust zu bringen. Such­maschinen schießen bald wie Pilze aus dem Boden: 1994 starten Lycos und Yahoo, 1995 folgt AltaVista, 1996 geht mit dem Vorläufer von Fireball der erste Browser aus Deutschland ins Netz. Zwei Jahre später kommt dann eine Such­maschine namens Google aus der Beta­phase. Eigentlich ist der Such­maschinen­markt bereits von diversen Anbietern besetzt, trotz­dem erfreut sich der Nach­zügler bald großer Beliebtheit. Denn anders als bei vielen Mitbewerbern zeigt sich die Oberfläche der Such­maschine recht aufgeräumt und über­sichtlich. Vor allem spuckt sie aus­gesprochen schnell über­durch­schnittlich gute Ergebnisse aus.

1998 kommt eine Such­maschine namens Google aus der Beta­phase.

Neben dem Inhalt einer Webseite bezieht Google nämlich auch deren Popularität in das Ranking der Such­ergebnisse ein, indem die Zahl und die Qualität der Verlinkungen zu einer Seite ermittelt werden. Die Logik dahinter: Je öfter Menschen auf eine Webseite verlinken, desto relevanter ist sie für sie – und damit auch für andere Nutzer, die sich für ähnliche Inhalte interessieren. Das reduziert die Zahl an obskuren Treffern, mit denen etwa die Konkurrenz zu kämpfen hat.

Digitale Infektionen: Der Brain-Virus

Immer mehr User können im Internet bald immer mehr Webseiten, Angebote und Informationen aufstöbern – und dabei auch von Menschen und Programmen gefunden werden, mit denen sie lieber nicht in Kontakt gekommen wären. Bereits 1986 macht mit Brain der erste Computer­virus die Runde. Weil das Schad­programm den Bootsektor von Disketten befällt, die seiner­zeit bevorzugt auf Schulhöfen ihre „Besitzer“ wechseln, verbreitet es sich bald auf der ganzen Welt.

Die globale Vernetzung des Internets eröffnet dann noch einmal ganz neue Möglichkeiten, um inner­halb kürzester Zeit eine riesige Zahl von Nutzern mit den eigenen Viren und Würmern zu erreichen. Gerade Letztere sind besonders gefährlich: Während Viren sich in die Software einnisten und erst dann infektiös werden, wenn das Wirts­programm gestartet wird, werden die Würmer von allein aktiv. Sie versuchen selbst­ständig, sich über E-Mail-Programme oder Lücken in anderen Netz­werk­diensten automatisch zu verbreiten. Aus diesem Grund können sie besonders schnell viral gehen, wie schon der erste Computer­wurm der Geschichte beweist.

Der Morris-Wurm und seine Folgen

Das kleine Computer­programm, das der US-amerikanische Informatik­student Robert Tappan Morris am 2. November 1988 schreibt, soll eigentlich nur zählen, wie viele Computer ans Internet angeschlossen sind. Aufgrund eines Programmier­fehlers belässt es das Programm aller­dings nicht dabei, sich einmalig von einem Computer auf einen anderen zu kopieren. Statt­dessen kopiert es sich in End­los­schleife immer wieder und infiziert mindestens 6.000 Rechner, manche sprechen gar von 60.000 Computern.

Zum ersten Mal in der Geschichte des Cybercrime wendet die US-Justiz den zwei Jahre zuvor erlassenen „Computer Fraud and Abuse Act“ an. Morris, der unfreiwillige Malware-Coder, wird zu drei Jahren auf Bewährung, 10.050 Dollar Geldstrafe und 400 Stunden gemein­nützige Arbeit verurteilt. Als Reaktion auf seinen Wurm wird aus den Mitteln des US-Verteidigungs­ministeriums noch im November 1988 an der Carnegie Mellon University das weltweit erste Computer Emergency Response Team (CERT) gebildet. Die CERTs beschäftigen sich seitdem auch vor­beugend mit Fragen und Problemen der Computer­sicher­heit.

Von der Stabsstelle für IT-Sicherheit zu TÜViT

Wie man sensible Daten schützen kann, das beschäftigt Mitte der 1980er-Jahre auch die IT-Spezialisten des RWTÜV in Essen. 1985 beginnen die EDV-Experten damit, ein Netz­werk zur dezentralen Daten­verarbeitung einzurichten, an das außer­dem das Medizinisch-Psychologische Institut (MPI) angeschlossen werden soll. Das Problem: Diese besonders vertraulichen Informationen werden gemeinsam mit anderen Daten aus dem Unter­nehmen auf demselben Kabel über­tragen. Die Computer­fach­leute entwickeln daher eine technische Lösung, um die Sicherheit der Daten zu gewähr­leisten. Mit dieser Erfahrung im Rücken kümmern sie sich in den kommenden Jahren auch um die Daten­sicher­heit anderer Firmen.

Ab 1989 nimmt die neu gegründete Stabs­stelle für IT-Sicherheit des RWTÜV die IT-Systeme des Deutschen Zentrums für Luft- und Raumfahrt (DLR), des Dortmunder Stahlriesen Hoesch und der Vereinigten Elektrizitäts­werke Westfalen (VEW) unter die Lupe. 1991 entsteht dann das Institut für Informations­technik (IfT), das sich um die Sicherheit von Software und von elektronischen Systemen wie Herz­schritt­machern kümmert. Im folgenden Jahr wird auch die Stabs­stelle für IT-Sicherheit an das IfT angegliedert, das ab 1995 unter dem Namen TÜV Informations­technik (TÜViT) firmiert.

„Gute Hacker“ im Prüflabor

In Deutschland berät TÜViT etwa Mannesmann zu modernen Auto­­bahn­­maut­­systemen und die Telekom zu Sicher­heits­fragen bei Netz­­werk­­management­­systemen. Auch internationale Tech-Riesen wie Microsoft, IBM oder Toshiba bitten die Sicher­heits­experten aus Essen um Rat. Die wiederum fuchsen sich auch bald in die Unter­­suchung von Chip­karten ein, die mit Telefon-, Kredit- oder Kranken­­kassen­­karten Einzug in die Brief­taschen finden.

In ihren Software- und Hard­ware­laboren attackieren die Spezialisten die Chips mit Laser­­strahlen, Elektro­spulen und in Kältevkammern, um heraus­zu­finden, ob der Speicher unter Manipulation Informationen preisgibt, die er eigentlich für sich behalten sollte. Als gute Hacker nehmen sie außer­dem die IT-Systeme von Unter­nehmen und den Betreibern kritischer Infra­­strukturen ins digitale Kreuz­­feuer. 2012 simulieren die Fachleute etwa einen Angriff auf die IT-Systeme des Verteil­netz­­betreibers Rhein-Main-Neckar (VNB). Mit solchen Penetrations­­tests sollen mögliche Sicher­­heits­­lücken in der IT-Infra­­struktur aufgespürt und geschlossen werden, bevor die bösen Hacker oder ihre Computer­würmer hin­durch­schlüpfen können. Ab 2014 führen die Experten zusätzlich Security­checks für Smartphone-Apps durch.

Die haben 2007 mit dem Erscheinen des ersten iPhones ihren Sieges­zug begonnen. In Kombination mit immer schnelleren und günstigeren Daten­verbindungen explodiert auch die Zahl der Nutzer und Geräte im Netz: Besaßen 2009 in Deutschland rund sechs Millionen Menschen ein Smart­phone, sind es drei Jahre später schon 31 Millionen. Ende 2018 sind 57 Millionen Deutsche mobil mit dem Internet verbunden, aktuellen Studien zufolge ist welt­weit mittler­weile jeder dritte Mensch online unter­wegs.

Sicherheit für die vollvernetzte Zukunft

Längst sind wir Menschen nicht mehr alleine im Netz, der Internet-Toaster von John Romkey hat zahl­lose Nach­kommen: Welt­weit stehen heute zum Beispiel rund 120 Millionen smarte Laut­sprecher in den Wohn­zimmern. Mit der herauf­ziehenden Ära des Internets der Dinge sollen immer mehr Maschinen, Fahr­zeuge oder Haus­halts­geräte dauer­haft online sein, um unser Leben bequemer und Produktions­prozesse einfacher, schneller und effizienter zu machen. Verheißungs­volle Aussichten – allerdings auch für Cyber­kriminelle. Schließlich vervielfältigt sich mit der Zahl der Geräte potenziell auch die Zahl der Sicher­heits­lücken, die von den Hackern aus­genutzt werden können.

Das Rezept der Sicherheitsspezialisten vom TÜV, um die digitale Gefährdung einzudämmen, hört auf den Namen Security by Design. Die Idee dahinter: Sicher­heits­anforderungen an Soft- und Hard­ware schon während der Entwicklung umfassend zu berücksichtigen, um mögliche Sicher­heits­lücken von vorne­herein zu verhindern. Ein Prinzip, das die Experten in der Praxis bei den sogenannten Smart Meter Gateways umsetzen. Die Kommunikations­einheiten über­mitteln die Daten intelligenter Strom­zähler an die Energie­versorger und sollen im Smart Grid der Zukunft eine Schlüssel­rolle einnehmen. Die TÜV-Experten unter­stützen die Behörden und die Bundes­regierung dabei, die Sicher­heits­anforderungen an die Smart Meter Gateways zu definieren. Zugleich prüfen sie die konkreten Geräte auf Herz und Platine, damit die Daten der Verbraucher hacker­geschützt das Haus verlassen – und die voll­vernetzte Zukunft so sicher wie möglich ausfällt.