MENU
Computertechnologie

Eine kurze Geschichte des Computers

23. Dezember 2021

Sie stehen auf unseren Tischen, stecken in unseren Taschen, steuern Autos und Flugzeuge, errechnen das Wetter von morgen und digitale Währungen: Computer sind allgegenwärtig. Wie die frei programmierbaren Rechenmaschinen entstanden sind und wie sie sich entwickelt haben, bis sie in unsere Wohnungen passten, erzählen wir in unserer kurzen Geschichte des Computers.

Das Verhältnis von Mensch und Computer beschäftigt die Science-Fiction-Welt, Ethikkommissionen und uns als Gesellschaft. Im Mittelalter und der frühen Neuzeit war das noch kein großes Thema – oder besser gesagt ein und dasselbe. Der Begriff „Computer“ ist in dieser Zeit nämlich eine Berufsbezeichnung für Menschen, die immer wiederkehrende Berechnungen für Astronominnen und Astronomen oder Ballistikerinnen und Ballistiker durchführen. Doch weil Menschen naturgemäß ermüden und Fehler machen, keimt schon früh der Wunsch, sich für die lästige Rechnerei maschinelle Unterstützung zu schaffen. Mitte des 17. Jahrhunderts entwickeln der Deutsche Wilhelm Schickard und der Franzose Blaise Pascal unabhängig voneinander erste Rechenmaschinen. In den folgenden zwei Jahrhunderten werden Dutzende weitere erdacht und entwickelt, doch serienmäßig gebaut wird keine von ihnen. Denn sie erfordern zumeist Abertausende von Einzelteilen, deren Herstellung und Montage Feinmechanikern und -mechanikerinnen ihr komplettes Können abverlangt – und es immer wieder auch übersteigt. Erst im späten 19. Jahrhundert macht die Herstellung einfacher Rechenmaschinen deutliche Fortschritte, die bald darauf in US-amerikanischen Großbüros Einzug halten.

 

Gestanzte Daten

Aber im Zuge der Industrialisierung wollen nicht nur Dinge berechnet, sondern auch zunehmend Daten verarbeitet werden. Beispielsweise zur Volkszählung, die 1890 in den USA ansteht. Der Ingenieur Herman Hollerith entwickelt dazu eine Methode, auf gelochten Karten anhand der gestanzten Muster Daten zu verschlüsseln, zu speichern und bei Bedarf wieder auszulesen. Und damit läutet er das Zeitalter der massenhaften Datenverarbeitung ein: Hollerith-Maschinen sind bald aus Buchhaltungen, Banken, Personalabteilungen und Wahlen nicht mehr wegzudenken. Erst ab den 1950er-Jahren werden sie durch Magnetbänder und dann durch Disketten ersetzt, auf denen sich deutlich mehr Daten unterbringen lassen. Doch zunächst arbeiten auch die ersten Computer mit gelochter Pappe oder Papier.

Nicht ein Erfinder, sondern viele

Deren Erfindung liegt Anfang des 20. Jahrhunderts gleichsam in der Luft. Und wie Fotografie, Dampfmaschine oder Verbrennungsmotor hat der Computer nicht nur einen Vater, sondern viele, die oft unabhängig voneinander auf unterschiedlichen Pfaden die Technologie entwickeln und vorantreiben. Der deutsche Computer-Vater hört auf den Namen Konrad Zuse. Der junge Bauingenieur ist nach eigener Aussage zu faul zum Rechnen. Also baut er im Wohnzimmer seiner Eltern eine programmgesteuerte Rechenmaschine, die ihm die lästige Arbeit abnehmen kann. 1937 ist seine Z1 fertig. Die kann allerdings nur einfache Rechenaufgaben lösen, arbeitet rein mechanisch – und klemmt eher oft als selten. Wegweisend ist sie trotzdem. Denn sie operiert bereits im binären System, in dem alle Informationen mit Null und Eins codiert werden.

Der fundamentale Vorteil dieses Systems: Beliebig große Zahlen lassen sich mit nur zwei Ziffern darstellen. Und beide Ziffern können durch „Schalter an“, „Schalter aus“ dargestellt werden. Die Art des Schalter ist dabei letztlich egal: Der findige Zuse verwendet sowohl Kippschalter als auch Telefonrelais für den elektromechanischen Nachfolger. Am 12. Mai 1941 stellt er sie offiziell vor: die Z3, die „erste vollautomatische, frei programmierbare, programmgesteuerte Rechenanlage im Dualsystem“. Die Z3 ist so groß wie drei Kühlschränke und wird über Lochstreifen mit Programmen gefüttert. Sie beherrscht die vier Grundrechenarten und kann Wurzeln ziehen. Im Vergleich zu heute nicht viel mehr als ein programmierbarer Taschenrechner – und doch der Vorläufer unserer Computer.

 

Lochstreifen und Kabelage

Zeitlich gesehen hat Zuse damit die Nase vorn, etwa gegenüber dem Mark I, den der US-amerikanische Computerpionier Howard Aiken 1944 in Harvard fertigstellt. Internationale Auswirkungen hat Zuses Erfindung allerdings nicht. Denn Zuse arbeitet isoliert vom Rest der Welt in Deutschland. Und seine Z3 wird bereits 1943 bei einem Bombenangriff zerstört. Im selben Jahr nimmt das britische Militär seinen Computer Colossus in Betrieb, um mit dessen Hilfe die Codes der Deutschen zu knacken. Der Colossus arbeitet ebenfalls im Binärsystem, verwendet aber keine mechanischen Schalter, sondern 1.500 Elektronenröhren und wird damit zu einem der ersten vollelektronischen Rechner der Welt.

In den USA wird bereits ab 1942 am ENIAC gearbeitet, einem vollelektronischen, programmierbaren Rechner aus rund 18.000 Röhren, gegenüber dem sich der Colossus wie ein Winzling ausnimmt. Der ENIAC berechnet ballistische Tabellen, die die Flugbahnen von Artilleriegeschossen angeben. Allerdings arbeitet er noch nicht im Binärsystem und muss für jedes Programm manuell neu verkabelt werden – eine komplizierte Aufgabe, die von sechs Wissenschaftlerinnen erledigt wird.

 

Neumanns neue Computerarchitektur

Das muss besser gehen, denkt sich der zeitweilige Mitarbeiter des ENIAC-Projektes John von Neumann und entwickelt 1945 ein Architekturkonzept für einen speicherprogrammierbaren Universalrechner. Bei diesem werden die Befehle des Programms wie die verarbeiteten Daten behandelt, binär codiert und im internen Speicher verarbeitet. Sie laufen also erstmals tatsächlich im Rechner ab. Die Von-Neumann-Architektur erlaubt gegenüber der umständlichen Programmierung via Lochstreifen oder Kabeln, Änderungen an Programmen sehr schnell durchzuführen oder in kurzer Folge verschiedene Programme ablaufen zu lassen. Damit geht sie als Blaupause für die Computer von heute in die Informatiklehrbücher ein.

 

Von der Röhre zum Mikroprozessor

Die Computer der Frühzeit sind noch tonnenschwere Maschinen, die ganze Räume füllen, ständig gewartet werden müssen und aus gegenwärtiger Sicht recht wenig leisten. Das ändert sich ab 1947 mit der Erfindung des Transistors. Im Vergleich zu den Röhren, die seinerzeit in den Rechnern arbeiten, brauchen sie deutlich weniger Platz und Strom, fallen seltener aus und erlauben eine höhere Verarbeitungsgeschwindigkeit. Ein technologischer Quantensprung, für den die maßgeblich an seiner Erfindung beteiligten Forscher William B. Shockley, John Bardeen und Walter Brattain 1956 den Nobelpreis erhalten.

In den folgenden Jahren werden die Transistoren immer kleiner. 1971 sorgen die US-Unternehmen Texas Instruments (TI) und Intel unabhängig voneinander mit einem Miniaturformat für eine große Sensation in der Fachwelt. Es gelingt ihnen, die verschiedenen elektronischen Komponenten eines Prozessors – Transistoren, Widerstände und Kondensatoren – platzsparend auf einem Stück Silizium unterzubringen: die Geburt des Mikroprozessors, Herzstück und Steuerzentrale jedes modernen Computers.

Der Altair 8800

Die Miniaturisierung des Computers selbst lässt nun nicht mehr lange auf sich warten. 1975 ist es so weit: Der amerikanische Elektroingenieur und Tüftler Ed Roberts bringt für 397 Dollar einen Heimcomputer-Bausatz auf den Markt, den Altair 8800. Gesteuert wird er über Kippschalter, die Ausgabe erfolgt über LED-Lämpchen. Maus oder Tastatur hat der Kasten nicht – und ist damit kaum zu gebrauchen. Trotzdem trifft der Altair den Nerv seiner Zeit und wird innerhalb eines halben Jahres 5.000-mal verkauft. Immerhin: Ab Juli 1975 wird für den Altair auch eine erste Programmiersprache angeboten. Altair-Basic wird von den zwei jungen Studenten Paul Allen und Bill Gates entwickelt, die kurz zuvor eine kleine Softwarefirma namens Microsoft gegründet haben. Im folgenden Jahr arbeiten die beiden Coder ihre Programmiersprache zu Microsoft-Basic aus, das bald auf den ersten Heimcomputern von Commodore, Texas Instruments und Apple laufen wird.

Apple lötet los

Doch zunächst rufen die Möglichkeiten und Grenzen des Altair computerbegeisterte Tüftler und Tüftlerinnen sowie Freizeitingenieurinnen und -ingenieure auf den Plan, die sich im sogenannten Homebrew Computer Club zusammentun. Bei ihren Treffen diskutieren sie Ideen, tauschen Schaltskizzen und Programmiertricks aus. Mit dabei ist auch ein gewisser Steve Wozniak, der hier an einem eigenen Rechner werkelt. 1976 gründet er mit seinem Freund Steve Jobs und Ronald Wayne die Apple Computer Company. Im selben Jahr präsentiert er auf einem Treffen des Homebrew Computer Clubs den Apple I, den er mit Jobs in seinem Büro bei Hewlett-Packard zusammenlötet. Anders als der Altair ist er mit allen Anschlüssen ausgestattet, um ihn mit Monitor und Tastatur zu bedienen – die allerdings extra dazugekauft werden müssen. Mit seinen 666 Dollar ist er aber auch für Privathaushalte bezahlbar und gilt manchen daher als erster Personal Computer der Welt.

Ein wirklicher Welterfolg wird dann der Nachfolger, den Wozniak und Jobs 1977 auf den Markt bringen: Der Apple II wird bereits mit Monitor und Tastatur ausgeliefert. Als Datenspeicher dient zunächst ein Kassettenrekorder. Gegenüber Konkurrenzgeräten wie dem kurz zuvor erschienenen Commodore PET 2001 kann er hochauflösende Grafik und sogar Farben darstellen. Und er verfügt durch mehrere Steckplätze außerdem über Raum zum Aufrüsten. Auch in Sachen Software setzt der Apple bald Maßstäbe. Ab 1979 bietet er mit VisiCalc das erste Tabellenkalkulationsprogramm für den PC. Bürokaufleute können dank des Programms nun erstmals auf einem Computer kalkulieren, ohne Coding-Kompetenzen besitzen zu müssen. Ein starkes Kaufargument für den Apple – und die erste Killer-Anwendung für ein Computersystem.

Der Computer zieht ins Kinderzimmer

Um Apple, Commodore und Konsorten nicht den wachsenden Mikrocomputermarkt zu überlassen, bringt IBM 1981 den IBM Personal Computer Model 5150 heraus. IBMs erster Arbeitsplatzrechner ist aus frei erhältlichen Standardkomponenten zusammengebaut und setzt auf das Prinzip der Kompatibilität: Software kann damit erstmals auch auf Nachfolgemodellen eingesetzt werden. In seinem Inneren arbeitet das Betriebssystem MS-DOS, das Microsoft für IBM entwickelt hat. Trotz seines enormen Preises von 5.000 Dollar werden Computer und Prinzip zu einem gewaltigen Erfolg. IBM-kompatibel wird informeller Industriestandard und Synonym für den PC. Und während der IBM-PC und seine günstigeren Klone nach und nach Büros und Arbeitszimmer bevölkern, zieht ab 1982 der Commodore 64 in die Wohn- und Kinderzimmer ein. Er bringt eine ganze Generation erstmals mit dem Computer in Berührung. Sensationell ist sein Soundchip, mit dem Musikerinnen und Musiker Lieder mit echtem Synthie-Sound programmieren können. Dank seiner Grafik-Power dient der „Brotkasten“ Millionen Erstnutzenden aber vor allem zum Zocken.

Von Mäusen und Fenstern

Doch wer in dieser Zeit am Rechner spielen oder arbeiten will, kommt am blinkenden Cursor der Befehlszeile nicht vorbei. Nur wer sich Kurzbefehle draufschafft und sich bei der Eingabe nicht in Unterordnern verliert, findet und startet, was er oder sie will. Geändert wird das wiederum von Apple, die 1983 mit Lisa den ersten Rechner mit Maus und grafischer Benutzeroberfläche auf den Markt bringen. „Wenn er […] im Sommer auf den Markt kommt, sollten leitende Angestellte nur 20 Minuten benötigen, um Lisa bedienen zu lernen, während es bei einem normalen Mikrocomputer 20 Stunden wären“, feiert die Sunday Times vorab die Folgen der Maus-Revolution. Aufgrund eines Preises von 10.000 Dollar bleibt Lisa allerdings ein Ladenhüter – und Apple legt im Folgejahr mit dem günstigeren Macintosh nach. Wirklich massentauglich machen die intuitive Maussteuerung aber erschwingliche Rechner wie der Atari ST, der 1985 vorgestellt wird. Im selben Jahr bringt Microsoft dann seine erste grafische Oberfläche heraus, die das Unternehmen kurz vor der Veröffentlichung in „Windows“ umtauft. Kommerziell erfolgreich ist allerdings erst Windows 3.1, das 1992 erscheint und allein in den ersten zwei Monaten rund drei Millionen Lizenzen verkauft. Der Rest ist Computergeschichte.

 

Der nächste Quantensprung

Unsere Rechner sind seither immer schneller und leistungsfähiger geworden, können selbst im Hosentaschenformat gewaltige Datenmengen speichern und verarbeiten, von denen ihre raumfüllenden Vorgängermodelle nicht einmal zu träumen wagten. Am nächsten technologischen Sprung wird aktuell gearbeitet: dem Quantencomputer. Dieser operiert nicht mit Bits sondern mit Qbits. Ein Qbit kann nicht nur „Eins“ und „Null“ darstellen, sondern theoretisch unendlich viele Zustände dazwischen – und das gleichzeitig. Forschende wollen mit diesen Computern etwa die Wechselwirkungen von Molekülen simulieren, was zu Durchbrüchen in der Entwicklung von Medikamenten führen könnte.

Auch künstliche Intelligenz und Big Data könnten mit Quantencomputern einen gewaltigen Satz nach vorne machen, das Wetter könnte langfristig vorhergesagt werden. Digitale Schwergewichte wie IBM, Google oder Microsoft treiben die Entwicklung voran. Bis fehlerfrei funktionierende Quantencomputer verfügbar sind, dürfte es je nach Einschätzung fünf bis über zehn Jahre dauern. Den Quantencomputer für den Hausgebrauch wird es aber auch in Zukunft nicht geben. Denn die benötigen eine Betriebstemperatur von minus 270 Grad. Und das ist im Wohnzimmer nun einmal schlecht zu bewerkstelligen.

Newsletter

Nichts mehr verpassen: Jetzt kostenlosen #explore-Newsletter abonnieren

Entdeckt, erklärt, erzählt - Der Podcast

Alle zwei Wochen eine neue Folge. Entdeckt, erklärt, erzählt ist der Podcast von #explore by TÜV NORD. In jeder Folge haben wir einen Gast, der uns spannende Einblicke in Zukunftsthemen und Trends gibt sowie Innovationen einordnet. Den Podcast gibt's auf allen gängigen Podcast-Apps - einfach kostenfrei abonnieren!

 

Die "gute Hackerin" Lucie Plaga über Qubits, Supercomputer und dauerhaft sichere Verschlüsselung.

Alle Podcast-Folgen in der Übersicht