Detail eines LED-Kubus auf dem Vintage Computing Festival in Berlin. (Bild: Felipe Trueba / Epa)

Detail eines LED-Kubus auf dem Vintage Computing Festival in Berlin. (Bild: Felipe Trueba / Epa)

Wie die Elektronengehirne die Welt eroberten

Die Erforschung der künstlichen Intelligenz wurde zu Beginn durch den Geist des Kalten Krieges geprägt. Nun vermehren sich Stimmen, die diese Wissenschaft wiederum für einen internationalen Rüstungswettlauf mobilisieren möchten.

Stefan Betschon
Drucken

Eines Morgens waren die Elektronengehirne plötzlich da. Über Nacht waren sie gekommen. Die Menschen taten so, als hätten sie sie schon lange erwartet und begrüssten sie freundlich.

Es war eine lange Nacht gewesen. Nach sechs Jahren Krieg lag die Welt in Trümmern. Doch zwischen Schutthaufen und Trümmerbergen wurde Neues sichtbar. Im Keller einer Bäckerei im südlichen Allgäu lagerte in Kisten eine elektromechanische Maschine. Der Z4 genannte Computer war von Konrad Zuse in Berlin gebaut worden. In den USA an der Harvard-Universität in Cambridge war ein fünf Tonnen schwerer, schlicht Mark 1 genannter elektromechanischer Computer seit 1944 im Einsatz, er war auch von den Physikern benutzt worden, die sich mit dem Bau von Atombomben beschäftigten. In Philadelphia, an der elektrotechnischen Abteilung der Universität, waren Techniker fieberhaft mit der Fertigstellung eines Electronic Numerical Integrator and Computer (Eniac) beschäftigt. Die Techniker wurden von der amerikanischen Armee bezahlt, ihre Maschine sollte die Berechnung von Artillerie-Tabellen beschleunigen. Doch als die 20 000 Elektronenröhren, die diesen Computer ausmachten, Ende 1945 zum ersten Mal aufleuchteten, war der Krieg vorbei.

Als im Februar 1946 der Numerical Integrator and Computer (Eniac) vorgestellt wurde, griffen die meisten Journalisten zum Begriff «Gehirn», um die Neuerung zu benennen. (Bild: PD)

Als im Februar 1946 der Numerical Integrator and Computer (Eniac) vorgestellt wurde, griffen die meisten Journalisten zum Begriff «Gehirn», um die Neuerung zu benennen. (Bild: PD)

Der Computer war da, noch bevor ein neues Wort für ihn bereitgestellt werden konnte. Während kurzer Zeit herrschte Sprachlosigkeit. Das Wort «Computer» konnte damals nicht verwendet werden, denn es bezog sich auf Menschen. Noch während des Zweiten Weltkriegs, als es darum ging, für die Bedienung des Eniac mathematisch gebildete weibliche Hilfskräfte anzuwerben, wurden in Stellenausschreibungen «Computer» gesucht.

Als im Februar 1946 der Eniac anlässlich einer Pressekonferenz sein öffentliches Debüt erlebte, sahen sich nur wenige Journalisten in der Lage, diese Neuerung ohne Bezugnahme auf das eigene Gehirn zu beschreiben: «30 Tonnen schweres Elektronengehirn denkt schneller als Einstein» («Philadelphia Evening Bulletin»), «Elektronengehirn berechnet 100-Jahr-Problem in zwei Stunden» («New York Herald Tribune»), «Electronic Super Brain» («Washington Post»), «Giant Brain», «Wunder-Gehirn», «Zauber-Gehirn». Die amerikanische Computerwissenschafterin Dianne Martin hat mehrere Dutzend Zeitungsartikel gesammelt, die in den Jahren 1946 und 1947 über den Eniac publiziert wurden, und darunter nur wenige gefunden, die im Titel keinen Bezug zum Denkapparat des Menschen herstellten. Einzig die Wissenschaftsjournalisten blieben gelassen, im «Scientific American» und in «Nature» ist von Rechenmaschinen die Rede. Doch als die britische «London Times» den Bericht von «Nature» übernahm, wurde aus der «electronic calculating machine» wieder ein «electronic brain». Bald eroberten die «electronic brains» auch den deutschsprachigen Sprachraum. «Das Elektronengehirn ähnelt dem menschlichen so sehr», so berichtete «Die Zeit» 1949, «dass es, wenn man ihm zu viel zumutet, eine Art ‹Nervenzusammenbruch«›» erleidet, denselben Gedanken immerfort wiederholt oder Kauderwelsch hervorbringt.»

Bereits 1949 beklagte sich ein Journalist der «New York Times», die «electronic brains» hätten sich so sehr vermehrt, dass es schwierig sei, da noch einen Überblick zu bewahren. Nun gab es aber damals in den USA nur ein gutes Dutzend Computer. Es können deshalb nicht die real existierenden Computer gewesen sein, die dem Journalisten den Kopf verdrehten, sondern es waren die vielen Ankündigungen, Projekte, Absichtserklärungen und Hoffnungen, die sich um die Elektronengehirne rankten.

Wörter sind mehr als nur Etiketten, die man den Dingen anhängt, sie sind Schlüssel, die Assoziationsräume aufschliessen und Denkzusammenhänge schaffen; Begriffe sind Werkzeuge, die das zu Begreifende formen. Die Redeweise vom Elektronengehirn schuf die Voraussetzungen dafür, dass Computerwissenschafter, die Intelligenz künstlich herstellen wollten, oder Psychologen, die den Menschen als «informationsverarbeitendes System» interpretierten, auf Verständnis hoffen durften. Das «Elektronengehirn» – auch wenn der Duden dieses Wort inzwischen als veraltet bezeichnet – bestimmt bis heute die Erwartungen, die wir an den Computer stellen. Es ist uns bei der Beurteilung von Computertechnik nicht mehr möglich, aus diesem Deutungsraster auszubrechen.

Der österreichische Medienphilosoph Erich Hörl hat die Assoziationen von Computer und Gehirn eine «Epochengleichung» genannt, die das «kybernetische Bild des Denkens» präge und darüber hinaus die «Wissenslandschaft» der Nachkriegszeit und überhaupt: die Bedingungen des Menschseins im ausgehenden 20. Jahrhundert. Doch dass die Menschen sich selber gerne «sub specie machinae» betrachten, ist – das Altsprachliche deutet es an – keine neue Eigenart. Uhren, Pumpwerke, Telefonzentralen: Stets haben die Menschen die avancierteste ihnen zur Verfügung stehende Technik auch dazu benutzt, die Funktionsweise des Gehirns zu erklären.

Beim «electronic brain» sind nun aber anfänglich die Positionen von Vorbild und Abbild vertauscht. In der Mitte der «Epochengleichung» steht nicht ein Gleichheitszeichen, sondern ein Pfeil, der immer wieder die Richtung ändert. Das Gehirn soll als Metapher zunächst helfen, die neuen, raren, schwer zugänglichen Computer besser zu verstehen. Später dann werden die Maschinen dazu benutzt, das Gehirn zu erklären. Die «Epochengleichung» verbindet zwei Unbekannte; es ist der Versuch, sich am eigenen Schopf aus dem Sumpf zu ziehen.

Zur Frage, wer den Computer erfunden hat, gibt es viele Antworten, jede Nation hat hier ihre Helden. Wer aber hat das «Elektronengehirn» erfunden, wer hat diese Metapher in Umlauf gebracht?

Man stellt sich Künstliche Intelligenz vor als Softwareprogramm, das Algorithmen für die Bearbeitung von logischen Symbolen zur Verfügung stellt. (Bild: Ritchie B. Tonga / Epa)

Man stellt sich Künstliche Intelligenz vor als Softwareprogramm, das Algorithmen für die Bearbeitung von logischen Symbolen zur Verfügung stellt. (Bild: Ritchie B. Tonga / Epa)

Der britische Mathematiker Charles Babbage, der als Erster die Konstruktion eines Computers im modernen Sinn ins Auge gefasst hatte, nannte die zentralen Komponenten seiner «engine» (Maschine) «mill» (Mühle) und «store» (Lager). In mehreren Patentanmeldungen hat Zuse ab 1936 versucht, seine Innovationen beim Bau einer «programmgesteuerten Rechenmaschine» zu beschreiben. Er charakterisiert seine «Rechenvorrichtung» als «Aggregat» von verschiedenen «Einzelvorrichtungen». Die Zusammenarbeit des «Rechenwerks» und des «Planwerks» wird durch ein «Leitwerk» gesteuert, die Verbindung zwischen «Rechenwerk» und «Speicherwerk» wird durch das «Wählwerk» hergestellt. John William Mauchly und sein Mitarbeiter John Presper Eckert haben 1949 ein Patent beantragt, das ihnen 1964 zugesprochen und 1973 wieder aberkannt wurde. In den Patentanträgen und in andere Berichten über ihre Erfindungen lassen sie keine Neigung zu einer menschelnden Ausdrucksweise erkennen.

Die Konstrukteure der ersten Computer haben nicht an biologischen Systemen Mass genommen. Es waren Aussenstehende, die diesen Zusammenhang herstellten. John von Neumann beispielsweise: Der ungarische Wissenschafter, der in Budapest und Göttingen Mathematik und an der ETH Zürich Chemie studiert hatte, war in den USA während des Zweiten Weltkriegs im Rahmen des sogenannten Manhattan-Projekts massgeblich an der Entwicklung der Atombombe beteiligt. Er interessierte sich auch für die Möglichkeiten der programmierbaren Rechenmaschinen. Als er 1944 von Eniac erfuhr, war das Projekt fast abgeschlossen. Doch von Neumann unterstützte die Leiter des Projekts, John William Mauchly und John Presper Eckert, beim Design eines Nachfolgemodells, das Electronic Discrete Variable Arithmetic Computer (Edvac) genannt wurde. Von Neumann war es auch, der im Sommer 1945 eine Beschreibung dieses Computers publizierte.

Der knapp 50-seitige «First Draft of a Report on the Edvac» ist in vielerlei Hinsicht bedeutsam, unter anderem auch deshalb, weil er, um den Computer zu beschreiben, Bezüge zur Biologie herstellt. Die Bestandteile des Computers werden hier «Organe» genannt, die Beziehungen zwischen ihnen, so heisst es, funktionierten ähnlich wie das menschliche Nervensystem. «Es ist einfach zu erkennen, dass Neuronenfunktionen durch Telegrafenrelais oder durch Vakuumröhren imitiert werden können.» Von Neumann bezieht sich dabei auf das MacCulloch-Pitts-Modell. Der Mediziner Warren MacCulloch und der Logiker Walter Pitts hatten in einem berühmten Aufsatz 1943 gezeigt, wie ein neuronales Netzwerk beschaffen sein muss, um sich als Rechenmaschine zu bewähren. Der «first draft» wurde im Sommer 1945 zunächst nur wenigen amerikanischen Wissenschaftern zugänglich gemacht, doch er verbreitete sich rasch.

Von Neumann beschäftigte sich noch in den letzten Tagen seines Lebens intensiv mit den Beziehungen zwischen Computerarchitektur und Nervensystem. Davon zeugt das postum erschienene Buch «The Computer and the Brain» (1958). Er stellt Berechnungen an, um zu zeigen, dass das Gehirn den Computern in Sachen Integrationsdichte oder Energiedissipation weit überlegen sei; er weist darauf hin, dass die Nachrichtenübertragung innerhalb des Nervensystems auf einer statischen Auswertung von Impulsen beruhe. Das Buch endet mit der Erkenntnis: «Die Sprache des Gehirns ist nicht die Sprache der Mathematik.» Computer und Gehirn sind verschieden, aber beide sind «Automaten». Anstatt von Computern schreibt von Neumann etwa auch von «künstlichen Automaten», das Gehirn ist ihm dagegen ein «natürlicher Automat». Worauf es von Neumann letztlich abgesehen hat, ist nicht eine Vermehrung von neurophysiologischen oder computertechnischen Kenntnissen, sondern die Schaffung einer übergeordneten Automatentheorie.

Von Neumann ist mit diesem Bestreben nicht allein. Er weiss einige der bedeutendsten Wissenschafter seiner Zeit an seiner Seite: Norbert Wiener beispielsweise oder Claude Shannon. Es ist ein interdisziplinäres Projekt, das nicht nur Mathematiker und Informatiker, sondern auch Sozialwissenschafter, Ethnologen und Psychologen begeistert. Es scheint, als könne eine mathematisch solide abgestützte Kommunikationstheorie zwischen den Wissenschaftsdisziplinen Brücken bauen.

Und dann hat eine kleine Gruppe von jungen Mathematikern die Fahne gestohlen, um sich selber zur Avantgarde einer neuen Wissenschaft zu erklären. Die wissenschaftliche Beschäftigung mit der menschlichen Intelligenz wurde aus dem Bezugsrahmen von Mathematik, Psychologie, Biologie und Elektrotechnik herausgelöst, die Beziehungen, welche die «Epochengleichung» schafft, wurden zerstört. Was als Kybernetik oder Automatentheorie ein breit abgestütztes, interdisziplinäres Forschungsprogramm war, wird nun zu einem Teilbereich der Computerwissenschaft; eine internationale Bewegung wird zu einem Projekt einiger weniger amerikanischer Universitäten; eine Wissenschaft, die einst Hardware ebenso wie auch Software und theoretische ebenso wie auch angewandte Aspekte umfasste, wird nun auf Softwareentwicklung zurückgestutzt.

Die treibenden Kräfte der neuen Bewegung waren die damals noch nicht 30-jährigen Mathematiker John McCarthy und Marvin Minsky. Was sie einte, war weniger ein Programm als ein Antiprogramm: nicht Kybernetik, keine Regelkreise weg von Wiener. Die Redeweise von «Elektronengehirn» gefiel den jungen Mathematikern nicht, in ihren Kreisen war das Wort Gehirn verpönt, sie redeten lieber von «mind» – Geist. Diese «Vergeistigung» ist auffällig. Für den amerikanischen Wissenssoziologen Paul Edwards reflektiert der Ersatz der Computer-Gehirn-Analogie durch die Computer-Mind-Entsprechung einen politisch-kulturellen Wandel. Vor dem Hintergrund des Kalten Krieges und der amerikanischen Politik des «containment» deutet er die Hinwendung zum Geist als Rückzug in ein Reduit.

Aufstieg und Fall der von McCarthy und Minsky begründeten symbolischen KI fallen zusammen mit dem Anfang und dem Ende des Kalten Krieges. Als der Mathematiker und MIT-Professor Seymour Papert 1988 den Versucht unternahm, die Gründe für den sich abzeichnenden Paradigmenwechsel in einem wissenschaftlichen Aufsatz zu benennen, hielt er sich nicht lange mit technischen Erörterungen auf, sondern bemühte «soziologische Erklärungen»: Nicht der Zuwachs an Rechenleistung hätte die Renaissance der neuronalen Netzwerke ermöglicht, sondern «kulturelle Strömungen», die eine Abkehr vom «scharfkantigen» Rationalismus der 1960er Jahre herbeigeführt hätten.

Es war der Kalte Krieg gewesen, der diesen «scharfkantigen» Rationalismus geformt hatte. Nachdem Ende der 1940er Jahre bekanntgeworden war, dass die Sowjets über Atomwaffen verfügten, sahen sich amerikanische Militärstrategen mit der Frage konfrontiert, wie die USA auf einen überraschend erfolgenden russischen Atomangriff schnell und angemessen reagieren könnten, auch dann, wenn wichtige Entscheidungsträger nicht mehr handlungsfähig wären. Zunächst ging es um eine Beschleunigung der Informationsübertragung, bald schien auch eine Automatisierung der Entscheidungsprozesse unumgänglich. KI-Systeme sollten nach einem atomaren Überraschungsangriff das Kommando übernehmen.

Die symbolische KI ist als wissenschaftliches Forschungsprogramm bedeutungslos geworden. Aber die Grundannahmen dieses Paradigmas prägen ausserhalb der Fachwelt bis heute das Nachdenken über KI: Man stellt sich KI vor als Softwareprogramm, das Algorithmen für die Bearbeitung von logischen Symbolen zur Verfügung stellt. So ist die symbolische KI noch immer allgegenwärtig. Und auch der Kalte Krieg ist wieder zurück. Es häufen sich jüngst Diskussionsbeiträge, die die wissenschaftliche Erforschung der KI mit dem Wettbewerb zwischen den politischen Blöcken in einen Zusammenhang bringen.

«KI ist Militärtechnik», schrieb der deutschstämmige, in den USA erfolgreiche Computerunternehmer Peter Thiel im August in einem Gastbeitrag für die «New York Times». Wegen der militärischen Bedeutung der KI sei es «schockierend», dass Google in diesem Bereich die Zusammenarbeit mit dem Pentagon beendet und gleichzeitig ein KI-Forschungslabor in China eröffnet habe.

Der ehemalige Google-CEO Eric Schmidt hat zusammen mit dem Politologen Henry Kissinger und dem Computerwissenschafter Daniel Huttenlocher ebenfalls über die geopolitische Bedeutung der KI nachgedacht. Ihr Aufsatz erschien im August in der amerikanischen Monatszeitung «The Atlantic». In einer Passage, die die Handschrift Kissingers trägt, wird über ein Wettrüsten mit KI-Waffen nachgedacht. Dieses Wettrüsten sei gefährlich, da herkömmliche Formen der Rüstungskontrolle, in den Zeiten des Kalten Kriegs entwickelt, nicht mehr funktionierten. Der Fortschritt in der KI sei schnell und «undurchsichtig», das heisst: nicht voraussehbar, für Aussenstehende nicht nachvollziehbar. Diese «Undurchsichtigkeit» gefährde den Frieden. Mit anderen Worten: Nicht so sehr die Fähigkeiten der KI sind bedrohlich, sondern die Unfähigkeit der Menschen, sich von den Fähigkeiten der KI ein Bild zu machen.