Unsere fremde Verwandtschaft

Tobias Hürter

Tobias Hürter ist Journalist und stellvertretender Chefredakteur des philosophischen Magazins „Hohe Luft“.

Künstliche Intelligenz (KI) ist heute längst Teil unseres Alltags und sie wird stetig raffinierter. Viele Menschen fürchten deshalb, dass uns die Maschinen zu ähnlich werden. Doch die wahre Gefahr der KI liegt im Umgekehrten: dass wir Menschen den Maschinen zu ähnlich werden.

Printausgabe tv diskurs: 22. Jg., 2/2018 (Ausgabe 84), S. 76-81

Vollständiger Beitrag als:

Woher wissen Sie, dass es ein Mensch war, der diese Zeilen geschrieben hat? Es gibt längst Computer, die Artikel verfassen, Gedichte sogar. In Japan kam 2016 eine von einer Software geschriebene Kurzgeschichte in die Auswahl eines Literaturpreises. Sie handelte davon, wie ein Computer einen Roman schreibt. Vor ein paar Jahren noch hätte ich als Autor dieser Zeilen Ihnen nicht beteuern müssen, ein Mensch zu sein. Heute können Sie es mir glauben, beweisen kann ich es Ihnen nicht.

Künstliche Intelligenz dringt in fast alle Bereiche des Lebens vor. Die großen Autokonzerne haben angekündigt, bis zum Jahr 2025 voll autonome Autos auf die Straßen zu bringen – also in gerade einmal sieben Jahren. Die ersten Dark Factories sind schon in Betrieb: voll automatisierte, unbeleuchtete Fabriken, in denen allein Roboter Dinge herstellen und im Gegensatz zu menschlichen Arbeitern kein Licht brauchen. Maschinen spielen heute Fußball, stellen medizinische Diagnosen, geben juristische Einschätzungen und haben Sex mit Menschen. Im japanischen Nagasaki hat ein Hotel eröffnet, das ohne menschliche Angestellte auskommt. Die Tate Gallery in London stellt computergemalte Bilder aus.

Es ist noch nicht lange her, da war die KI ein eher obskures Teilgebiet der Informatik, geprägt von tollpatschigen Robotern, quäkenden Computerstimmen und patzenden Schachprogrammen. Heute ist sie ein rasant wachsender Markt. Bis 2022 soll dieser ein Volumen von 16 Mrd. Dollar erreichen – schätzt Watson, die KI-Maschine von IBM. Alle reden über KI, viele sind begeistert von ihr, manche fürchten sie. Aber wovor genau haben sie Angst?
 

Ist simulierte Intelligenz gleich echter Intelligenz?

Nimmt man den Ausdruck „Künstliche Intelligenz“ wörtlich, dann müsste er für Maschinen mit Denkvermögen oder Auffassungsgabe stehen. Aber ganz so einfach ist die Angelegenheit nicht. Intelligenz ist eine Eigenschaft, die auf Menschen gemünzt ist. Ihre Bedeutung ist von Kontext zu Kontext, von Kultur zu Kultur anders, Psychologen unterscheiden unzählige Formen von Intelligenz: darunter sprachliche, ästhetische, bildliche, soziale, mathematische und musikalische. Manche Psychologen sind überzeugt, dass hinter all diesen Varianten ein gemeinsamer Faktor steckt: eine „allgemeine“ Intelligenz. Andere bestreiten, dass Intelligenz ein wissenschaftlich sinnvoller Begriff sei. Wir alle wissen intuitiv, was Intelligenz bedeutet, aber es ist keineswegs offensichtlich, ob und wie diese Eigenschaft auf Maschinen übertragbar ist.

Diese Unklarheit zeigt sich schon in den frühesten Definitionen der KI. Bereits der englische KI-Pionier Alan Turing (1912-1954) sagte nicht einfach „denkende Maschinen“ voraus, sondern schrieb 1950 weit vorsichtiger: „Zum Ende des Jahrhunderts werden sich der Wortgebrauch und die allgemeine Sichtweise so sehr geändert haben, dass man von denkenden Maschinen sprechen können wird, ohne Widerstand erwarten zu müssen.“ Ein paar Jahre später definierte der amerikanische Logiker und Informatiker John McCarthy (1927-2011) von der Stanford University die KI als den Versuch, Rechenmaschinen zu bauen, „die sich auf eine Weise verhalten, die intelligent genannt würde, wenn Menschen sich so verhielten“. Diese Definitionen haben etwas gemeinsam: Sie umgehen die Frage, ob die betreffenden Maschinen intelligent sind. Intelligent sein und so tun, als ob – es ist keineswegs klar, ob beides auf das Gleiche hinausläuft.

Die Geburt der KI als eigenständige Disziplin wird gemeinhin auf das Jahr 1956 datiert. Im Sommer jenes Jahres fand der legendäre Workshop des Dartmouth Summer Research Project on Artificial Intelligence statt, auf dem die Vordenker der KI ein „Proposal“ verabschiedeten – einen Masterplan für den Fortschritt der KI – unter der Annahme, „dass jeder Aspekt des Lernens oder jedes andere Merkmal von Intelligenz prinzipiell so genau beschrieben werden kann, dass es mit einer Maschine simuliert werden kann“. Simuliert – was bedeutet das genau? Ist simulierte Intelligenz gleich echter Intelligenz?
 


Intelligenz

Der Ausdruck „Intelligenz“ kommt vom lateinischen „intellegere“ (verstehen, begreifen). Jeder Mensch weiß, was das heißt, aber eine allgemeingültige Definition gibt es nicht.
Die deutsche Wikipedia erklärt „Intelligenz“ als einen „Sammelbegriff für die kognitive Leistungsfähigkeit des Menschen“. Von Computern ist nicht die Rede. Psychologen versuchen heute, den Begriff zu operationalisieren, statt ihn zu definieren: Sie geben Test-Standards für Intelligenz. Diese Tests sind allerdings für Menschen konzipiert. Zu den wenigen Bereichen, in denen sich Menschen und Maschinen in Sachen Intelligenz „auf Augenhöhe“ begegnen können, zählen Brettspiele wie Schach oder Go. Sie allerdings erfordern sehr spezielle Formen von Intelligenz.



Das Gehirn ist die Hardware, der Geist die Software

Den in Dartmouth versammelten KI-Vordenkern bereiteten diese Fragen vermutlich wenig Kopfzerbrechen. Die 1950er-Jahre waren von der „Computermetapher“ geprägt. Viele Wissenschaftler waren überzeugt, dass das menschliche Gehirn eine Rechenmaschine sei. Das Gehirn ist dabei die Hardware, der Geist ist die Software, und die Prozesse des Denkens, Fühlens und der Wahrnehmung bestehen in der Ausführung des Programms durch die Maschine. So gesehen ist ziemlich klar, was KI bedeutet: die Imitation der Arbeitsweise des natürlichen Neuronengehirns durch ein künstliches Elektronengehirn.

Doch gegen diese Sichtweise regten sich bald Zweifel. Wenn Menschen und Computer so ähnlich sind, warum haben die einen dann offenbar einen freien Willen, Bewusstsein und Intentionalität, die anderen nicht? Diese Einwände wurden gegen die frühen Visionäre der KI vorgebracht – und sie sind nicht ohne Weiteres zu entkräften. Der kalifornische Philosoph John Searle führte gegen die Computermetapher des Geistes Feld:

In einem Gedankenexperiment versetzte er sich – des Chinesischen unkundig – in ein Zimmer, unter dessen Tür Zettel mit chinesischen Schriftzeichen durchgeschoben werden. Searle hat ein dickes Regelbuch, nach dem er Antworten formulieren kann, die er unter der Tür zurück nach draußen schiebt. Von außen wirkt es, als sei ein Chinesisch-Sprecher im Zimmer. Aber da ist keiner. Im Sinne von Turing und McCarthy wäre das Zimmer samt Searle und seinem Buch ein KI-System: Es kann so tun, als verstünde es Chinesisch. Aber wer würde es ernsthaft „intelligent“ nennen? Searle glaubte – und glaubt bis heute –, mit diesem Gedankenexperiment zu zeigen, dass KI keine echte Intelligenz hervorbringt.

Das gleiche Ziel verfolgte auch der KI-Skeptiker Joseph Weizenbaum (1923-2008), als er im Jahr 1965 die Computer-Psychotherapeutin ELIZA programmierte, die mit einfachsten syntaktischen Regeln ein tiefes Verständnis für ihre Gesprächspartner vorspielte. Weizenbaums Sekretärin war so beeindruckt von ELIZA, dass sie darum bat, mit ELIZA allein gelassen zu werden, um „unter vier Augen“ mit ihr reden zu können.
 

KI therapiert Flüchtlinge

Mit ELIZA beabsichtigte Weizenbaum eigentlich, eine Parodie auf die KI zu schaffen. Stattdessen setzte er ein Paradigma für sie. Die Chatbots, die man etwa auf den Webseiten von Ikea oder PayPal findet, sind direkte Nachfahren von ELIZA. Jeder Kunde, der sich mit ihnen unterhält, wird die Begeisterung von Weizenbaums Sekretärin nachvollziehen können. Man kann kaum anders, als sie für intelligente Wesen zu halten. Aber da ist keines, da sind nur Software-Routinen, die nach formalen Regeln Wörter und Sätze manipulieren, ohne Verständnis für das, was sie sagen oder lesen. Inzwischen sind die Nachfahren von ELIZA sogar tatsächlich als Therapeuten im Einsatz. Das Programm Karim bietet syrischen Flüchtlingen Hilfe und Unterstützung.

Auch die „intelligenten“ Sprachassistentinnen Siri (Apple), Alexa (Amazon) und Cortana (Microsoft), die sich gerade in Handys und Haushalten verbreiten, sind hochgezüchtete Abkömmlinge von ELIZA, mit einem großen Repertoire an syntaktischen Regeln, aber ohne jedes Verständnis für das, worüber sie mit ihren Nutzern reden. Sie seien „keine echte KI“, sagt der Kognitionswissenschaftler Douglas R. Hofstadter von der Indiana University. Alexa kann ihre Nutzer z.B. bei veganer Ernährung beraten und zur Mülltrennung ermahnen. Aber sie hat kein Verständnis davon, was Veganismus ist, und keinerlei Umweltbewusstsein. Ebenso zählt ein Computerprogramm, das beispielsweise ein Gedicht schreibt, nicht deshalb als KI, weil es intelligent wäre, sondern weil sein Gedicht intelligent klingt. „Der Computer hat kein tiefes Verständnis der Wörter, die er gebraucht“, sagt Toby Walsh, Professor für KI an der University of New South Wales, „er hat keinerlei Verständnis von Liebe, kein Bewusstsein und auch sonst nichts von dem, was Dichter bewegen sollte.“

Es gibt also Maschinen, die intelligent tun können, ohne intelligent zu sein. Für sie hat sich der Ausdruck „schwache KI“ etabliert. „Starke KI“ wären Maschinen, die nicht nur intelligent handeln, sondern tatsächlich intelligent sind. „Künstliche Intelligenz“ ist zwar immer künstlich, aber nicht unbedingt Intelligenz – zumindest nicht im Sinne der menschlichen. Wenn wir Maschinen bauen, die sich intelligent verhalten, kann ihre Intelligenz von völlig anderer Art sein als unsere.

Walsh vergleicht die KI mit „künstlichem Fliegen“, also mit dem Flug von Maschinen wie Flugzeugen und Hubschraubern. Es unterscheidet sich deutlich vom natürlichen Fliegen, also von dem der Vögel und Insekten. Die einen haben starre Flügel, Rotoren und Düsentriebwerke. Die anderen haben Federn und schlagen mit den Flügeln. Frühe Versuche, Flugmaschinen zu konstruieren, indem man Vögel nachbaut, schlugen fehl. Heutige Flugzeuge imitieren das natürliche Fliegen nicht, sie fliegen auf andere Weise. So funktioniert auch KI anders als natürliche Intelligenz. KI-Maschinen haben nicht notwendigerweise Bewusstsein und nicht unbedingt eigene Empfindungen oder Wünsche. Sie könnten das verkörpern, was der australische Philosoph David Chalmers „Zombie-Intelligenz“ nennt: strikt logisch und methodisch, blitzschnell, aber gefühllos.
 


Die Werkzeuge der KI

Der Aufschwung der KI in den letzten Jahren ist mit zwei Schlagwörtern verbunden: „Deep Learning“ und „Big Data“.
„Deep Learning“ (tiefgehendes Lernen) bedeutet, dass die Algorithmen eines KI-Systems sich selbst umprogrammieren, um ihre Schwächen bei der Verarbeitung von Daten zu verbessern. „Big Data“ bedeutet, dass Algorithmen riesige Datenmengen in kurzer Zeit durchsuchen, filtern und strukturieren können.
Die Ausdrücke „Deep Learning“ und „Big Data“ sind zwar neu, die Techniken dahinter allerdings schon Jahrzehnte alt. Die jüngsten Erfolge der KI beruhen vor allem auf der rasant steigenden Verarbeitungsgeschwindigkeit und Speicherkapazität der Hardware.



Auch Experten ist die KI nicht mehr geheuer

Ein Schlüsselmoment der KI war das Jahr 1997, als Garri Kasparow, der damalige Schachweltmeister, dem IBM-Computer Deep Blue in einem Wettkampf über sechs Partien unterlag. Erstmals hatten die Maschinen in einer ureigenen Domäne der menschlichen Intelligenz die Oberhand gewonnen. Damals schrieb die „New York Times“: „Wenn ein Computer einen menschlichen Go-Champion besiegt, wird das ein Zeichen sein, dass die Künstliche Intelligenz so gut wie die echte geworden ist.“

Das asiatische Spiel Go ist noch komplexer als Schach, gute Spieler verlassen sich mehr auf ihre Intuition als auf Berechnung. Im März 2016 gewann AlphaGo, ein auf Go spezialisierter Verwandter von Deep Blue, tatsächlich ein Match gegen den koreanischen Spitzenspieler Lee Sedol. Im Herbst 2017 präsentierten die Entwickler von AlphaGo eine noch stärkere Version, die sich die Feinheiten des Spiels ganz ohne menschliche Hilfe beigebracht hatte, indem sie wochenlang gegen sich selbst spielte – eine Demonstration der Lernfähigkeit von KI-Maschinen, die auf einigen Gebieten jene von Menschen weit übersteigt.

Manchen Gelehrten ist das nicht mehr geheuer. Der kalifornische KI-Forscher Stuart Russell kommentierte den Sieg von AlphaGo gegen Lee Sedol so: „Die Methoden der KI kommen viel schneller voran als erwartet. Um die vollständige Kontrolle über die immer mächtigeren KI-Systeme sicherzustellen, ist viel zu tun.“ Der Physiker Stephen Hawking befürchtet, dass selbstständig lernende KI echte Intelligenz entwickeln und die Weltherrschaft an sich reißen könnte. Er warnt: „Die Entwicklung vollwertiger KI könnte das Ende der menschlichen Rasse einläuten.“ Der Tesla-Gründer Elon Musk hält die KI gar für „wahrscheinlich unsere größte existenzielle Bedrohung“. Er hat die Entwicklung von Schutzmaßnahmen gegen außer Kontrolle geratende KI mit mehreren 100 Mio. Dollar unterstützt.

Am anderen Extrem stehen die bedingungslosen KI-Fans, die im Aufstieg der intelligenten Maschinen den Anbruch einer neuen, einer besseren Ära sehen. Raymond Kurzweil, Leiter der technischen Entwicklung bei Google, prophezeit, dass Menschen und intelligente Maschinen verschmelzen und gemeinsam unsterblich werden. Der Ingenieur Anthony Levandowski, der für Google und Uber autonome Fahrsysteme entwickelt hat, hat eine KI-Religion gegründet, die er „Way of the Future“ nennt. Ziel: „die Entwicklung und Verbreitung einer auf KI basierenden Gottheit und ein Beitrag zur Verbesserung der Gesellschaft durch das Verständnis und die Anbetung der Gottheit“.

Ein Fundament aus Fakten hat dabei weder Hawkings Dystopie noch Kurzweils Utopie. Auch die cleversten KI-Systeme von heute verfügen lediglich über Inselbegabungen genau wie ihre Ahnen von anno dazumal. Die Fähigkeiten von AlphaGo sind immer noch beschränkt auf die 19 mal 19 Felder des Go-Bretts. Es gibt nicht die geringsten Anzeichen dafür, dass das System etwas in Sachen Onlinekriminalität oder Schusswaffengebrauch dazugelernt hätte. Während die „schwache KI“ auf dem Vormarsch ist, ist von „starker KI“ so wenig zu sehen wie vor 60 Jahren.
 

Die ewige Konkurrenz zwischen Menschen und Maschinen

Aber warum fürchten sich dann viele Menschen vor der KI? Zunächst schreibt die Angst vor der KI ein uraltes Narrativ fort: Seit der industriellen Revolution sehen Menschen sich im Kampf mit den Maschinen. Zuerst nehmen sie uns die Jobs weg, dann verdrängen sie uns von der Erde. Im Unterschied zu früheren Zeiten dringen die Maschinen nun allerdings auch in die Domänen der hoch qualifizierten Menschen vor: der Ärzte, Juristen, Wissenschaftler und Hochschuldozenten. Die KI ist gerade dort stark, wo die Menschen sich bisher unbesiegbar fühlen konnten – das ist das sogenannte Moravec’sche Paradox, formuliert in den 1980er-Jahren von Hans Moravec und anderen KI-Forschern: Entgegen traditioneller Annahmen erfordert abstraktes Denken vergleichsweise wenig Rechenkraft, während „niedrigere“ Fähigkeiten wie Gehen oder Balancieren enorm rechenaufwendig sind. Es ist z.B. viel einfacher, ein gutes Schachprogramm für einen Roboter zu schreiben, der die Figuren auf einem Schachbrett spielt, als ein Steuerprogramm. So tun sich Maschinen viel leichter damit, Mammografie-Bilder zu diagnostizieren, als Bettwäsche in einem Hotelzimmer zu wechseln. Da Zimmermädchen obendrein deutlich schlechter bezahlt werden als Radiologen, müssen sie die KI-Konkurrenz weniger fürchten.

Betrachtet man den Einsatz von KI-Programmen in Brustkrebs-Screenings allerdings näher, erkennt man, dass sie die Menschen keineswegs verdrängen. Zur Aufsicht steht immer noch ein Arzt bereit. Ähnlich ist es in anderen Bereichen: Im Investmentbanking haben unkontrollierte Trading-Systeme schon Börsencrashs verursacht, doch gemeinsam mit Bankern aus Fleisch und Blut erzielen sie die besten Renditen. Auch das Therapiesystem Karim arbeitet unter menschlicher Führung. Im Schach spielen Teams aus Großmeistern und Computern besser als jeder einzelne Computer. Garri Kasparow, der ehemalige Schachweltmeister und das berühmteste Opfer des Siegeszuges der KI, fordert daher eine neue Kultur der Kooperation zwischen Mensch und Maschine: Der Computer wälzt Daten und berechnet Wahrscheinlichkeiten, der Mensch erkennt Zusammenhänge, bringt seine Erfahrung und Intuition ein, der Computer wiederum lernt davon – und der Mensch von ihm.

Wer schon einmal einen Onlineübersetzer wie Google Translate benutzt hat, kennt das Prinzip. Die Maschinenübersetzung ist alles andere als perfekt, aber verständlich genug, um dem Menschen eine Vorlage für einen guten Übersetzungstext zu liefern. Gemeinsam gelingt ihnen, was keiner von ihnen allein hinbekommt. Computer sind nicht mehr bloße Werkzeuge, sondern eher Kollegen. Ihnen auf Augenhöhe zu begegnen, ist manchen Menschen dennoch nicht geheuer. Das ist das Paradox der KI: Computer, die vorhersagbarsten aller Maschinen, die siliziumgewordene Berechenbarkeit, werden unberechenbar, wir müssen erst lernen, mit ihnen zu kooperieren.

Die KI droht Menschen zu „computerisieren“ Die wahre Bedrohung durch die KI könnte jedoch woanders liegen. Im Gegensatz zu früheren Zeiten wird die Entwicklung von KI-Systemen heute nicht von der Grundlagenforschung in den Laboren der Hochschulen vorangetrieben, sondern von den mächtigen Konzernen der digitalen Ökonomie: von Google, Facebook, Apple, Microsoft u.a. Diese Konzerne sind meisterhaft darin, die Wünsche und Bedürfnisse der Nutzer zum Wohl ihrer Geschäfte zu nutzen. Die Art, wie wir kommunizieren, Freundschaften pflegen, Musik hören, Filme schauen oder Bücher lesen – all das haben sie bereits digital revolutioniert.

Wenn sie nun unser Leben mit ihren KI-Systemen bevölkern, könnten sie damit auch versuchen, unser altes Verständnis von Intelligenz in ihrem Sinne zu verändern. Wie bereits für andere Bereiche des Lebens könnten sich auch für Denken und Verstehen die Normen so verschieben, dass sie den Geschäftsinteressen der Konzerne entsprechen, die KI-Systeme entwickeln und unter die Leute bringen: Dass künftig als gute Musik gilt, was Computer komponieren, und als guter Artikel gilt, was Computer schreiben.

Die Gefahr besteht demnach nicht darin, dass die Maschinen zu menschlich werden, sondern darin, dass die KI uns Menschen „computerisiert“. Die britische Anthropologin Kathleen Richardson nimmt diesen Verdacht so schwer, dass sie vorschlägt, von „Advertising Intelligence“ statt von „Artificial Intelligence“ zu sprechen, um den Zweck der neuen Systeme deutlicher zu machen. Noch haben wir genügend menschliche Intelligenz, um die Absichten hinter der „Advertising Intelligence“ zu durchschauen. Worauf es wirklich ankommt, ist, wie wir mit der KI leben und zusammenarbeiten. Wenn das schiefgeht, wird es nicht daran liegen, dass die Maschinen zu intelligent geworden sind, sondern daran, dass wir unsere eigenen Fähigkeiten zu gering schätzen.

[Dieser Text erschien erstmalig in „Hohe Luft“, Augabe 2/2018]

Eine Auswahl weiterführender Literatur:

Toby Walsh: Android Dreams. The Past, Present and Future of Artificial Intelligence. Hurst 2017
Walshs Statusbericht zur Künstlichen Intelligenz wurde weithin für seine nüchterne Sicht gepriesen.

Garri Kasparow: Deep Thinking. Where Machine Intelligence Ends and Human Creativity Begins. Murray 2017
Der ehemalige Schachweltmeister, der 1997 einem Computer unterlag, fordert eine neue Kultur der Kooperation zwischen Mensch und Maschine.