Kommentar

Die im Dunkeln pfeifen

Die Debatte über die Gefahren der künstlichen Intelligenz leidet darunter, dass die Teilnehmer aneinander vorbeireden. Alte Mythen und Märchen verstellen die Sicht.

Stefan Betschon
Drucken
Früher fürchteten sich manche vor Frankensteins Monster, heute vor der künstlichen Intelligenz. (Bild: ADC / Keystone)

Früher fürchteten sich manche vor Frankensteins Monster, heute vor der künstlichen Intelligenz. (Bild: ADC / Keystone)

Anfang Oktober wird im Zürcher Literaturmuseum eine Ausstellung über künstliche Intelligenz (KI) eröffnet. Titel der Ausstellung: «Frankenstein». Schriebe die Schriftstellerin Mary Shelley, so die These der Ausstellungsmacher, ihren «Gruselklassiker» heute, so wäre das Monster kein Wesen aus Fleisch und Blut, sondern eine «digitale Existenz, eine unkontrollierbare KI». Diese Vorinformationen zu der Ausstellung besagen, dass KI erstens als gefährlich zu betrachten sei und dass wir zweitens, wenn wir über diese Gefahren reden wollten, auf alte Mythen und Märchen angewiesen seien. Diese alten Geschichten – vom Golem über Goethes Zauberlehrling bis zum Terminator – sind wie eine Brille, die wir nicht ausziehen können. Wer die Gefahren der KI thematisieren will, muss auch diese Brille inspizieren.

Hochschiessende Kurven

Das Thema KI erlebt einen Boom. Mit dem «AI Index» 2017, den Forscher der Stanford University zusammengestellt haben, gibt es seit kurzem ein Koordinatensystem, um diese Begeisterung zu vermessen: Die Zahl der jährlich publizierten wissenschaftlichen Aufsätze zum Thema KI hat sich laut «AI Index» seit 1996 um den Faktor 9 erhöht, das Jahr 2016 zählt fast 20 000 Publikationen. Die Zahl der Jungfirmen, die im Bereich der KI tätig sind, die Zahl der Studierenden, die sich an amerikanischen Universitäten mit KI beschäftigen, die Zahl der Teilnehmer an Konferenzen, die dem Thema KI gewidmet sind – überall zeigt der erste «AI Index» dasselbe Bild: eine Kurve, die steil nach oben zeigt.

Interessanterweise sind laut «AI Index» in den USA die journalistischen Texte über KI mehrheitlich positiv gestimmt. In der Schweizer Mediendatenbank finden sich für das Jahr 2016 in Deutschschweizer Tageszeitungen gut 2000 Berichte, in denen der Begriff KI vorkommt, 1996 waren es bloss 82. Damals wurde das Thema zumeist unter der Rubrik «Vermischtes» abgehandelt, heute sind es zuerst die Wirtschaftsredaktoren, die sich für KI interessieren, es folgen die Feuilletonisten, erst dann kommen die Wissenschaftsjournalisten.

Es ist die erklärte Absicht des «AI Index», die Diskussion über KI zu versachlichen. Das ist lobenswert, denn in dem überhitzten Klima, das rund um die KI herrscht, schiessen die Fiktionen ins Kraut. Die verschiedenen Teilnehmer dieser Debatte reden aneinander vorbei. Die einen meinen Metaalgorithmus, wo andere den Begriff Algorithmus verwenden, die einen verwenden Algorithmus als Synonym für Software, andere benutzen ihn auch dort, wo es um Software 2.0 geht.

Der Unterschied zwischen Algorithmus und Metaalgorithmus, zwischen Software und Software 2.0 ist sehr viel grösser, als es die ähnlich lautenden Bezeichnungen vermuten lassen. Es ist der Unterschied, der die symbolische KI von der konnektionistischen unterscheidet. Es gibt innerhalb der KI auch noch andere «Stämme» – die Bayesianer, die Analogisten, die Genetiker –, die alle ihren eigenen Jargon pflegen. Doch die Symboliker und die Konnektionisten sind die beiden hauptsächlichen Widersacher.

Der Computerwissenschafter Seymour Papert hat diese wissenschaftliche Auseinandersetzung einst mit der Gegnerschaft zwischen Schneewittchen und der bösen Königin verglichen. Die Symboliker konnten in den 1960er Jahren die Konnektionisten aus dem Königshaus – das ist die staatliche Wissenschaftsförderung – verdrängen. Doch das unterdrückte Paradigma überlebte im Abseits, um dann schliesslich – nach der Jahrtausendwende – triumphal wieder ins Königshaus zurückzukehren. Die symbolische KI fristet heute ein Schattendasein – aber sie dominiert in den Medien das Nachdenken über KI.

Es geht hier nicht nur um unterschiedliche Forschungsansätze, sondern um unterschiedliche Vorstellungen darüber, was Intelligenz ist und was den Menschen ausmacht.

Es geht hier nicht nur um unterschiedliche Forschungsansätze, hinter den beiden Paradigmen stehen unterschiedliche Vorstellungen darüber, was Intelligenz ist und was den Menschen ausmacht. Eng mit der symbolischen KI verknüpft ist die «computational theory of mind», die Vorstellung, dass das, was beim Denken im Kopf eines Menschen abläuft, Berechnungen sind, die im Hauptspeicher eines Computers durch mathematische Symbole und Rechenvorschriften – Algorithmen – nachgebildet werden können.

«KI ist letztlich reine Logik», schrieb der deutsche Philosoph Markus Gabriel kürzlich in der «Frankfurter Allgemeinen Sonntagszeitung». KI ist Logik und auch noch Mustererkennung. «Diese Mustererkennung haben wir Menschen programmiert. Ein Programm ist buchstäblich übersetzt eine Vorschrift. Wir wenden also einen Algorithmus an.» «Denken Sie an Kochrezepte oder alltägliche Handlungsmuster wie das morgendliche Ritual der Kaffeezubereitung.»

Kaffee und Kochrezepte sind nicht geeignet, die neueste KI und ihre Erfolge zu erklären. Diese Erfolge verdanken sich dem konnektionistischen Paradigma und den Verfahren des «machine learning» oder des «deep learning». Der Programmierer schreibt hier keine Computerprogramme, sondern er gestaltet einen Lernprozess, der es einem Computer erlaubt, sich selber so zu programmieren, dass ein bestimmter Input den gewünschten Output ergibt.

Das Go-Programm von Deepmind, das bei diesem Brettspiel 2016 in einem vielbeachteten Match den weltbesten menschlichen Spieler besiegen konnte, wurde nicht programmiert. Vielmehr haben Programmierer einen Metaalgorithmus entwickelt, der es einem Computer ermöglichte, sich anhand von Daten, die von Menschen gespielte Go-Partien dokumentieren, selbst zu programmieren. Eine verbesserte Version dieses Programms entstand 2017 gänzlich ohne menschlichen Input: Die Software verbesserte ihre Spielstärke, indem sie gegen sich selber spielte.

Risiken und Nebenwirkungen

Der Programmierer eines neuronalen Netzwerks ist nicht Programmierer, er ist – wie Andrej Karpathy sagt – ein «Kurator», dessen hauptsächliche Aufgabe es ist, durch die Auswahl von geeigneten Lernbeispielen die Selbstjustierung des Netzwerks im gewünschten Sinn zu beeinflussen. Karpathy leitet bei Tesla die Entwicklung von künstlich intelligenter Software für autonome Fahrzeuge. In einem vielbeachteten Aufsatz hat er neuronale Netzwerke als grundlegend neue Art von Software, als «Software 2.0», beschrieben. Die geringfügige Erhöhung der Versionsnummer verweist auf einen fundamentalen Unterschied, und diesen Unterschied muss im Auge behalten, wer über die aktuellen Herausforderungen der KI nachdenkt.

Es gibt Software 2.0 und auch eine Software-Krise 2.0. Erstmals setzte Ende der 1960er Jahre eine «software crisis» die Fachwelt in Aufregung. Die Experten entdeckten damals, dass ihnen die Komplexität der Computersysteme über den Kopf gewachsen war. Als Antwort auf diese Krise wurde das Software-Engineering erfunden, eine Ingenieursdisziplin mit Betonung auf Disziplin; Spaghetti-Code wurde durch «strukturiertes Programmieren» beseitigt. Es gibt heute, als Folge jahrzehntelanger Forschungsbemühungen, Werkzeuge und Verfahren, die es ermöglichen, auch grössere Softwaresysteme so zu gestalten, dass sich ihre Korrektheit mathematisch verifizieren lässt. Doch diese Werkzeuge eignen sich nicht für Software 2.0. Es braucht jetzt ein Software-Engineering 2.0.

Intelligenz setze Bewusstsein voraus, behaupten die Philosophen. Doch dieses Argument, das noch in den 1980er Jahren die Symboliker erschreckte, hat sich abgenutzt. Die Konnektionisten nehmen den Einwand unbeeindruckt zur Kenntnis, so wie ein Flugzeugkonstrukteur, dem Ornithologen nachweisen, dass sein Jumbo-Jet kein Gefieder besitzt und die Flügel nicht bewegen kann.

Während Philosophen so tun, als wüssten sie, wie KI funktioniert, sind führende KI-Forscher heutzutage bereit, zuzugeben, dass sie das Innenleben der von ihnen geschaffenen KI-Systeme nicht durchschauen. «Explainable AI», die Entwicklung von verstehbaren Systemen, ist deshalb ein aktueller und etwa von der amerikanischen Defense Advanced Research Projects Agency grosszügig geförderter Forschungsschwerpunkt.

Eng damit verknüpft ist die Forderung nach Sicherheit. Das Forschungsgebiet der «AI safety» ist jung, aber dynamisch. 2014 gab es nur zwei Organisationen, die Forschungstätigkeiten in diesem Bereich öffentlich deklarierten: das Future of Humanity Institute und das Machine Intelligence Research Institute. Heute gibt es Dutzende von Organisationen, darunter Google und Microsoft, die hier tätig sind. Französische Forscher haben, um die Risiken von KI in den Griff zu bekommen, die Schaffung von «künstlicher Dummheit» vorgeschlagen: Durch eine Verknappung der Hardware-Ressourcen, die einer künstlich intelligenten Software zur Verfügung stehen, sollen Fehlentwicklungen begrenzt werden.

Diffuse Ängste

Wenn es um die Gefahren der KI geht, kommt das Gespräch meist sehr schnell auf die Killerroboter. Doch Fehler im Autopiloten eines populären Autos oder Bugs in künstlich intelligenten Diagnosesystemen, auf die sich viele Ärzte verlassen, könnten schneller als mit Kanonen bestückte Drohnen Menschen töten. Mehr als die Boshaftigkeit von KI-Entwicklern sollte man ihre Schlampigkeit fürchten.

Im Februar haben sich Sicherheitsexperten in Räumen der Oxford University getroffen, um die «Landschaft der potenziellen Sicherheitsbedrohungen durch KI» zu vermessen. Der rund 100-seitige Bericht, den die Experten publiziert haben, ist wohltuend unaufgeregt. Die Schlussfolgerungen sind allerdings fast ein bisschen zu unaufgeregt: Sie sollten sich vermehrt über die Gefahren der KI Gedanken machen, bekommen die Computerwissenschafter zu hören, sie sollten mit den Wissenschaftern das Gespräch suchen, wird den Politikern nahegelegt.

Das Thema KI-Sicherheit ist zu wichtig, um allein den KI-Wissenschaftern und den Politikern überlassen zu werden. Damit eine gesellschaftlich breit abgestützte Debatte in Gang kommen kann, ist es aber notwendig, eine gemeinsame Vorstellung von KI zu entwickeln, sich auf ein Thema zu einigen.