Wir entscheiden, was böse ist – Seite 1

Manchmal reagieren Chefs auch auf Erpressung durch Untergebene: Vor rund zwei Monaten gelangte ein intern kursierender Brief der Google-Mitarbeiter, den mittlerweile 4.500 Beschäftigte unterschrieben haben sollen, an die Öffentlichkeit. Darin kritisierten die Angestellten die lange geheim gehaltene Entscheidung der Firmenspitze, am sogenannten Project Maven des US-Militärs mitzuarbeiten. Dabei geht es im Kern darum, künstliche Intelligenz beim Durchforsten von Aufklärungsbildern einzusetzen. Die beiden Hauptforderungen der Unterzeichner des Protestbriefes lauteten: Google solle erstens aus dem Project Maven aussteigen und zweitens eine "klare Strategie" formulieren und publizieren, die besagen solle, "dass weder Google noch seine Vertragspartner jemals Kriegstechnologie bauen werden". 

Die erste Forderung erfüllte Google vor wenigen Tagen, die zweite nun nur halb: Pinchai hat am Donnerstag einen Blogpost veröffentlicht, in dem er dem eigenen Unternehmen zwar ethische Grundsätze bei der Entwicklung von künstlicher Intelligenz (KI) auferlegt – doch künftige Geschäfte mit dem Militär nicht ausschließt.

Der mit AI at Google: our principles (KI bei Google: unsere Prinzipien) überschriebene Text ist für einen Firmenchef ein erstaunliches Dokument. Allein deshalb, weil Pinchai gar nicht erst versucht, der öffentlichen Auseinandersetzung mit der eigenen Unternehmenspolitik aus dem Weg zu gehen. Einerseits gehorcht Pinchai damit schlicht den Gepflogenheiten des Silicon Valley, wo man zumindest vorgibt, mit den eigenen Beschäftigten jederzeit offen zu kommunizieren. Andererseits bestätigt Pinchai mit der Veröffentlichung seiner Thesen nun implizit die Macht, die Google als eines der führenden Unternehmen in der KI-Forschung besitzt: Die Entscheidungen, die dort gefällt werden, könnten die Leben von unzähligen Menschen auf der ganzen Welt verändern. Und das beginnt nur damit, dass spezifisch programmierte KIs bald ganze Berufsstände überflüssig machen könnten.

"Nutzen" lässt sich schwerlich hypothetisch betrachten

Darauf jedoch geht Pinchai in seinem Text nicht ein. Stattdessen stellt er seinen "Prinzipien" die Verheißungen künstlicher Intelligenz voran, die Fortschritte etwa bei der Krebsdiagnostik und Früherkennung möglicher weiterer Erkrankungen durch maschinelle Analyseverfahren. Doch sobald es tatsächlich um ethische Fragen geht, kann oder will Pinchai keine konkreten Aussagen treffen.

Schon das erste Prinzip, der Gesellschaft von Nutzen zu sein ("be socially beneficial"), zeigt ein grundsätzliches Problem bei der Einordnung von Technologien, die größtenteils noch gar nicht zur Verfügung stehen, sondern sich im Stadium der guten Idee befinden: "Nutzen" lässt sich schwerlich hypothetisch betrachten. Erst wenn etwas da ist, lässt sich dessen Nutzen abwägen. Und weil wie bei vielen Erfindungen der Tech-Welt auch bei künstlicher Intelligenz zunächst vor allem eine Effizienzsteigerung von Prozessen absehbar und erwünscht ist, wird es ethisch gleich furchtbar schwierig: Die Ideologie des Silicon Valley (und Pinchais Text spiegelt sie eindeutig wieder) beschreibt jede Verbesserung von Effizienz als prinzipiell gut. Ärzte, deren Aufgabe bei der Früherkennung eben zum Beispiel von Krebs bislang eine oft überlebenswichtige für Patienten ist, werden den Einsatz von KI auf ihrem Feld ethisch dagegen differenzierter betrachten. Nicht nur weil sie fürchten müssen, die Hoheit darüber zu verlieren, Diagnosen zu stellen.

Die weiteren sechs der insgesamt sieben Ethikprinzipien, die Pinchai auflistet, beschreiben eigentlich Selbstverständlichkeiten. Dass Algorithmen zum Beispiel frei von Voreingenommenheiten programmiert sein sollten gegenüber ethnischer Zugehörigkeit, Geschlecht und sexueller Orientierung von potentiellen Nutzerinnen und Nutzern, sollte außerhalb jeder Diskussion stehen. Doch solange Algorithmen von Menschen erstellt werden, ist deren Neutralität tatsächlich gar nicht notwendigerweise gewährleistet. KI-Systeme von Google sollten zudem sicher sein, höchsten wissenschaftlichen Ansprüchen genügen und die Privatsphäre von Nutzern respektieren. Diese Punkte als ethische Grundsätze verstanden wissen zu wollen, wirkt dann doch fast putzig. Denn eigentlich fallen sie unter das, was man so Produktversprechen nennt. Doch weil das von Tech-Firmen zuletzt häufiger enttäuscht wurde, deshalb wohl stehen diese Zusicherungen in dieser "Prinzipien"-Liste.

Die eigentlich ethische Diskussion hat Pinchai sich für den Schluss seines Textes aufgehoben, in dem er das Grunddilemma einer Technologie wie KI beschreibt: Sie ist auf geradezu unendlich vielfältige Weise einsetzbar, unter anderem auch für militärische Zwecke. Pinchai betont zunächst, Google wolle die Zahl "potentiell schädlicher oder missbräuchlicher Anwendungen" von künstlicher Intelligenz begrenzen. Faktoren seien dabei unter anderem, welchen unmittelbaren Zweck die Anwendungen hätten und wie groß ihre erwartbare Verbreitung sei.

Zusammenarbeit mit dem Militär nicht ausgeschlossen

Ähnlich wie der mögliche Nutzen ist aber auch der potenzielle Schaden, den eine weitgehend erst in der Entwicklung befindliche Technologie haben könnte, nicht messbar. Vor allem aber hält Pinchai genau nicht, was er verspricht: Er definiert nicht, was der Nutzen und der Schaden von KI sein könnte, mithin ist sein der Form nach Manifest erstaunlich frei von Festlegungen, die man im weitesten Sinne als ethisch bezeichnen könnte. Das alte und vor kurzem aus dem Verhaltenskodex entfernte Firmenmotto "Don't be evil" könnte man nach Lektüre des Blogposts ersetzen durch: "Wir entscheiden situativ, was wir für böse halten."

So lässt sich zumindest verstehen, was Pinchai über die weitere Zusammenarbeit Googles mit dem Militär schreibt. Die schließt er explizit nicht aus, im Gegenteil, man wolle etwa in den Bereichen Cybersecurity, Rekrutierung und Ausbildung von Soldaten weiter kooperieren. Lediglich an der Entwicklung und dem Betrieb von Waffensystemen, deren hauptsächlicher Zweck "das Verletzen von Menschen" sei, werde man sich nicht beteiligen. Ebenso werde man keine Technologien unterstützen, die dafür gemacht seien, "Informationen zum Zwecke der Überwachung auf eine Weise zu sammeln oder zu verwenden, die gegen international akzeptierte Normen" verstoße.

Nach diesen Maßgaben hätte Google eigentlich gar nicht aus dem US-Militärprojekt Maven aussteigen müssen. Denn das besteht darin, eine KI die Videobilder aus den Kameras unbewaffneter Aufklärungsdrohnen nach möglichen militärischen Zielen durchsuchen zu lassen. Menschlichen Analysten werden diese Bilder dann gezeigt, und die entscheiden, ob Kampfflugzeuge oder bewaffnete Drohnen losgeschickt werden, um das Objekt zu zerstören. Gemäß der Aussagen von Pinchai könnte man schließen: Weil im Rahmen von Project Maven nur Aufklärung geleistet wird und weder bedenkliche Überwachung noch direkte Angriffe durchgeführt werden, wäre Googles Beteiligung höchstens deshalb ethisch bedenklich, weil sich die Firma mittelbar an kriegerischen Maßnahmen auch gegen Menschen beteiligt. Es ist eben alles eine Definitionsfrage: Bereitet das Auffinden eines potentiellen Ziels implizit bereits dessen Zerstörung vor – oder sind die beiden Vorgänge getrennt voneinander zu betrachten?

Was Sundar Pinchais Mitarbeiter von diesen nunmehr formulierten ethischen Standards ihres obersten Chefs halten, wird man mutmaßlich bald erfahren. Es ist jedenfalls schwer vorstellbar, dass mit Pinchais Blogpost die Diskussionen bei Google beendet sind.