Wir entscheiden, was böse ist – Seite 1
Manchmal reagieren Chefs auch auf Erpressung durch Untergebene: Vor rund zwei Monaten gelangte ein intern kursierender
Brief der Google-Mitarbeiter, den mittlerweile 4.500 Beschäftigte
unterschrieben haben sollen, an die Öffentlichkeit. Darin kritisierten die
Angestellten die lange geheim gehaltene Entscheidung der Firmenspitze, am
sogenannten Project Maven des US-Militärs mitzuarbeiten. Dabei geht es im Kern
darum, künstliche Intelligenz beim Durchforsten von Aufklärungsbildern
einzusetzen. Die beiden Hauptforderungen der Unterzeichner des Protestbriefes
lauteten: Google solle erstens aus dem Project Maven aussteigen und zweitens
eine "klare Strategie" formulieren und publizieren, die besagen solle, "dass
weder Google noch seine Vertragspartner jemals Kriegstechnologie bauen werden".
Die erste Forderung erfüllte Google vor wenigen Tagen, die zweite nun nur halb:
Pinchai hat am Donnerstag einen Blogpost veröffentlicht, in dem er dem eigenen
Unternehmen zwar ethische Grundsätze bei der Entwicklung von künstlicher
Intelligenz (KI) auferlegt – doch künftige Geschäfte mit dem Militär nicht
ausschließt.
Der mit AI at Google: our principles (KI bei Google: unsere Prinzipien) überschriebene Text ist für einen Firmenchef ein erstaunliches Dokument. Allein deshalb, weil Pinchai gar nicht erst versucht, der öffentlichen Auseinandersetzung mit der eigenen Unternehmenspolitik aus dem Weg zu gehen. Einerseits gehorcht Pinchai damit schlicht den Gepflogenheiten des Silicon Valley, wo man zumindest vorgibt, mit den eigenen Beschäftigten jederzeit offen zu kommunizieren. Andererseits bestätigt Pinchai mit der Veröffentlichung seiner Thesen nun implizit die Macht, die Google als eines der führenden Unternehmen in der KI-Forschung besitzt: Die Entscheidungen, die dort gefällt werden, könnten die Leben von unzähligen Menschen auf der ganzen Welt verändern. Und das beginnt nur damit, dass spezifisch programmierte KIs bald ganze Berufsstände überflüssig machen könnten.
"Nutzen" lässt sich schwerlich hypothetisch betrachten
Darauf jedoch geht Pinchai in seinem Text nicht ein.
Stattdessen stellt er seinen "Prinzipien" die Verheißungen künstlicher
Intelligenz voran, die Fortschritte etwa bei der Krebsdiagnostik und
Früherkennung möglicher weiterer Erkrankungen durch maschinelle
Analyseverfahren. Doch sobald es tatsächlich um ethische Fragen geht, kann oder
will Pinchai keine konkreten Aussagen treffen.
Schon das erste Prinzip, der Gesellschaft von Nutzen
zu sein ("be socially beneficial"), zeigt ein grundsätzliches Problem bei der
Einordnung von Technologien, die größtenteils noch gar nicht zur Verfügung
stehen, sondern sich im Stadium der guten Idee befinden: "Nutzen" lässt sich
schwerlich hypothetisch betrachten. Erst wenn etwas da ist, lässt sich dessen
Nutzen abwägen. Und weil wie bei vielen Erfindungen der Tech-Welt auch bei
künstlicher Intelligenz zunächst vor allem eine Effizienzsteigerung von
Prozessen absehbar und erwünscht ist, wird es ethisch gleich furchtbar
schwierig: Die Ideologie des Silicon Valley (und Pinchais Text spiegelt sie
eindeutig wieder) beschreibt jede Verbesserung von Effizienz als prinzipiell
gut. Ärzte, deren Aufgabe bei der Früherkennung eben zum Beispiel von Krebs
bislang eine oft überlebenswichtige für Patienten ist, werden den Einsatz von
KI auf ihrem Feld ethisch dagegen differenzierter betrachten. Nicht nur
weil sie fürchten müssen, die Hoheit darüber zu verlieren, Diagnosen zu stellen.
Die weiteren sechs der insgesamt sieben
Ethikprinzipien, die Pinchai auflistet, beschreiben eigentlich
Selbstverständlichkeiten. Dass Algorithmen zum Beispiel frei von Voreingenommenheiten
programmiert sein sollten gegenüber ethnischer Zugehörigkeit, Geschlecht und
sexueller Orientierung von potentiellen Nutzerinnen und Nutzern, sollte
außerhalb jeder Diskussion stehen. Doch solange Algorithmen von Menschen
erstellt werden, ist deren Neutralität tatsächlich gar nicht notwendigerweise
gewährleistet. KI-Systeme von Google sollten zudem sicher sein, höchsten wissenschaftlichen Ansprüchen genügen und die Privatsphäre
von Nutzern respektieren. Diese Punkte als ethische Grundsätze verstanden
wissen zu wollen, wirkt dann doch fast putzig. Denn eigentlich fallen sie unter
das, was man so Produktversprechen nennt. Doch weil das von Tech-Firmen zuletzt
häufiger enttäuscht wurde, deshalb wohl stehen diese Zusicherungen in dieser
"Prinzipien"-Liste.
Die eigentlich ethische Diskussion hat Pinchai sich
für den Schluss seines Textes aufgehoben, in dem er das Grunddilemma einer
Technologie wie KI beschreibt: Sie ist auf geradezu unendlich vielfältige Weise
einsetzbar, unter anderem auch für militärische Zwecke. Pinchai betont
zunächst, Google wolle die Zahl "potentiell schädlicher oder missbräuchlicher
Anwendungen" von künstlicher Intelligenz begrenzen. Faktoren seien dabei unter
anderem, welchen unmittelbaren Zweck die Anwendungen hätten und wie groß ihre
erwartbare Verbreitung sei.
Zusammenarbeit mit dem Militär nicht ausgeschlossen
Ähnlich wie der mögliche Nutzen ist aber auch der
potenzielle Schaden, den eine weitgehend erst in der Entwicklung befindliche
Technologie haben könnte, nicht messbar. Vor allem aber hält Pinchai genau
nicht, was er verspricht: Er definiert nicht, was der Nutzen und der Schaden
von KI sein könnte, mithin ist sein der Form nach Manifest erstaunlich frei von
Festlegungen, die man im weitesten Sinne als ethisch bezeichnen könnte. Das
alte und vor kurzem aus dem Verhaltenskodex entfernte Firmenmotto "Don't be evil" könnte man nach Lektüre des Blogposts ersetzen
durch: "Wir entscheiden situativ, was wir für böse halten."
So lässt sich zumindest verstehen, was Pinchai über
die weitere Zusammenarbeit Googles mit dem Militär schreibt. Die schließt er
explizit nicht aus, im Gegenteil, man wolle etwa in den Bereichen
Cybersecurity, Rekrutierung und Ausbildung von Soldaten weiter kooperieren.
Lediglich an der Entwicklung und dem Betrieb von Waffensystemen, deren
hauptsächlicher Zweck "das Verletzen von Menschen" sei, werde man sich nicht
beteiligen. Ebenso werde man keine Technologien unterstützen, die dafür gemacht
seien, "Informationen zum Zwecke der Überwachung auf eine Weise zu sammeln oder
zu verwenden, die gegen international akzeptierte Normen" verstoße.
Nach diesen Maßgaben hätte Google eigentlich gar nicht
aus dem US-Militärprojekt Maven aussteigen müssen. Denn das besteht darin, eine
KI die Videobilder aus den Kameras unbewaffneter Aufklärungsdrohnen nach
möglichen militärischen Zielen durchsuchen zu lassen. Menschlichen Analysten
werden diese Bilder dann gezeigt, und die entscheiden, ob Kampfflugzeuge oder
bewaffnete Drohnen losgeschickt werden, um das Objekt zu zerstören. Gemäß der
Aussagen von Pinchai könnte man schließen: Weil im Rahmen von Project Maven nur
Aufklärung geleistet wird und weder bedenkliche Überwachung noch direkte
Angriffe durchgeführt werden, wäre Googles Beteiligung höchstens deshalb
ethisch bedenklich, weil sich die Firma mittelbar an kriegerischen Maßnahmen
auch gegen Menschen beteiligt. Es ist eben alles eine Definitionsfrage:
Bereitet das Auffinden eines potentiellen Ziels implizit bereits dessen
Zerstörung vor – oder sind die beiden Vorgänge getrennt voneinander zu
betrachten?
Was Sundar Pinchais Mitarbeiter von diesen nunmehr formulierten ethischen Standards ihres obersten Chefs halten, wird man mutmaßlich bald erfahren. Es ist jedenfalls schwer vorstellbar, dass mit Pinchais Blogpost die Diskussionen bei Google beendet sind.
Manchmal reagieren Chefs auch auf Erpressung durch Untergebene: Vor rund zwei Monaten gelangte ein intern kursierender
Brief der Google-Mitarbeiter, den mittlerweile 4.500 Beschäftigte
unterschrieben haben sollen, an die Öffentlichkeit. Darin kritisierten die
Angestellten die lange geheim gehaltene Entscheidung der Firmenspitze, am
sogenannten Project Maven des US-Militärs mitzuarbeiten. Dabei geht es im Kern
darum, künstliche Intelligenz beim Durchforsten von Aufklärungsbildern
einzusetzen. Die beiden Hauptforderungen der Unterzeichner des Protestbriefes
lauteten: Google solle erstens aus dem Project Maven aussteigen und zweitens
eine "klare Strategie" formulieren und publizieren, die besagen solle, "dass
weder Google noch seine Vertragspartner jemals Kriegstechnologie bauen werden".