Schon heute entscheiden Algorithmen, welche Werbung jemand auf Facebook eingeblendet bekommt oder welche Preise auf Amazon erscheinen. Durch künstliche Intelligenz können Systeme auch in Bewerbungsprozessen eine Vorauswahl treffen, Kundenanfragen kategorisieren oder bestimmen, welche Person einen Kredit erhält und welche nicht.

Das muss erst einmal nicht schlecht sein, weil solche Technologien Menschen unterstützen und sie schneller Entscheidungen treffen können. Im schlimmsten Fall können die Systeme den Alltag von Bürgerinnen und Bürgern allerdings massiv beeinträchtigen, etwa wenn Regierungen künstliche Intelligenz zur vollständigen Überwachung und Kontrolle ihrer Bürger verwenden (wie es China mit dem Social-Credit-System plant) oder wenn Entscheidungen auf Basis von fehlerhaften Daten getroffen werden.

Wie also könnte ein ethischer Umgang mit künstlicher Intelligenz aussehen? Über diese Frage haben 52 Expertinnen und Experten im Auftrag der EU-Kommission monatelang diskutiert. Am Montag haben sie entsprechende Richtlinien vorgestellt. In dem knapp 40-seitigen Papier fordern sie eine vertrauenswürdige künstliche Intelligenz, deren Funktionsweise nicht gegen Gesetze verstößt, in der ethische Prinzipien berücksichtigt sind und die auf einem robusten technischen und gesellschaftlichen Rahmen beruht.

Checkliste für künstliche Intelligenz

Mit ihren ethischen Richtlinien will sich die EU-Kommission von China und den USA absetzen. Die beiden Nationen liefern sich derzeit einen Wettstreit, wer die weltweite Führungsrolle in der Entwicklung und beim Einsatz künstlicher Intelligenz einnimmt. Auch die Europäische Union sieht enormes Potenzial in der Technologie. Europa müsse präsent sein in dem Feld der künstlichen Intelligenz, sagte Roberto Viola, Generaldirektor der Generaldirektion Kommunikationsnetze, Inhalte und Technologien, vor der Veröffentlichung der Richtlinien in Berlin. Man müsse sich aber der Vorteile, der Risiken und der Herausforderungen bewusst sein, so Viola. Während in China die Technologie eher vom Staat kontrolliert sei und in den USA eher von Unternehmen getrieben werde, wolle man in der EU eine künstliche Intelligenz, die die Rechte und Bedürfnisse des Menschen berücksichtige. "Wir haben versucht, unsere Richtlinien so integrativ wie möglich zu gestalten", sagte der Generaldirektor.

In dieser Aussage spiegelt sich die schwierige Abwägung der Europäischen Union wider: Sie will einerseits der Industrie ermöglichen, künstliche Intelligenz zu entwickeln, und sie dabei auch finanziell unterstützen, um nicht wieder einmal eine wichtige technologische Neuerung zu verpassen. Andererseits sollen sich die Unternehmen an bestimmte Regeln halten, sodass die Interessen von Privatpersonen abgedeckt sind und auch die Interessen der Zivilgesellschaft gewahrt bleiben. Im Prinzip erhoffen sich die Politikerinnen und Politiker eine ähnliche Wirkung, wie sie sie durch die Datenschutz-Grundverordnung (DSGVO) erzielt haben: dass andere Länder nach Europa schauen und die dort geltenden Regelungen als Maßstab dient (auch wenn das Interesse zumindest bei der DSGVO bisher vor allem theoretisch ist). "Europa steht für eine Marke, und die heißt Vertrauen", sagte Viola.

Unternehmen, Organisationen oder Länder, die künstliche intelligente Systeme entwickeln, sollen dem jetzt veröffentlichten Papier zufolge daher vier Grundprinzipien einhalten: Künstliche Intelligenz soll die menschliche Autonomie respektieren, gesellschaftlichen Schaden vermeiden, fair agieren und erklärbar bleiben. Diese allgemeinen Prinzipien konkretisieren die Expertinnen und Experten in weiteren Anforderungen für eine auf den Menschen fokussierte künstliche Intelligenz. So sollen Personen etwa das Recht darauf haben, dass eine Entscheidung nicht völlig automatisiert getroffen wird, wenn diese sie benachteiligt. Bei der Kreditvergabe könnte das zum Beispiel bedeuten, dass ein Kunde ein Recht darauf behält, mit einer Bankmitarbeiterin zu sprechen, wenn sein Kredit abgelehnt wird.

Auch sollen die Systeme Menschen nicht diskriminieren und dazu präventiv so entwickelt werden, dass man die Gefahr unbeabsichtigter Folgen minimiert. Ein Unternehmen müsste vor dem Einsatz dann beispielsweise testen, ob die künstliche Intelligenz bestimmte Personengruppen benachteiligt oder abwertet. Wie wichtig das sein kann, verdeutlicht ein Beispiel von Google: Der Bilderalgorithmus der Suchmaschine erkannte schwarze Menschen nicht als Menschen, sondern ordnete sie als Gorillas ein.  

Für die Umsetzung empfehlen die EU-Experten daher unter anderem, Systeme vor dem Einsatz zu testen und die Vollständigkeit der Daten zu berücksichtigen. Diskriminierungen wie im Fall von Google könnten etwa durch diverse Datensätze verringert werden, in dem ein Unternehmen ein System beispielsweise mit Fotos von Menschen weltweit trainiert. Die Expertinnen raten zusätzlich zu weiteren Maßnahmen: So kann ein diverses Team bei der Vermeidung solcher Fehler hilfreich sein, genauso ein gesellschaftlicher Dialog oder Weiterbildung sowohl von Mitarbeitern als auch von Bürgerinnen.