Erweiterte Suche

Digitalisierung & KI

Standpunkte Mehr Mut zur KI-Ethik

Mark Coeckelbergh (links) und Thomas Metzinger (rechts)
Mark Coeckelbergh (links) und Thomas Metzinger (rechts)

Zwei Ethiker aus der Hochrangigen Expertengruppe zur Künstlichen Intelligenz ziehen Bilanz: Die Europäische Kommission scheint sich zwar im Ansatz ihrer KI-Politik der Ethik verpflichtet zu fühlen, ignoriert aber die Warnungen der eigenen Experten.

von Mark Coeckelbergh und Thomas Metzinger

veröffentlicht am 14.04.2020

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen

Als die Europäische Kommission am 19. Februar ihr „Weißbuch zur Künstlichen Intelligenz“ veröffentlichte, machte sich unter vielen Mitgliedern der Hochrangigen Expertengruppe zur Künstlichen Intelligenz (HLEG AI) Enttäuschung breit. Zu vage, zu früh, zu unverbindlich, zu unrealistisch. Entscheidende Punkte wurden ausgeklammert oder schlicht und einfach entfernt. Manche fragten sogar: Wofür hat die HLEG AI eigentlich anderthalb Jahre gearbeitet, wenn jetzt ihre detaillierten Vorschläge zum größten Teil ignoriert oder nur im Vorbeigehen erwähnt werden? Als Ethik-Experten finden wir, dass das Weißbuch eine ganze Reihe von starken Punkten enthält – aber deutlich weniger, als wir gerne gesehen hätten.

Trotz allem noch: Vertrauenswürdigkeit

Das Gute zuerst. Es ist ermutigend, dass die Kommission weiterhin am Ideal der „Vertrauenswürdigkeit“ und damit, wenn auch nur indirekt, an einem Ethik-basierten Ansatz festhält. Nur wissen mittlerweile alle Teilnehmer an der globalen KI-Debatte um die grundlegenden begrifflichen Probleme, wenn man eine Technologie – im Gegensatz zu den Menschen, die sie einsetzen – als „vertrauenswürdig“ bezeichnet. KI-Systeme könnten durchaus robust, zuverlässig und weitgehend transparent sein und trotzdem auf eine Weise zum Einsatz kommen, die den Intentionen des Weißbuchs widerspricht, zum Beispiel durch europäische Regierungen wie die in Ungarn oder Polen, aber auch durch amerikanische Großunternehmen wie Facebook oder Google. Trotzdem ist das betonte Festhalten am Ideal der Vertrauenswürdigkeit aus ethischer Perspektive lobenswert.

Verschmelzung des European Green Deal mit der KI-Strategie

Ein zweites positives Merkmal ist die Fokussierung des Dokumentes auf die Themen Klimawandel, Nachhaltigkeit und den Schutz natürlicher Ressourcen. Die Kommission hat die historische Gelegenheit der bereits rollenden Klimakatastrophe klar erkannt und will massive Synergien zwischen der KI-Forschung und dem „European Green Deal“ systematisch ausnutzen. Wenn es tatsächlich gelingt, den Green Deal zusammen mit der Entwicklung von „Trustworthy AI made in Europe“ zu implementieren, dann wird bald die ganze Welt intelligente, in der EU produzierte Umwelttechnologie kaufen wollen. Europa hat hier die Chance, voranzugehen und ein echtes wirtschaftliches Alleinstellungsmerkmal zu entwickeln.

In der vergangenen Woche hat Ursula von der Leyen in Reaktion auf die Covid-19-Krise, einen „Marshall-Plan für Europa“ vorgeschlagen. Wir denken, dass alle drei Ziele jetzt unter einer substantiellen und konsistenten normativen Vision integriert werden sollten: „Trustworthy AI“ und der „European Green Deal“ könnten die ethische fundierte Basis für die wirtschaftliche Erholungsphase nach dem Coronavirus werden.

Risiken bewerten bevor sie entstehen oder importiert werden

Als Ethiker denken wir, dass der inhaltlich stärkste Vorschlag im Dokument die obligatorische ex ante Konformitätsbewertung für KI-Technologien ist, die auf dem europäischen Markt an europäische Kunden verkauft werden sollen, unabhängig vom Ort der Niederlassung der jeweiligen Firmen. Dies steht in Einklang mit einem klassischen Prinzip der Technologieethik und jeder verantwortungsvollen Innovationsforschung: Es ist am besten, die ethischen Normen bereits in der Entwicklungsphase mit „einzubauen“, und die Konformitätsbewertung könnte diesen Vorgang simulieren.

Hochproblematisch ist jedoch, dass dieses Vorgehen nur für „Hochrisikosektoren“ vorgeschlagen wird. Die Unterscheidung zwischen Sektoren mit „hohem“ und „niedrigem“ Risiko ist viel zu grobkörnig und undifferenziert. Sie könnte sie sich als Trojanisches Pferd entpuppen: Alles was nicht eindeutig als „hochriskant“ ausgezeichnet wird, könnte nun nach Europa eingeschmuggelt werden und seine unerwartete schädliche Wirkung erst mittelfristig oder in unerwarteten Anwendungsfeldern entfalten.

Endlich erkannt: Die psychologischen Risiken der KI

Das führt uns zu einer weiteren Stärke: Die Autoren des Weißbuchs sind wirklich innovativ, nämlich in der Anerkennung „psychischer Sicherheitsrisiken“. Mit ihren durch Wut und soziale Spaltung angetriebenen Geschäftsmodellen setzen große US-Konzerne wie Facebook die geistige Gesundheit europäischer Bürger aufs Spiel. Sie untergraben nicht nur den gesellschaftlichen Zusammenhalt, sie benutzen KI auch, um Nutzer schrittweise immer vorhersagbarer zu machen, um ihre Aufmerksamkeitsressourcen zu extrahieren und weltweit zu verkaufen. Facebook-KI ist keine vertrauenswürdige KI. Europa ist von Raubtieren umzingelt, dies gilt nicht nur in wirtschaftlicher, sondern auch in psychologischer Hinsicht, und die Kommission beginnt, diese Tatsache zu erkennen.

Die europäische Antwort sollte nicht darin bestehen, sich jetzt in einen weiteren „daten-agilen“ Überwachungshai zu verwandeln. Stattdessen müssen Innovationsanreize geschaffen werden, die die geistige Gesundheit, Privatsphäre und Autonomie seiner Bürger in den Vordergrund stellen und den Schutz des gesellschaftlichen Zusammenhalts einfordern.

Der sektorspezifische Ansatz ist hochproblematisch

Insbesondere vor dem Hintergrund der vagen und unverbindlichen Formulierungen sollten uns die Stärken des Weißbuchs nicht den Blick auf eine Reihe von größeren ethischen Problemen und Auslassungen verstellen.

Ein Punkt gefährdet den Kern der vorgeschlagenen politischen Strategie: Der sektorspezifische Ansatz in Kombination mit einer vorsätzlich simplistischen Unterscheidung zwischen Bereichen hohen und niedrigen Risikos. Es gibt keinen guten Grund dafür, einzelne Sektoren zu isolieren, weil attraktive KI-Anwendungen Grenzen leicht überspringen und ethisch sensible Anwendungskontexte sich über alle Sektoren hinweg finden. Zudem gibt es viele verschiedene Arten von Risiken, und ihre Gefährlichkeit entwickelt und verändert sich über die Zeit hinweg. Unser allgemeiner Eindruck ist, dass die Autoren des Weißbuchs streng bezüglich mancher öffentlichen Sektoren wie Gesundheit und Mobilität sein wollen, während sie den Privatsektor weitgehend unangetastet lassen wollen.

Europa muss eine neue Generation von KI-Ethikern ausbilden

Wir unterstützen uneingeschränkt die Idee eines paneuropäischen „Ökosystems für Exzellenz“. Aber die Kommission scheint nicht zu verstehen, dass wir in den kommenden Jahrzehnten viele hundert erstklassig ausgebildete Experten in der KI-Ethik brauchen werden, damit dieses Ökosystem funktioniert. Wir benötigen auch „Ethische Exzellenz“: Große Unternehmen benötigen glaubwürdige und unabhängige Ethiker als interne Experten. Und die politischen Institutionen eine ganze neue Generation von brillanten jungen Leuten, die eine strenge, interdisziplinäre Ausbildung in Philosophie, Ethik, und Künstlicher Intelligenz durchlaufen haben. Leider ignoriert die Kommission, dass die Hochrangige Expertengruppe in ihren Investitions- und Politikempfehlungen die Einrichtung von 720 Lehrstühlen für KI-Ethik gefordert hat, einen für jede wichtige europäische Universität.

Wohin ist die Ethik verschwunden?

Es scheint als ob die Ethik für die Kommission jede Bedeutung verloren hat. Das wird deutlich, wenn man betrachtet, wie weitreichend das Ausmaß ist, in dem jede substantiellere ethische Positionierung im Dokument beseitigt worden ist. In Wesentlichen stimmt das Weißbuch mit der US-amerikanischen Linie überein, die sagt: „Ethik wird entweder von der Industrie selbst gemacht, oder es wird keine Ethik geben.“ Am Anfang sollte die Ethik primär als elegante öffentliche Dekoration für eine groß angelegte Investitionsstrategie benutzt werden; jetzt ist sie dann fast vollständig abwesend. Das verstößt gegen den Geist der europäischen Generalstrategie, von der wir dachten, dass sie einen echten ethischen Ansatz beinhaltet.

Die zweite Auslassung betrifft die Nutzung der KI für militärische Zwecke, das Stichwort heißt „Lethal Autonomous Weapon Systems”. Das im Weißbuch formulierte Ideal des „Vorrangs menschlichen Handelns und menschlicher Aufsicht” und der Eingriffsmöglichkeit in Echtzeit. Dies wird schnell über Bord gehen, wenn die EU in ein KI-Wettrüsten eintritt. Das aktuelle Dokument ignoriert die Frage vollständig, was unseren dringenden Verdacht erregt. Hat die Rüstungsindustrie bereits erfolgreich in diesem Vorgang interveniert? Ganz egal, was wir als Ethiker darüber denken mögen – die demokratisch legitimierten Stellvertreter der europäischen Bürger erwarten hier klarerweise und sehr bald eine bindende Verpflichtungserklärung, die sie vor den Interessen der Rüstungsindustrie schützt.

Die Experten wurden ignoriert

Schließlich war es enttäuschend, dass das Weißbuch ohne jeden direkten Input der Hochrangigen Expertengruppe entwickelt wurde. Die Autoren haben es nicht nur veröffentlicht, ohne unsere abschließenden Ergebnisse abzuwarten, sie waren nicht einmal höflich genug, es uns auch nur zuzusenden – wir mussten in den Medien davon erfahren. Den Mitgliedern der HLEG AI zeigt dies deutlich, wie unwichtig wir in Wirklichkeit sind. Das führt uns zu der traurigen Schlussfolgerung, dass die sehr wenigen Ethiker unter den 52 Mitgliedern der europäischen KI-Expertengruppe niemals mehr gewesen sind als ein Feigenblatt.

Thomas Metzinger ist Philosophieprofessor an der Universität Mainz und vertritt in der Hochrangigen Expertengruppe (HLEG AI) die 850 europäischen Universitäten der Europäischen Universitätsvereinigung (EUA).

Der belgische Philosoph Mark Coeckelbergh ist Professor für Medien- und Technikphilosophie an der Universität Wien und ebenfalls Mitglied der HLEG AI. Sein Buch „AI Ethics“ ist vor kurzem im „MIT Press“-Verlag erschienen. 

Der Beitrag ist hier auf Englisch erschienen. 

Lernen Sie den Tagesspiegel Background kennen

Sie lesen einen kostenfreien Artikel vom Tagesspiegel Background. Testen Sie jetzt unser werktägliches Entscheider-Briefing und erhalten Sie exklusive und aktuelle Hintergrundinformationen für 30 Tage kostenfrei.

Jetzt kostenfrei testen
Sie sind bereits Background-Kunde? Hier einloggen