Schon heute operieren Roboter Menschen, Autos fahren von selbst, Algorithmen vergeben Kredite. Wie viel Macht sollen künstliche Intelligenzen haben? Was, wenn sie Fehler machen, Unfälle bauen, Menschen diskriminieren und überwachen? Die Technologien fördern, aber Ethik und Datenschutz wahren – wie das Arbeitsministerium das schaffen will, erklärt Staatssekretär Björn Böhning.

ZEIT ONLINE: Ein TÜV für künstliche Intelligenz soll kommen, war vergangene Woche zu lesen. Was ist damit gemeint?

Björn Böhning: Wir haben ja 2018 in der KI-Strategie der Bundesregierung festgelegt, dass wir ein deutsches Observatorium für Anwendungen von künstlicher Intelligenz aufbauen wollen. Dessen Aufgabe: In einem strukturierten Prozess die technologischen Entwicklungen von KI und deren Folgen beobachten und analysieren. Damit starten wir jetzt.

ZEIT ONLINE: Wie genau?

Björn Böhning ist Staatssekretär im Bundesministerium für Arbeit und Soziales, wo das KI-Observatorium angesiedelt ist. © J. Konrad Schmidt/​BMAS

Böhning: Wir werden schauen, wo Chancen und Potenziale künstlicher Intelligenz liegen, wo wir sie ausbauen können und wie wir den Transfer etwa in die Betriebe beschleunigen können. Eine wichtige Frage dabei: Welche Risiken liegen in dieser Technologie und wie gehen wir künftig damit um?

ZEIT ONLINE: Unter einem TÜV stellen sich viele eine Prüfstelle vor, die etwas zertifiziert – wie beim Auto eben. Tatsächlich setzen Sie vorher an und schauen, welche Regulierung es für KI bräuchte und was ein geeigneter Rahmen wäre. Korrekt?

Böhning: Wir gehen in mehreren Schritten vor. Zuerst untersuchen wir, wie weit die Durchdringung mit künstlicher Intelligenz hierzulande ist, was sie derzeit überhaupt kann und wo sie eingesetzt wird. Daraus wollen wir Vorschläge für einen Ordnungsrahmen ableiten. Das ist noch kein TÜV wie fürs Auto. Aber wenn ich mir zum Beispiel den Vorschlag der Datenethik-Kommission für eine Risikopyramide anschaue, die unterschiedliche Ebenen für die Regulierung vorsieht, komme ich immer mehr zu dem Schluss, dass wir so etwas brauchen werden. Ein KI-TÜV mit einer entsprechenden Institution ginge in diese Richtung.

ZEIT ONLINE: Es heißt, dass Sie mit acht Mitarbeiterinnen und Mitarbeitern starten. Das klingt jetzt nicht nach viel.

Böhning: Die acht Personen werden dieser Tage eingestellt. Bundesminister Hubertus Heil wird das Observatorium Anfang kommenden Jahres eröffnen.

ZEIT ONLINE: Wie lange wird es dauern, bis daraus tatsächlich eine Art deutsche Prüfstelle entsteht, die konkrete KI-Anwendungen für Betriebe, in Geräten mit Sprachsteuerung, in der Pflege und Medizin, im Straßenverkehr und letztlich in allen Bereichen von Wirtschaft und Gesellschaft in verschiedene Risikoklassen einteilt oder gar zertifiziert?

Böhning: Wir wollen nicht von heute auf morgen eine neue Behörde aus dem Boden stampfen. In den vergangenen Jahren ging es bei ethischen Leitlinien für KI viel um Fragen von Transparenz, Robustheit und Antidiskriminierung. Von dieser Flughöhe müssen wir jetzt mal ein Stück weit auf den Boden kommen und die Frage beantworten, was die ethischen Leitlinien, die etwa die OECD oder die EU in den vergangenen Jahren für künstliche Intelligenz erarbeitet haben, ganz konkret bei der Integration der Technologie bedeuten – in der Arbeitswelt beispielsweise.

ZEIT ONLINE: Aber was bedeutet das konkret? Wo fängt man an, darüber nachzudenken, wie man zum Beispiel die künstlichen Intelligenzen eines Onlinehändlers transparenter macht, wie eine Regulierung auszusehen hätte?

Böhning: Na ja, ganz neu sind solche Entwicklungen nicht. Wir kennen in anderen Bereichen Institutionen, die Transparenz darüber einfordern können, was technologisch eingesetzt wird. Im Energiemarkt zum Beispiel oder der Telekommunikation. Bei der künstlichen Intelligenz kommt aber hinzu, dass es sich um eine fluide Technologie handelt. Sie passt sich an, sie adaptiert, sie updatet. Das heißt, wir werden kein KI-Gesetz schreiben können, das jegliche Aggregatzustände der künstlichen Intelligenz in irgendeiner Art vordefiniert. Was wir aber machen können, ist etwa zu schauen: Haben Beschäftigte ein Mitspracherecht darüber, wie KI in der Arbeitswelt eingesetzt wird und in welchen Bereichen?

 ZEIT ONLINE: Zum Beispiel?

Böhning: Wenn KI in der Automobilproduktion an einem Band eingesetzt wird, könnten Betriebsräte mitverhandeln und Prozessvereinbarungen treffen, was genau dort passiert. Dann könnte man vereinbaren, dass die Verhaltens- oder Leistungskontrolle jedes einzelnen Arbeiters, jeder Arbeiterin an jeder Arbeitsstation ausgeschlossen wird. Wir wissen aus unseren Projekten, dass derartige Mitspracherechte und Vereinbarungen zu größerem Vertrauen führen, zu einer stärkeren Nutzung und höheren Akzeptanz von KI in der Arbeitswelt. Und das ist ja erst einmal unser Ziel.