Digitale Gesellschaft

Wir brauchen eine Algorithmen-Ethik

Netzwerk-Illustration
Algorithmen sind Handlungsvorschriften für Probleme, die Computern gegeben werden © Imago / Science Photo Library
Von Konrad Lischka · 20.11.2017
Algorithmen entscheiden, welche Serien oder Datingpartner uns empfohlen werden, sie helfen bei der medizinischen Entscheidungsfindung und bewerten auch unsere Bonität. Doch sie sind menschengemacht - und wir brauchen deshalb so etwas wie einen Algorithmen-TÜV, meint Konrad Lischka.
Der Computer sagt nein! Das ist die Pointe vieler Sketche der britischen Show "Little Britain". Ihre Dramaturgie ist immer gleich: Ein Kunde wendet sich mit einem Wunsch an Sachbearbeiterin Carol. Ein Konto eröffnen, einen Arzttermin verabreden, eine Reise buchen. Carol mustert die Bittsteller jedes Mal sichtlich verachtungsvoll. Sie tippt irgendwas in den Computer und antwortet mit dem immer gleichen Satz: "Computer says no." Hier ist für den Zuschauer offenkundig: Es liegt nicht am Computer, sondern an Carols schlechter Laune.

Was bei "Little Britain" Carols Computer ist, sind in der aktuellen Debatte die Algorithmen. Die Algorithmen bestimmen unser Leben. Die Algorithmen sind die neue Weltmacht. Was die Algorithmen sagen, ist Gesetz! So klingt es oft in der Diskussion über Computerprogramme, die Menschen bewerten oder solche Entscheidungen vorbereiten. Und das führt leicht zu einem gefährlichen Kurzschluss: Der Algorithmus ist schuld. Das stimmt nicht. Denn Algorithmen sind Menschenwerk.
Staaten und Unternehmen nutzen heute in vielen Lebensbereichen algorithmische Systeme, um Menschen zu beurteilen: Bei der Vorauswahl für Bewerbungsgespräche, bei der Einsatzplanung von Polizeistreifen, beim Kampf gegen Versicherungsbetrug oder sogar bei der Entscheidung über die vorzeitige Haftentlassung von Straftätern. Leitbild dieser Entwicklungen muss unbedingt das gesellschaftlich Sinnvolle sein, nicht das technisch Mögliche! Dabei schadet das Trugbild vom Gegensatz Mensch - Maschine. Es verdeckt die eigentlichen Herausforderungen.

Was Priorität genießt, haben Menschen festgelegt

Menschen entscheiden nicht per se fairer als Maschinen. Wer zum Bewerbungsgespräch eingeladen wird, das bestimmen in Deutschland immer noch mehrheitlich Menschen. Und wir wissen aus Studien: In der Summe entscheiden sie unfair. Um eine Einladung zu erhalten, muss ein Kandidat mit einem deutsch klingenden Namen durchschnittlich fünf Bewerbungen schreiben. Ein Bewerber mit gleicher Qualifikation und türkisch klingenden Namen hingegen sieben. Das ist nur ein Beispiel, wo gut gestaltete Technik unsere Gesellschaft gerechter machen könnte.

Ob ein algorithmisches System gesellschaftlichen Nutzen stiftet, hängt erstens von seinen Zielen ab. Ein Beispiel: In den USA berechnen manche Autoversicherungen ihre Prämien basierend auf dem Kreditscoring der Kunden. Wenn jemand Unfälle verschuldet hat, aber immer pünktlich seine Rechnungen begleicht, zahlt er weniger als Einkommensschwache mit perfektem Fahrverhalten. Bonität genießt Priorität. Das haben Menschen festgelegt. Zweitens kommt es auf die Umsetzung an. Was gut gemeint ist, kann auch schlecht gemacht werden. In Chicago sollte zum Beispiel eine Software der Polizei helfen, Teilnehmer für Präventionsprogramme zu identifizieren. Und zwar Teilnehmer, die ein besonders hohes Risiko haben, Opfer von Gang-Schießereien zu werden. In der Praxis wird die Software aber für polizeiliche Ermittlungen genutzt. Dafür wurde sie nicht entwickelt.

Die Algorithmen im Dienst der Gesellschaft

Gefährlich wird es vor allem dann, wenn Algorithmen unreflektiert entwickelt oder umgesetzt werden. Deshalb brauchen wir eine öffentliche Debatte. Wie versichern wir uns der Angemessenheit der in den Systemen implementierten Ziele, bevor sie im Einsatz sind? Antworten könnten eine Professionsethik, Ethikkommissionen und unabhängige Wächter sein.
Wie überprüfen wir, ob algorithmische Systeme die definierten Ziele tatsächlich erreichen? Hier könnten in anderen Bereichen erprobte Institutionen wie die Finanzaufsicht, die Lebensmittelkontrolle oder der TÜV Inspiration sein. Wie sichern wir die Vielfalt von Verfahren, Betreibern und Zielen, um Innovation und Gemeinwohl zu stärken? Hier ist der Staat auch als progressiver Gestalter gefragt. Er braucht einen wettbewerblichen Rahmen, der die Vielfalt algorithmischer Systeme sichert. Helfen könnte Förderung gemeinwohlorientierter Software und Forschung. Wie entwickeln wir eine Ethik für Algorithmen? Wie stellen wir algorithmische Systeme in den Dienst der Gesellschaft? Darüber lohnt es sich zu streiten. Nicht über Trugbilder wie den per se bösen Maschinen und guten Menschen.

Konrad Lischka ist Koleiter des Projekts "Ethik der Algorithmen" bei der Bertelsmann Stiftung. Er war zuvor Referent Digitale Gesellschaft in der Staatskanzlei Nordrhein-Westfalen und stellvertretender Ressortleiter Netzwelt bei Spiegel Online. Er ist Autor der Bücher "Digitale Öffentlichkeit" (2017, mit C. Stöcker), "Wenn Maschinen Menschen bewerten" (2017, mit A. Klingel) und "Das Netz verschwindet" (2015). Auf seiner Website hat er sich bereits früher schon mit der Problematik Algorithmen und Gesellschaft befasst.

Konrad Lischka
© privat
Mehr zum Thema