Die Macht der Algorithmen – und die ihrer Macher

Ja, Software fällt massenhaft fragwürdige Entscheide, die viele Menschen betreffen. Aber es gibt auch zahlreiche Beispiele für sehr sinnvolle Anwendungen. Zwei differenzierte Bücher wollen Mut machen.

Matthias Sander
Drucken
Niemand bleibt unerkannt: Auch Software zur Gesichtserkennung bedient sich Algorithmen. (Bild: Jochen Tack / Imago)

Niemand bleibt unerkannt: Auch Software zur Gesichtserkennung bedient sich Algorithmen. (Bild: Jochen Tack / Imago)

In der Debatte um Algorithmen gibt es reichlich Beispiele, wie Bürger automatisierter Willkür ausgesetzt sind. Die australische Regierung will seit 2016 Sozialbetrüger mit einer Software aufspüren, die anfangs in geschätzt jedem fünften Fall falsch lag – Tausende Bürger erhielten zu hohe oder völlig haltlose Rückzahlungsforderungen. In den USA ergab eine Untersuchung, dass arme Leute deutlich mehr für ihre Autoversicherung zahlen als reiche Verkehrsrowdys, weil die Versicherungen die Bonität ihrer Kunden höher gewichten als deren Fahrverhalten. Und in Frankreich sollte ein System zur Studienplatzvergabe mehr Fairness schaffen, bewirkte aber tendenziell das Gegenteil, weil es, wie später bekannt wurde, die Nähe des Wohnortes zur gewünschten Hochschule am stärksten gewichtete. Das Resultat: Wer bei oder in Paris wohnte, durfte eher an die dortigen renommierten Hochschulen.

Angesichts solcher Negativbeispiele scheint es geboten, das Bild mit Positivbeispielen gerade zu rücken. Denn die gibt es zuhauf, auch fernab der bekannten Empfehlungsalgorithmen von Amazon und Spotify. Personalisierte Lernsoftware fordert jeden Schüler auf seinem Niveau, so dass Überflieger nicht mehr gelangweilt herumsitzen und langsamere Schüler nicht frustriert aufgeben. Personaler bewerten Bewerber anhand eines Computerspiels nach Eigenschaften wie Risikobereitschaft und Offenheit – und stellen dann vermehrt Migranten und Nicht-Akademiker ein. Und Blinde lassen sich von Scanner-Apps vorlesen, wer ihnen Briefe geschickt hat.

Es kommt auf uns an

Technik ist per se weder gut noch böse, sondern das, was wir aus ihr machen – ein bekanntes Mantra, und doch lohnt es, immer wieder daran zu erinnern. Denn Algorithmen prägen zunehmend unseren Alltag, zugleich wissen laut einer repräsentativen Umfrage aus Deutschland viele Leute wenig mit dem Begriff anzufangen. Und reagieren mit Unbehagen oder Ablehnung darauf, dass eine Software Entscheidungen für sie trifft.

Zwei neue Bücher wollen deshalb aufklären und Mut machen. Jörg Dräger und Ralph Müller-Eiselt von der deutschen Bertelsmann-Stiftung zeigen in «Wir und die intelligenten Maschinen» überzeugend, wie laut dem Untertitel «Algorithmen unser Leben bestimmen und wir sie für uns nutzen können». Die britische Mathematikerin Hannah Fry verfolgt mit «Hello World» das gleiche Ziel und verharrt dabei leider oft bei der länglichen Schilderung von Beispielen aus Justiz, Medizin und Kunst.

Ein Algorithmus ist zunächst nichts weiter als eine eindeutige Handlungsanweisung zur Lösung eines Problems: Bearbeitet man nacheinander Schritt A, B und C, gelangt man zum Resultat D. Jedes Kuchenrezept ist ein Algorithmus: Wenn man die Zutaten wie vorgesehen mischt und bäckt, erhält man einen gelungenen Kuchen.

Computer-Algorithmen erfüllen nach Hannah Fry vier Hauptfunktionen: Sie priorisieren – wie eine Suchmaschine, die Ergebnisse in einer Rangliste ordnet. Sie klassifizieren; Youtube bewertet Gewaltvideos als unangemessen. Sie kombinieren; Datingportale suchen gemeinsame Vorlieben von Nutzern. Sie filtern; Sprachassistenten blenden Hintergrundgeräusche aus, um Befehle zu erkennen.

Vieles davon ist im engeren Sinne nicht politisch. Gesellschaftlich relevante Anwendungen erkennt man etwa dank dem «Algorithmus der Algorithmen», den die Wissenschafter Kilian Vieth und Ben Wagner entwickelt haben und den die Autoren Dräger und Müller-Eiselt verwenden. Die wichtigsten Kriterien lauten: Werden Menschen durch das algorithmische System bewertet? Wie abhängig sind die Bewerteten vom Ergebnis? Wie viel politische und ökonomische Macht hat der Betreiber? Und wie gross ist die Reichweite des Systems?

Am heikelsten ist dabei wohl der Bereich der Strafverfolgung. Wenn Algorithmen (mit)entscheiden, in welchen Quartieren Polizisten patrouillieren oder welcher Mörder nach Ablauf seiner Gefängnisstrafe verwahrt wird oder nicht, dann ist die Dringlichkeit von gesellschaftlichen Debatten zum Thema sofort klar. Zumal Software wie zum «predictive policing», der vorausschauenden Verbrechensbekämpfung, bereits vielerorts eingesetzt wird, auch in der Schweiz. Mit Erfolg – und zuweilen wenig wünschenswerten Folgen.

Schwarze im Visier

So führte ein Testlauf mit PredPol, der international verbreitetsten Software ihrer Art, im kalifornischen Oakland dazu, dass Patrouillen fast ausschliesslich in ärmere Viertel mit vielen Migranten geschickt wurden. Werden Schwarze und Hispanics überdurchschnittlich oft kontrolliert, sind sie in der Datenbank des selbstlernenden Algorithmus überrepräsentiert, woraufhin sie noch öfter kontrolliert werden. Im Fachjargon ist das eine sich selbst verstärkende Feedbackschleife. Deshalb verzichtete Oakland letztlich auf PredPol.

Die Software Compas berechnet Rückfallwahrscheinlichkeiten von Straftätern. Sie wurde in den USA als rassistisch kritisiert, weil sie Schwarzen fast doppelt so oft wie Weissen fälschlicherweise unterstellte, rückfällig zu werden. Allerdings sagt der Algorithmus laut den Entwicklern mit nahezu gleicher Treffsicherheit für Schwarze wie Weisse die tatsächliche Rückfallquote voraus. Dieser vermeintliche Widerspruch hat einen simplen statistischen Ursprung: Die Kriminalitätsrate von Schwarzen ist höher als die von Weissen.

Das Beispiel zeigt, warum wir wissen sollten, wie ein konkreter Algorithmus funktioniert. Die Entwickler von Compas hatten das Ziel, dass über alle Bevölkerungsgruppen hinweg Rückfallgefährdete mit der gleichen Wahrscheinlichkeit zu Recht ins Gefängnis müssen. Die Kritiker hingegen wollen nicht, dass gut zu resozialisierende Schwarze öfter einsitzen als vergleichbare Weisse. Was davon ist fairer? Beide Ansprüche sind laut Mathematikern unvereinbar. Die Frage muss politisch beantwortet werden.

Quellcodes veröffentlichen

Derlei Dilemmata und auch Missbrauchsmöglichkeiten gibt es viele. Das ist umso problematischer, als auch für Algorithmen oft das Prinzip «The winner takes it all» gilt – ein Angebot wird zum dominierenden in seinem Bereich, wie Google bei Suchmaschinen. Insbesondere die Autoren Dräger und Müller-Eiselt formulieren deshalb schlüssig und prägnant Forderungen wie ein «Vermummungsverbot für Algorithmen»: Quellcodes seien zu veröffentlichen und durch Behörden regelmässig zu prüfen. Wenn Geschäftsinteressen dieses Transparenzgebot überwiegen, sollen etwa zur Vertraulichkeit verpflichtete Gutachter eingesetzt werden. Den Einwand der zunehmenden Bürokratie kontern die Autoren mit dem Verweis auf Motorfahrzeugkontrollen oder Behörden für Lebensmittelsicherheit, deren Sinn niemand infrage stellen würde.

Was aber tun mit selbstlernenden Meta-Algorithmen, deren Funktionsweise selbst ihre Erfinder teilweise nicht mehr verstehen? Das ist ein wachsendes Problem im Bereich der künstlichen Intelligenz. Es befeuert Warnungen, Maschinen könnten in wenigen Jahrzehnten intelligenter sein als Menschen und keiner wisse, was dann geschehen werde. Die Autoren beider Bücher halten das nicht für seriös prognostizierbar und zu weit weg, weshalb sie darauf nicht eingehen. Aber wenn sich Meta-Algorithmen schon heute auf nicht nachvollziehbare Art verselbständigen, sollten wir dann nicht rechtzeitig eine Debatte darüber führen, welche Grenzen wir ihnen setzen wollen?

Jörg Dräger, Ralph Müller-Eiselt: Wir und die intelligenten Maschinen. Wie Algorithmen unser Leben bestimmen und wir sie für uns nutzen können. DVA, München 2019. 272 S., Fr. 31.90

Hannah Fry: Hello World. Was Algorithmen können und wie sie unser Leben verändern. Aus dem Englischen von Sigrid Schmid. Verlag C. H. Beck, München 2019. 272 S., Fr. 31.90.