Machen uns Algorithmen dümmer, als wir sind? – Seite 1

Ermöglichen Maschinen den Menschen mehr Freizeit oder vernichten sie Millionen von Arbeitsplätzen? Die Philosophin Lisa Herzog plädiert in ihrer Kolumne "Besser arbeiten" in unregelmäßigen Abständen für die Rettung der Arbeit.

Der amerikanische Verhaltenswissenschaftler Amos Tversky, der lange an der Universität Stanford arbeitete, wird mit der Aussage zitiert, seine Kollegen arbeiteten zu künstlicher Intelligenz, er dagegen untersuche natürliche Dummheit. Gemeinsam mit Daniel Kahneman, der später dafür den Nobel-Gedächtnispreis erhielt, war Tversky ein Pionier der Forschungsrichtung, die die Abweichungen menschlichen Verhaltens von der perfekten Rationalität analysiert. Lange hatten Ökonomen ihren Modellen diese Rationalität zugrunde gelegt – gefährlich, wie Tversky und Kahneman zeigen konnten.

Künstliche Intelligenz und natürliche Dummheit – oder sagen wir, höflicher, unvollständige Rationalität –, diese beiden Faktoren spielen auch in vielen digitalen Anwendungen zusammen, und zwar sowohl auf der individuellen Ebene als auch auf der gesellschaftlichen. Denn Algorithmen unterscheiden, wenn sie aufbauend auf unseren Klicks und Likes Vorhersagen treffen, nicht zwischen den Klicks und Likes, die wir nach reiflicher Überlegung und Abwägung aller Alternativen, im vollen Bewusstsein der Konsequenzen, machen – und denen, bei denen wir uns im Modus unvollständiger Rationalität befinden. Zu den Dimensionen dieser unvollständigen Rationalität, die Tversky, Kahneman und andere Verhaltensökonomen untersucht haben, gehören beispielsweise Verzerrungen in unserer Risikowahrnehmung, Abweichungen zwischen kurz- und langfristigen Präferenzen oder auch Neid auf andere und Abneigung gegen Ungleichheit.

Wenn ich mich gelegentlich in den sozialen Medien tummele, würde ich am liebsten Posts sehen, in denen Freunde und Bekannte interessante Artikel über die politische Situation in ihren Ländern verlinken, über die man dann gemeinsam diskutieren könnte. Vielleicht wäre ich sogar gelegentlich bereit, auf eine Werbeanzeige zu klicken, wenn sie mir zum Beispiel interessante Bücher empfehlen würde. Offenbar bin ich jedoch anfällig dafür, auch mal länger, als mir bewusst und lieb ist, auf ein Kochvideo zu starren – und so zeigen mir die Algorithmen gnadenlos ein Kochvideo nach dem anderen. Das mag noch harmlos sein. Doch die Kombination aus künstlicher Intelligenz und natürlicher Dummheit findet sich auch in größerem Maßstab, auf Arten und Weisen, die gesellschaftlich relevant sind. 

Künstliche Intelligenz wird zur Gewinnmaximierung eingesetzt

Viele Diskussionen beschäftigten sich in den letzten Jahren mit der These von den "Echokammern", denen zufolge die algorithmische Sortierung von Nachrichten die Leute in ihren eigenen Meinungen bestärkt. Zwar deutet empirische Forschung inzwischen darauf hin, dass das ein Mythos ist, aber dennoch verbreiten sich sensationslüsterne Nachrichten, am besten mit irgendeiner Horrorbotschaft in der Überschrift, oft rasend schnell im Netz. Ob es jedoch das "bessere Selbst" der Individuen ist, das zu dieser Weiterverbreitung beiträgt, ist fraglich – vielleicht würden viele von ihnen eigentlich lieber ein sachliches, ausgewogenes Bild der politischen Lage haben, können aber dem Reiz, bestimmte Nachrichten zu teilen, nicht widerstehen. Wenn diese natürliche Dummheit dann auf künstliche Intelligenz stößt, ist das eine toxische Mischung. 

Auch der Einsatz von künstlicher Intelligenz insgesamt scheint viel mit natürlicher Dummheit zu tun zu haben, im Sinne von kurzfristiger, einseitiger Fokussierung. Man könnte ja denken, dass künstliche Intelligenz vor allem dafür eingesetzt würde, die größten Probleme der Menschheit zu lösen. Es mangelt nun wahrlich nicht an Kandidaten: Armutsbekämpfung, Reduktion von CO2-Emissionen, Aufdeckung von Diskriminierung – es gibt zahlreiche Felder, in denen wir gut daran täten, menschliche durch künstliche Intelligenz zu ergänzen, Probleme zu analysieren und nach Lösungen zu suchen. Doch der Einsatz von künstlicher Intelligenz ist in vielen Fällen auf Gewinnmaximierung ausgerichtet – und damit, wie der Kapitalismus insgesamt, anfällig dafür, unserer natürlichen Dummheit anheimzufallen. 

Künstliche Intelligenzen sagen menschliche Schwachstellen voraus

Dass in Märkten nicht immer das langfristige, sorgfältig eruierte Wohlergehen aller Betroffenen maximiert wird, das zeigt ein Blick in die Realität. Theoretisch unterfüttert, unter Bezugnahme auf die Verhaltensökonomie, wurde es spätestens 2015 durch George A. Akerlof und Robert J. Shiller in ihrem Buch Phishing for Phool, dessen Titel sich in etwa mit "Angeln nach Idioten" übersetzen lässt. Diese "Idioten" sind wir, leider, alle: In unserem Denken und Handeln weichen wir ständig ab von der vollständigen Rationalität, auch wenn wir dagegen mal mehr, mal weniger erfolgreich ankämpfen. Die Frage ist allerdings, ob die Algorithmen, mit denen wir online interagieren, uns dabei unterstützen, dass unser "besseres Selbst" die Oberhand behält – oder ob sie im Gegenteil darauf ausgerichtet sind, unsere Schwächen und Fehler auszunutzen. Gewinne generieren, indem man Menschen an ihren durch künstliche Intelligenz vorhergesagten Schwachstellen packt – ist das wirklich das Beste, was wir mit diesen neuen Technologien anstellen können? Oder ist es ein Fall von natürlicher Dummheit auf der gesellschaftlichen Ebene, dass sie nicht an Stellen eingesetzt werden, an denen sie dringender gebraucht werden könnten?

Schon 2011 beklagte Jeff Hammerbacher, damals eines der gefeierten Tech-Kids des Silicon Valleys, dass die besten Köpfe seiner Generation damit beschäftigt seien, Leute auf Anzeigen klicken zu lassen. Viele Produkte im Bereich der künstlichen Intelligenz verfolgen dieses Ziel: Sie versuchen aufgrund von Daten aus der Vergangenheit Vorhersageprodukte zu erzeugen, die sich vermarkten lassen. Wie skrupellos die Datensammelwut dabei ist, hat Shoshana Zuboff neulich in ihrer ausführlichen Beschreibung des Überwachungskapitalismus geschildert. Für manche Arten von Vorhersagen und manche Arten von Produkten ist es dabei durchaus angemessen, dass man alle Formen menschlichen Verhaltens berücksichtigt; eine Unfallversicherung zum Beispiel muss – leider – gerade über die natürliche Dummheit Bescheid wissen (ob das all das Datensammeln rechtfertigt, ist trotzdem fraglich – doch das ist ein anderes Thema). 

An vielen anderen Stellen aber wäre es wünschenswert, dass Menschen Kontrolle darüber haben, wie Daten, die auf natürlicher Dummheit und Daten, die auf einigermaßen wohlüberlegtem Verhalten beruhen, in die Vorhersagen der Algorithmen eingehen. Es gibt durchaus Projekte, die in diese Richtung gehen und beispielsweise einen bewussteren Umgang mit Twitter-Feeds ermöglichen. Aber wir brauchen noch viel mehr Diskussion darüber, an welchen Stellen künstliche Intelligenz unseren unreflektierten Präferenzen, inklusive unserer natürlichen Dummheit, dient, für welche gesellschaftlichen Aufgaben ihr Einsatz sinnvoll und nötig ist – und wie Schritte unternommen werden können, um ein bisschen mehr in Richtung von Intelligenz, ob natürlich oder künstlich, zu gehen.