Zum Inhalt springen
Patrick Beuth

Unpassende Onlinewerbung Dumme Maschinen sollten uns recht sein

Eine Frau hat eine Totgeburt. Sie thematisiert den Verlust online, bekommt aber weiter Werbung ausgespielt, die auf glückliche Mütter abzielt. Hätten das die Algorithmen nicht besser wissen müssen? Doch genau das können wir nicht wollen.

Gillian Brockell von der "Washington Post" fragt die großen Social-Media-Unternehmen in einem offenen Brief: Warum könnt ihr aus meinen Suchbegriffen, Hashtags und Klicks ableiten, dass ich schwanger bin und mir passende Anzeigen einblenden - aber wenn ich "untröstlich" und "Totgeburt" schreibe und Hunderte Tränen-Emojis von Freunden bekomme, könnt ihr nicht erkennen, dass mein Baby gestorben ist, und die Werbung anpassen oder gleich ganz stoppen?

Die Antwort lautet: Weil die Systeme zur Nutzerdatenanalyse der tatsächlichen Nutzung der Netzwerke hinterherhängen.

Facebook-Gründer Mark Zuckerberg hat wie kein Zweiter erkannt, dass das Mitteilungs- und Anteilnahmebedürfnis des sozialen Wesens Mensch auf ein früher nicht gekanntes Ausmaß gesteigert werden kann, wenn man nur die richtige Plattform dafür zur Verfügung stellt. In der Folge haben die sozialen Medien das Verständnis von Öffentlichkeit, Beziehungen und Interaktion verändert. Allerdings werden nun auch Verzweiflung und Trauer, Wut und Hass, Neid und Missgunst und alle anderen Ausprägungen des menschlichen Gefühlslebens online ausgelebt und dabei zum Teil gesellschaftlich neu verhandelt.

Die Analyse von Klicks, Posts, Likes, Suchbegriffen, Hashtags, Standort- und unzähligen weiteren Daten zur Bestimmung der Nutzerinteressen beruht hingegen noch immer auf der Annahme, dass soziale Netzwerke linear "das gute Leben" abbilden. Fröhliche Menschen, die mitteilen, was sie Schönes tun und haben, würden auch fröhlich noch mehr schöne Dinge tun und kaufen.

Was über "Mehr vom Selben" hinausgeht, ist schon fortschrittlich

Nun prallen diese beiden Systeme aufeinander: die komplexe Abbildung des menschlichen Lebens und die unterkomplexen Versuche, es maschinell zu interpretieren.

Wer eine Waschmaschine kauft, bekommt deshalb mehr Waschmaschinen angeboten. Die eigenen Fotos und Postings werden unaufgefordert zu Rückblicken zusammengestellt, die einem selbst die größten persönlichen Katastrophen wieder ins Gedächtnis gerufen , wenn der Algorithmus das Foto vom Friedhof für besonders gelungen oder beliebt hält.

Wer sich ein verschwörungstheoretisches Video anschaut, bekommt zehn weitere empfohlen.

Wer als schwanger klassifiziert wird, aber irgendwann keine Werbung für Schwangerschaftsprodukte mehr sehen will, wird in der Folge als Mutter mit entsprechenden Bedürfnissen klassifiziert - das ist im Vergleich zum Prinzip "Mehr vom Selben" schon fortschrittlich, weil es immerhin eine mögliche Entwicklung widerspiegelt. Nur eben nicht die einzige.

Das mag, wie im Fall von Gillian Brockell, zu schmerzhaften Situationen führen. Trotzdem ist diese letzte Distanz zwischen Netzwerk und Nutzer wünschenswerter als Maschinen, die Menschen jederzeit richtig einschätzen. Denn wenn die Technik erst einmal so weit ist, dass sie auch emotionale Ausnahmesituationen richtig erkennt, wird sie zum perfekten Kontrollinstrument.

Regierungen wie die chinesische werden so etwas haben wollen, um alles zu entdecken und zu verfolgen, was nicht pure Harmonie ist - um Muster nicht nur zu erkennen, sondern um mustergültiges Verhalten zu erzwingen. Entsprechende Versuche laufen schon, auch in Deutschland . Wer nicht konform ist, ist verdächtig - das ist die Grundidee.

Wer nicht komplett durchleuchtet und überwacht werden will, ist mit dummen Algorithmen besser bedient als mit perfekten.