WELTGo!
Journalismus neu erleben und produktiver werden
Ihr Assistent Journalismus neu erleben und produktiver werden
WELTGO! ENTDECKEN
  1. Home
  2. Gesundheit
  3. Facebook: Algorithmen mit KI erkennen Suizid-Gefahr

Gesundheit Soziale Netzwerke

Kann Facebook Suizide verhindern?

Chefkorrespondent Wissenschaft
Beautiful woman with curly hair texting messages Beautiful woman with curly hair texting messages
Eine junge Frau mit Smartphone. Was können soziale Netzwerke über ihre psychische Verfassung wissen?
Quelle: Getty Images
Aus Texten, die User in einem sozialen Netzwerk verbreiten, versucht ein Algorithmus mit künstlicher Intelligenz abzuleiten, wer suizidgefährdet ist. Unter Experten ist dieses Facebook-Projekt umstritten.

Darf man Informationen aus sozialen Netzwerken automatisiert auswerten, um möglicherweise suizidgefährdete Personen zu erkennen, sodass sie rechtzeitig Hilfe bekommen können?

Dies ist keine abstrakte oder auf die Zukunft gerichtete Frage. Facebook setzt bereits sei 2017 einen Algorithmus mit künstlicher Intelligenz (KI) ein, der Beiträge und Kommentare von Facebook-Nutzern nach verdächtigen Hinweisen scannt und gegebenenfalls Alarm schlägt.

Ein Mitarbeiter von Facebook wendet sich dann mit Hilfsangeboten, etwa Telefonnummern, an die betreffenden Personen und informiert direkt örtliche Behörden oder die Polizei über den Verdacht.

Mehr als 3500-mal schlug Facebook Alarm

Facebook-Chef Mark Zuckerberg schwärmte im November 2018 in einem von der „New York Times“ dokumentierten Post, dass die Warnungen des Algorithmus im vergangenen Jahr weltweit zu 3500 Einsätzen von Ersthelfern geführt hätten.

Lesen Sie auch

Das wirft viele Fragen auf: Wie hoch ist die Erfolgsquote des Suizidfrühwarnsystems von Facebook? Wie oft gab es Fehlalarme? Ist es überhaupt ethisch vertretbar, intime Informationen von Nutzern eines sozialen Netzwerks zum Zweck der Suizidprävention auszuwerten?

Wissenschaftler sprechen von einem Dilemma. Suizide zu vermeiden ist auf der einen Seite zweifelsohne ein erstrebenswertes Ziel. Andererseits birgt das Vorgehen von Facebook nach Ansicht von Experten eine Reihe von Risiken.

Die Wissenschaftler Ian Barnett von der University of Pennsylvania und John Torous von der Harvard Medical School haben sich mit dem Suizidschutzprogramm von Facebook auseinandergesetzt und kommentieren es in der aktuellen Ausgabe der Fachzeitschrift „Annals of Internal Medicine“.

Grundsätzlich begrüßen die beiden innovative Ansätze, die das Ziel haben, Tode durch Suizid zu verhindern. Doch wenn Facebook mit der Entwicklung dafür geeigneter maschinengestützter Verfahren medizinische Forschung betreibe, dann müsse das Unternehmen, so argumentieren die beiden US-Wissenschaftler, im Hinblick auf ethische Standards und die Transparenz des Prozesses folgerichtig auch die in der Forschung üblichen Regeln einhalten.

Überdies betonen sie, dass bislang nicht bekannt sei, wie erfolgreich das Frühwarnsystem von Facebook überhaupt sei. Die Medizinethikerin Christiane Woopen, Direktorin des Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (Ceres) kommentiert, dass Facebook vor allem „unter Einbeziehung unabhängiger Wissenschaftler nachweisen muss, dass das Screening mehr nutzt als schadet. Dazu müssen Daten vorliegen, die auch zu veröffentlichen sind.“

Anzeige

Doch solche Daten liegen eben nicht vor. Und können nach Angaben von Facebook auch gar nicht vorliegen, denn mit Verweis auf den Datenschutz wolle man gar nicht verfolgen, was aus den vorsorglichen Hinweisen geworden ist. So ist die Rate der Fehleinschätzungen schlicht unbekannt.

Details des Suizid-Algorithmus bleiben geheim

Antigone Davis, die bei Facebook die Abteilung Security leitet, ist davon überzeugt, dass es kontraproduktiv sein könnte, wenn Facebook zu viele Details über seinen Suizidalgorithmus verrate. Transparenz könne an dieser Stelle schädlich sein. Insbesondere wäre es mit diesem Wissen möglich, dass manche Leute ein Spielchen mit der Maschine spielten.

Barnett und Torous hatten in ihren Beiträgen gefragt, welche negativen sozialen Folgen es möglicherweise für Betroffene haben kann, wenn sie fälschlicherweise in den Verdacht geraten, Selbsttötungsgedanken in sich zu tragen.

In autoritären Staaten könnte sich dies unter Umständen nachteilig auswirken. Doch auch in demokratischen Gesellschaften sind negative Konsequenzen zumindest im beruflichen Umfeld zu befürchten.

Es drohen Benachteiligungen und Stigmatisierung

„Prädiktive Algorithmen zur Erfassung der psychischen Gesundheit könnten beispielsweise von Arbeitgebern genutzt werden, um sich über die psychische Belastbarkeit einer Person zu informieren“, heißt es in einer Studie der Ceres-Forscher mit dem Titel „Algorithmen in der digitalen Gesundheitsversorgung“, die in Kooperation mit der Bertelsmann-Stiftung erstellt wurde und an der Woopen beteiligt war. Es drohe soziale Benachteiligung und Stigmatisierung.

„Die mangelnde Transparenz von Facebook zu diesen Themen behindert die Möglichkeiten für algorithmische Überprüfungen“, kritisiert Tereza Hendl vom Institut für Ethik, Geschichte und Theorie der Medizin an der Ludwig-Maximilians-Universität München. „Der Suizidpräventionsdienst von Facebook beinhaltet zu viele Unbekannte, um ihn richtig bewerten zu können.“

Man kann gegen die Aktivitäten von Facebook im Bereich der öffentlichen Gesundheit auch noch grundsätzlichere Bedenken hegen. „Wenn Facebook ohne Einwilligung seiner Kunden ein nicht wissenschaftlich gestütztes Screening zur Aufdeckung eines erhöhten Risikos für eine Selbsttötung einsetzt und dafür die Privatsphäre der Kunden verletzt, ist das ethisch nicht vertretbar“, sagt Christiane Woopen. Eine klare Aussage.

Anzeige

Professor Thomas Niederkrotenthaler, Leiter der Gruppe Suizidforschung an der Medizinischen Universität Wien teilt die Einschätzung von Christiane Woopen. Er sagt: „Personen ohne ihr Wissen und ihre Zustimmung in wissenschaftliche Untersuchungen zu involvieren verstößt gegen ethische Standards und Übereinkommen der wissenschaftlichen Forschung.“

Tatsächlich ist das Suizidschutzprogramm von Facebook nach der Datenschutzgrundverordnung hierzulande rechtlich nicht statthaft. Da hilft es auch nicht, dass Facebook in seinen Nutzungsbedingungen einen Hinweis auf Gemeinschaftsstandards aufführt, in denen Grundgedanken zum Umgang mit Suizidalität grob beschrieben sind. Warnungen an möglicherweise Betroffene gibt Facebook deshalb in Deutschland nicht aus.

Die Methodik des Suizidschutzprogramms basiert auf Algorithmen aus dem Bereich des maschinellen Lernens. Dabei suchen Computer nach übereinstimmenden Merkmalen in der elektronischen Kommunikation von suizidgefährdeten Personen. Auf diese Weise lernt das System aus Beispielen eine Art allgemeines Muster für Suizidgefahr.

Auf dieser Grundlage verallgemeinert die Maschine und stellt automatische Schlüsse aus neuen Datensätzen her. „Damit können auch diverse Beiträge in den Fokus der Algorithmen geraten, die nichts mit Suizid zu tun haben“, warnt Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft an der Universität Paderborn. Was im Bereich der Suizidprävention funktionieren soll, lässt sich grundsätzlich auf viele andere Fragestellungen übertragen.

Facebook kann intimes Wissen erlangen

„Der Fall illustriert deutlich, welch intimes Wissen Firmen wie Facebook inzwischen über uns erlangen können“, sagt Matzner. „Deshalb brauchen wir dringend eine Regelung, die die Sammlung und den Umgang mit solchen Daten allgemeinverbindlich und im Sinne des Gemeinwohls festschreibt.“

Dass die Suizidprävention grundsätzlich einen hehren Zweck verfolgt, sollte uns nach Ansicht von Matzner nicht davon ablenken, dass es sich hier um die willkürliche Entscheidung einer Firma handelt, von der wir weder im Positiven noch im Negativen abhängig sein sollten.

Und es geht ja letztlich um viel mehr als nur die Vorhersage von Suizidrisiken: Können Maschinen durch die Auswertung von immer mehr Daten von und über uns letztlich nicht das Verhalten von Menschen in großem Umfang vorhersehen? Prognosen von möglicherweise kriminellen oder gar terroristischen Absichten sind da ebenfalls ein Aspekt.

Zahl der Suizide bei Jugendlichen steigt

Im Falle der Suizidprognosen sind sich die Experten einig, dass es angesichts des ethischen Dilemmas und bestehender Zielkonflikte einen großen Diskussionsbedarf dazu gibt, wie diese oder anderen Formen der Suizidprävention verbessert werden könnten.

Auch wenn hierzulande die Suizid-Mortalität seit den 1980er-Jahren insgesamt rückläufig ist, so ist es doch alarmierend, dass bei Jugendlichen und jungen Erwachsenen ein Anstieg zu beobachten ist. In Deutschland gab es bei den 15- bis 20-Jährigen im Jahr 2013 pro 100.000 Einwohner 4,1 Suizide. 2014 waren es 4,8, 2015 dann 4,7 und 4,9 im Jahr 2016.

Mehr aus dem Web
Neues aus der Redaktion
Auch interessant
Mehr zum Thema