Nach einem Herzinfarkt ist der Kampf ums Überleben ein Wettrennen gegen die Zeit. Je länger das Herzmuskelgewebe von der Sauerstoffzufuhr abgeschnitten bleibt, desto höher die Todesgefahr. Jede Minute ohne Reanimation verringert die Wahrscheinlichkeit einer erfolgreichen Wiederbelebung um 10 %. Deshalb werden Herzpatient:innen in Krankenhäusern permanent von Medizintechnik überwacht. Wenn einer der gemessenen Gesundheitswerte auf einen unmittelbar bevorstehenden Infarkt oder ein Kammerflimmern hindeutet, schlagen die Geräte Alarm. Doch häufig kommt diese Warnung zu spät. Obwohl sie sich bereits in einem Krankenhaus befinden, erleiden in den USA jährlich bis zu 400.000 Menschen eine tödliche Herzattacke, weil die Ärzt:innen nicht schnell genug auf den Notfall reagieren können.

Rechnet man die Erfahrungen des St. Joseph Mercy Oakland Hospital auf die gesamten USA hoch, könnten jedes Jahr  knapp 140.000 Herzpatient:innen in amerikanischen Kliniken durch Algorithmen gerettet werden. Denn in dem  Krankenhaus nördlich von Detroit hat eine neue Software die Sterberate von Risikopatient:innen innerhalb von vier Jahren um gut ein Drittel reduziert. Visensia – the Safety Index heißt das algorithmische System einer britischen Softwarefirma, das über Sensoren zunächst dieselben Vitalwerte wie herkömmliche Geräte misst: Blutdruck, Herzund Atemfrequenz, Puls und Temperatur. Neu aber ist, dass ein Algorithmus die Werte in ihrem Zusammenspiel analysiert. Alarm schlägt er nicht erst, wenn ein einzelner Wert erheblich aus der Norm läuft, sondern bereits deutlich früher, wenn mehrere Werte zugleich geringere Auffälligkeiten zeigen. Eine Auswertung der Daten von über 20.000 Herzpatient:innen hatte ergeben, dass sich meist schon einige Stunden vor einem lebensbedrohlichen Kammerflimmern solche Muster in den Gesundheitswerten abzeichnen – lange bevor herkömmliche Medizintechnik die Ärzt:innen warnt. Das medizinische Personal im St. Joseph Mercy Oakland Hospital gewinnt dadurch oft die entscheidenden Stunden und Minuten, um mit präventiven Maßnahmen Schlimmeres zu verhindern.

Moralische Fragen verschärfen sich

Expert:innen sind sich einig, dass Prävention aufgrund algorithmisch erstellter Prognosen künftig eine deutlich größere Rolle in der medizinischen Versorgung spielen wird. Dank Datenanalysen können Forscher:innen die Entstehung von  Krankheiten und den Alterungsprozess immer besser verstehen. Dies wird Ärzt:innen ermöglichen, Krankheiten nicht nur erfolgreicher zu heilen, sondern sie auch wirksamer zu verhindern. Doch solche technischen Innovationen heben auch alte Grundsatzfragen wieder neu auf die Tagesordnung. In den USA wird bereits ein algorithmisches System eingesetzt, das das Sterberisiko von Patient:innen innerhalb eines Zeitfensters von drei bis zwölf Monaten berechnet. Dadurch möchte man unheilbar Kranken frühzeitig eine häusliche Palliativversorgung ermöglichen. Die Prognosequalität der Software ist  nachweislich höher als die der Ärzt:innen. Ihr Einsatz verschärft aber moralische Fragen, die eng mit dem Diskurs über den Wert des Lebens verbunden sind und seit jeher die Ethikkommissionen in der Medizin beschäftigen. Wie viel darf die Behandlung eine:r unheilbaren Kranken noch kosten, wenn schon feststeht, dass ihr nicht mehr viel Zeit bleibt? Welche Therapie ist gerechtfertigt, um ein Menschenleben ein Jahr, einen Monat oder vielleicht nur eine Woche zu verlängern? Und wer – Patient:in, Angehörige, Ärzt:innen oder gar Krankenkassen – entscheidet letztlich darüber, nach welchen Maßstäben das geschehen oder unterbleiben soll?

Abwägung zwischen Nutzen und Wirtschaftlichkeit

Schon heute bietet die Versorgungsforschung Kennzahlen, um das subjektive Gut Gesundheit messbar zu machen und Teile dieser Fragen zu beantworten. So steht ein QALY, kurz für „quality adjusted life year“, für ein Lebensjahr bei voller Gesundheit und ermöglicht eine Kosten-Nutzen-Analyse von medizinischen Maßnahmen. Der Wert einer Therapie wird also sowohl in Lebensdauer als auch in Lebensqualität bemessen. Schenkt ein Medikament für 50.000 Euro Patient:innen zwei zusätzliche gesunde Lebensjahre, kostet es 25.000 Euro pro QALY. Bringt es zum gleichen Preis nur sechs zusätzliche Monate, kostet es 100.000 Euro pro QALY. In Großbritannien hat man sich beispielsweise vorgenommen, nicht mehr als 30.000 Pfund pro QALY auszugeben. Die Konsequenzen solcher Obergrenzen sind mit den heutigen Prognosealgorithmen keine theoretischen Gedankenexperimente mehr, die ethische Abwägung zwischen individuellem Nutzen und kollektiver Wirtschaftlichkeit wird zur praktischen Herausforderung im Versorgungsalltag.

Widerstreitende Werte abwägen

Algorithmen stellen unser Gemeinwesen vor die Entscheidung, was es mit ihren immer präziseren Vorhersagen anstellen soll. Das Spektrum möglicher Reaktionen reicht vom Verbot bis zur forcierten Umsetzung in präventive Maßnahmen. Wenn wir als Gesellschaft die Chancen algorithmischer Vorsorge nutzen wollen, zwingt uns das dazu, widerstreitende Werte gegeneinander abzuwägen. Im Zentrum steht die Frage, wie wir den zukünftigen Schutz der Gesellschaft gegenüber den Grundrechten des Individuums im Hier und Jetzt bewerten. Diese Abwägung ist eine politische Entscheidung. Dafür gelten bekannte Maßstäbe: Wie schwerwiegend ist der notwendige Eingriff in das einzelne Leben? Wie groß ist das Risiko, dass ein befürchtetes Ereignis eintritt? Und sollte es eintreten, wie weitreichend wären die Auswirkungen auf die Gesellschaft? Die Abwägung, wo Freiheit und Rechte des Individuums zugunsten kollektiver Interessen eingeschränkt werden dürfen, kennt aber kein eindeutig richtiges oder falsches Ergebnis, erst recht nicht auf Dauer. Denn im Laufe der Zeit ändern sich auch unsere Vorstellungen von dem, was wir für ethisch angemessen halten.

Anhaltende gesellschaftliche Debatte

Für die algorithmische Prävention bedeutet das: Wir müssen immer wieder gesellschaftlich darüber debattieren, streiten und letztlich politisch entscheiden, wie viel wir überhaupt über die Zukunft wissen wollen und wo der prognostische Blick nach vorn ausdrücklich begrenzt werden soll. Vieles, was auf den ersten Blick verheißungsvoll klingen mag, entpuppt sich auf den zweiten Blick als ethische Gratwanderung. Denn Menschen haben auch das Recht, die Zukunft nicht zu kennen. Nicht alle Patient:innen wollen wissen, woran oder sogar wann sie mit welcher Wahrscheinlichkeit sterben könnten. Doch umgekehrt würde ein generelles Verbot prädiktiver Technologien bedeuten, dass anderen so die Chance auf ein sichereres oder längeres Leben entginge, auch wenn sie dieses gerne in Anspruch nähmen.

Dieser Beitrag basiert auf einem stark gekürzten und adaptierten Auszug des Kapitels „Prävention: Gewisse Zukunft“ aus dem Buch „Wir und die intelligenten Maschinen“. Der Text ist zuvor bereits in der Zeitung „StadtpunkteThema“ der Hamburgischen Arbeitsgemeinschaft für Gesundheitsförderung e.V. (HAG) erschienen.


Dieser Artikel ist lizenziert unter einer Creative Commons Namensnennung 4.0 International Lizenz.