Googles AI kann den Todeszeitpunkt eines Menschen genauer voraussagen als Ärzte

in #deutsch5 years ago

Liebe Steemianer!
Die Anzahl an digitale Gesundheitsdaten (electronic health records, EHR), sowie deren Verfügbarkeit und Vernetztheit wächst explosionsartig (insbesondere mit der steigendenden Verfügbarkeit von Genomdaten) und sie sind daher eine naheliegende Quelle für Deep-Learning Ansätze, um Risikovorhersagemodelle (risk prediction models) zu kreieren, damit letztlich die Diagnose und Behandlung der Patienten optimiert werden kann (1).

Vor- und Nachteile der EHR-Analysen

Die Vorteile liegen auf der Hand: Die Daten von viel mehr Patienten als bei z.B. klinischen Studien (in der Regel >100000 Patienten) können - zu einem Bruchteil der Kosten - analysiert werden. Außerdem reflektieren die so gewonnen Erkenntnisse eher "real life"-Bedingungen im Gegensatz zu Studien, bei denen immer ein Bias (Verzerrung) vorhanden ist, wenn auch nur derjenige, dass Patienten, die freiwillig bei einer Studie mitmachen, nicht notwendigerweise Durchschnittspatienten repräsentieren.
Die Schwäche von EHR-gestützten Risikovorhersagemodellen ist, dass (bislang zumindest) aus der Fülle der EHR nur ein kleiner Teil an Variablen ausgewählt wurde, was die Vorhersagen verfälschen könnte, dass die Daten verschiedener Zentren und Länder schwanken können (aufgrund z.b. unterschiedlicher Standards oder Messmethoden), dass oftmals Datenpunkte fehlen ("missing data") und dass man prinzipiell darauf angewiesen ist, was an Daten vorhanden ist (im Gegensatz zu den meisten klinischen Studien, bei denen neue Daten erfragt oder generiert (2) werden können). Auch EHR-Modelle sind nicht frei von Bias, da doch die Daten im Schnitt von kränkeren Menschen als dem Durchschnitt stammen. Last not least ist der Datenschutz nicht zu vernachlässigen. Üblicherweise bleiben sensible persönliche Gesundheitsdaten in einem geschützten Bereich, der die Krankenkasse oder das Spital nicht verlässt. Der Gedanke, dass solche Daten bei einem Privatunternehmen wie Google ausgewertet werden, sollte nicht nur für Datenschützer beunruhigend sein.

Eine andere Schwierigkeit bei EHR-Modellen ist, dass ca. 80% der Arbeit in die Aufbereitung und Standardisierung der Daten (formatieren, "säubern", fusionieren von data sets, etc.) geht, also weit mehr als in die eigentliche Analyse. Hier kommt "deep learning" (DL) ins Spiel, eine besondere Form von "machine learning" unter Zuhilfenahme von neuronalen Netzen, die bereits mit einigem Erfolg auch in der Medizin, etwa bei der Bilderkennung (4) eingesetzt wurde. DL kann ungeheure Datenmengen bewältigen, auch von "messy" Daten (also z.B. unvollständige oder falsch zugeordnete Daten). Bei DL-Modellen müssen die Forscher auch nicht im Vorhinein genau festlegen, welche die Vorhersage-Variablen sind, sondern die neuronalen Netzwerke erlernen sozusagen von alleine (=das Prinzip der Mustererkennung).

Das Konzept

Google (4) hat nun, in Zusammenarbeit mit der Univ. of California in San Francisco, in einer Arbeit in "nature" (5) mittels DL erstmals einen sehr breiten Satz an Datenpunkten als Ausgangsbasis genommen und nicht darauf geachtet, ob die Formate passten, und ob alles lesbar und standardisierbar war (also z.b. auch handschriftliche Notizen, die aufgrund des Zeitaufwandes bisher meist unberücksichtigt blieben).
image.png
Schematische Darstellung, wie unterschiedliche Datenquellen zu einer einheitlichen Zeitleiste zusammengeführt wurden (Quelle, Creative Commons License)

Um das zu bewerkstelligen, hatten sie einen speziellen Datenprozessierungsalgorithmus entwickelt. Anonymisierte ("de-identified") (6) Daten von zwei Spitälern wurden genommen, ca. 216000 Hospitalisierungen von über 114000 Patienten - insgesamt knapp 47 Mrd einzelne Datenpunkte ("tokens", z.B. eine Körpertemperaturangabe zu einem bestimmten Zeitpunkt, oder eine Medikamentengabe an einem bestimmten Tag).
Das zweite Novum war, dass - ohne manuelle Vorselektion durch Menschen - jede der zahllosen Variablen theoretisch ein Prediktor sein konnte, also ein bestimmtes Ereignis voraussagen (z.B. dass ein bestimmtes Medikament (in einer bestimmten Dosis) oder eine bestimmte Therapieentscheidung unter bestimmten Konditionen assoziiert ist mit einem Endpunkt). Für das DL-Modell wurden rückgekoppelte neuronale Netze ("recurrent neural networks", RNNs) (7) und "feedforward" NNs verwendet.

Ergebnisse

Das DL-Modell konnte genauer als herkömmliche Indikatoren den Tod von Patienten voraussagen, am stärksten war der Unterschied 24h nach Spitalseinweisung. Die Rate an falsch-positiven Alarmen war um die Hälfte reduziert gegenüber einem Team aus Ärzten. Eine genau gleiche Vorhersagekraft wie herkömmliche Ansätze zum Voraussagen von Todesfällen wurde beim DL-Modell 24-48h früher erreicht. Signifikante Verbesserungen gegenüber bislang benutzten Indikatoren schaffte die Google-AI auch beim Vorhersagen von erneuten Spitalseinweisungen ("readmissions") und von ungewöhnlich langen Spitalsaufenthalten.
Auffällig war, dass die AI völlig andere Datenpunkte zur Prognose verwendet hatte als bisherige Ansätze (s. Abb. 2), die sich meist auf Albumin, BUN, Puls, und Lymphozytenzahl fokussierten.

image.png
Beispiel für die Datenpunkte (in rot und fett gedruckt), die der Deep Learning-Algorithmus als relevant für die Mortalitätsvorhersage erachtete (Quelle, Creative Commons License)

Auswirkungen

Diese proof-of-concept Arbeit wird dem Einsatz von AI-Algorithmen zweifellos weiteren Auftrieb geben, und das zurecht! Wenn sich diese Ergebnisse reproduzieren lassen und sich der Einsatz aus dem Versuchsstadium in den klinischen Alltag ausweitet (das wird allerdings noch Jahre dauern), wäre eine unmittelbare Folge eine Senkung der Behandlungskosten, da durch genauere Prognosen und weniger Fehlalarme die beschränkten Resourcen wesentlich gezielter eingesetzt werden können.
Die Akzeptanz unter Ärzten (und Patienten) könnte durch solche Modelle verbessert werden, da hier eine Transparenz gegeben ist, welche Variablen für die Vorhersage verwendet wurden (Reduzierung des bei neuronalen Netzes oft vorhandenen "black box"-Phänomens (Intransparenz über die Entscheidungsfindung der AI)).

Aber noch ist bis dahin ein weiter Weg. Die Autoren weisen selbst darauf hin, dass genaue Voraussagen nicht zwangsläufig die Behandlung von Patienten verbessern und dass noch weitere Arbeit notwendig ist, um z.B. die Anwendbarkeit auf andere Vorhersagen zu testen. Insofern war der Titel dieses posts ein kleiner Klickköder, aber als Konzept steckt in Googles AI das Zeug, genau das zu können! Erstmal nur bei Kranken, aber schon übermorgen bei Gesunden?

Quellen/Kommentare:
(1) https://academic.oup.com/jamia/article/24/1/198/2631444
(2) Damit meine ich, dass Datenpunkte, die vorher nicht bekannt waren, z.B. bestimmte Laborparamenter, erst im Rahmen einer Studie gesammelt werden.
(3) https://steemit.com/deutsch/@stayoutoftherz/google-s-ai-erkannte-spontan-genetische-mutationen-bei-bronchialkarzinom
(4) https://ai.googleblog.com/2018/05/deep-learning-for-electronic-health.html
(5) https://www.nature.com/articles/s41746-018-0029-1
(6) Laut den Autoren wurden die Daten, bereinigt von persönlicher Information, von den Spitälern geliefert und weiterprozessiert unter Verwendung von "state-of-the-art security" (unter anderem Verschlüsselung und strikte Zugangskontrollen). Für mich nicht 100% überzeugend.
(7) https://en.wikipedia.org/wiki/Recurrent_neural_network

Sort:  

Dann lasst uns diesen Themenkomplex doch auch zuende denken:

In Zeiten, wo die AI (zum Beispiel Drohnenkills via Palantir) auch bereits das Todesurteil spricht, lassen sich diese beiden Zweige doch wunderbar synergetisch zusammenführen.
Vermeintliche Herzinfarkte und externe Ablebewünsche müssen nur noch zeitlich synchronisiert werden und der passende Artikel dazu wird ebenfalls in Echtzeit über die Propagandakanäle verfaked.

Schöne neue Welt!

Gespenstisches Thema, ich will nicht bas mir jemand oder eine Maschine mit hoher Warscheinlichkeit meinen Tod vorhersagt.

Die Idee dahinter ist, dass wenn es rechtzeitig erkannt wird, entsprechende Gegenmaßnahmen ergriffen werden können, um den Tod zu verhindern! In dieser Arbeit wurden Fälle aus der Vergangenheit ausgewertet (retrospektiv), da war nichts mehr zu machen sozusagen.

Wir werden in näherer Zukunft noch eine ganze Reihe solcher tools erleben, die die Wissenschaft auf den Kopf stellen. Es ist extrem viel möglich, auch wenn natürlich Risiken bestehen. Cooler Artikel.

Guten Tag,

Mein Name ist GermanBot und du hast von mir ein Upvote erhalten. Als UpvoteBot möchte ich dich und dein sehr schönen Beitrag unterstützen. Jeden Tag erscheint ein Voting Report um 19 Uhr, in dem dein Beitrag mit aufgelistet wird.
In dem Voting Report kannst du auch vieles von mir erfahren, auch werden meine Unterstützer mit erwähnt.
Schau mal bei mir vorbei, hier die Votings Reports.
Mach weiter so, denn ich schaue öfter bei dir vorbei.

Euer

GermanBot

Hi @stayoutoftherz!

Your post was upvoted by @steem-ua, new Steem dApp, using UserAuthority for algorithmic post curation!
Your UA account score is currently 3.321 which ranks you at #7444 across all Steem accounts.
Your rank has improved 401 places in the last three days (old rank 7845).

In our last Algorithmic Curation Round, consisting of 391 contributions, your post is ranked at #165.

Evaluation of your UA score:
  • You're on the right track, try to gather more followers.
  • The readers appreciate your great work!
  • You have already shown user engagement, try to improve it further.

Feel free to join our @steem-ua Discord server

Coin Marketplace

STEEM 0.35
TRX 0.12
JST 0.040
BTC 70884.24
ETH 3570.27
USDT 1.00
SBD 4.76