Es ist zwar nicht möglich, jeden Selbstmord zu verhindern, aber es gibt viele Möglichkeiten, das Risiko zu senken. Und einiges davon ist so nah wie Ihr Smartphone.
Gesundheitssysteme, Technologieunternehmen und Forschungseinrichtungen erforschen, wie sie bei der Suizidprävention helfen können. Sie versuchen, Technologie im Allgemeinen und künstliche Intelligenz (KI) im Besonderen zu nutzen, um subtile Anzeichen für ein Suizidrisiko zu erkennen und einen Menschen zu alarmieren, damit er eingreift.
"Technologie ist zwar nicht unproblematisch, bietet aber unglaubliche Möglichkeiten", sagt Dr. Rebecca Bernert, Leiterin und Gründerin des Suicide Prevention Research Laboratory an der Stanford University School of Medicine in Palo Alto, Kalifornien.
Wenn KI beispielsweise Risikopatienten auf der Grundlage ihrer Gesundheitsdaten erkennen kann, könnten ihre Hausärzte besser darauf vorbereitet sein, ihnen zu helfen, so Bernert. Obwohl Fachleute für psychische Gesundheit speziell dafür ausgebildet sind, zeigen Studien, dass von den Menschen, die durch Selbstmord sterben, etwa 45 % in ihrem letzten Lebensmonat ihren Hausarzt aufsuchen. Nur 20 % gehen zu einer psychiatrischen Fachkraft.
Hier sind einige der technischen Fortschritte, die sich in der Entwicklung befinden oder bereits im Einsatz sind.
Hinweise durch Ihre Stimme
Forscher am Worcester Polytechnic Institute in Worcester, MA, entwickeln ein KI-basiertes Programm namens EMU (Early Mental Health Uncovering), das die Daten eines Smartphones auswertet, um das Selbstmordrisiko des Nutzers zu bewerten.
Diese Technologie befindet sich noch in der Entwicklung. Sie könnte Teil einer Gesundheits-App werden, die Sie - vielleicht auf Anraten Ihres Arztes - auf Ihr Telefon herunterladen könnten.
Nachdem Sie alle erforderlichen Genehmigungen erteilt haben, würde die App KI einsetzen, um Ihr Selbstmordrisiko über Ihr Telefon zu überwachen. Zu den enthaltenen Funktionen gehört die Möglichkeit, in den Sprachanalysator der App zu sprechen, indem Sie ein mitgeliefertes Skript verwenden oder die App ermächtigen, Teile von Telefonaten aufzuzeichnen. Die App kann subtile Merkmale in der Stimme erkennen, die auf Depressionen oder Selbstmordgedanken hinweisen können.
"Es gibt bekannte Stimmmerkmale, die Menschen nicht erkennen können, aber die KI kann sie erkennen, weil sie anhand großer Datensätze darauf trainiert wurde", sagt der Psychologe Edwin Boudreaux, PhD. Er ist stellvertretender Leiter der Forschungsabteilung der Abteilung für Notfallmedizin an der UMass Chan Medical School.
"Es kann die Stimme und all diese anderen Datenquellen nehmen und sie kombinieren, um eine robuste Vorhersage darüber zu treffen, ob Ihre Stimmung deprimiert ist und ob Sie Selbstmordgedanken hatten", sagt Boudreaux, der keine finanzielle Beteiligung an dem Unternehmen hat, das diese App entwickelt. "Es ist wie eine Telefon-Biopsie."
Die Smartphone-Daten könnten mit dem Einverständnis des Nutzers dazu verwendet werden, Warnmeldungen an den Nutzer selbst zu senden. So könnten sie aufgefordert werden, Hilfe zu suchen oder ihren Sicherheitsplan zu überprüfen. Oder es könnte den Gesundheitsdienstleister der Person alarmieren.
Apps benötigen derzeit keine behördliche Genehmigung, um ihre Behauptungen zu untermauern. Wenn Sie also eine App zur Suizidprävention nutzen, besprechen Sie dies mit Ihrem Therapeuten, Psychiater oder Arzt.
Fachwissen teilen
Google arbeitet daran, suizidgefährdeten Menschen Ressourcen wie die National Suicide Prevention Lifeline zur Verfügung zu stellen. Das Unternehmen hat seine KI-Expertise auch mit The Trevor Project, einer LGBTQ-Suizid-Hotline, geteilt, um der Organisation zu helfen, Anrufer mit dem höchsten Risiko zu identifizieren und ihnen schneller Hilfe zukommen zu lassen.
Wenn jemand in einer Krise das Trevor Project per Text, Chat oder Telefon kontaktiert, beantwortet er drei Fragen, bevor er mit der Krisenhilfe verbunden wird. Google.org Fellows, ein von Google betriebenes Wohltätigkeitsprogramm, half dem Trevor Project dabei, mit Hilfe von Computern Wörter in den Antworten auf die Aufnahmefragen zu identifizieren, die mit dem höchsten, unmittelbar bevorstehenden Risiko verbunden waren.
Wenn Menschen in einer Krise einige dieser Schlüsselwörter bei der Beantwortung der Aufnahmefragen des Trevor-Projekts verwenden, wird ihr Anruf in der Warteschlange für die Unterstützung ganz nach vorne gestellt.
Eine Kultur der Härte
Sie wissen vielleicht schon, dass Selbstmorde unter Militärangehörigen und Polizisten ein besonderes Risiko darstellen. Und Sie haben zweifellos von den Selbstmorden unter Angehörigen der Gesundheitsberufe während der Pandemie gehört.
Aber es gibt noch einen weiteren Bereich mit einer hohen Selbstmordrate: das Baugewerbe.
Nach Angaben der CDC ist die Wahrscheinlichkeit, durch Selbstmord zu sterben, bei Bauarbeitern doppelt so hoch wie in anderen Berufen und fünfmal so hoch wie bei Menschen, die an einer arbeitsbedingten Verletzung sterben. Hohe Verletzungsraten, chronische Schmerzen, unsichere Arbeitsverhältnisse und soziale Isolation aufgrund der weiten Entfernungen, die für die Arbeit zurückgelegt werden müssen, können eine Rolle spielen.
JobSiteCare, ein Unternehmen für Telemedizin, das sich speziell an Bauarbeiter wendet, erprobt eine Hightech-Antwort auf Selbstmord in dieser Branche. Das Unternehmen bietet Bauarbeitern, die sich auf der Baustelle verletzen, eine telemedizinische Versorgung über Tablets an, die in einem Schließfach im medizinischen Anhänger auf der Baustelle aufbewahrt werden. Jetzt erweitert es dieses Angebot um psychologische Betreuung und Krisenreaktion.
Die Arbeiter können über das Tablet im Anhänger in Sekundenschnelle Hilfe erhalten. Außerdem haben sie Zugang zu einer 24/7-Hotline und einer kontinuierlichen psychologischen Betreuung durch Telemedizin.
"Telemedizin ist eine der großen Erfolgsgeschichten in der Telemedizin", sagt Dan Carlin, MD, Gründer und CEO von JobSiteCare. "Im Baugewerbe, wo man mit seinem Job von Ort zu Ort zieht, wird die Telemedizin einem überallhin folgen."
Suizid-Sicherheitsplan-App
Die Jaspr-App soll Menschen nach einem Selbstmordversuch helfen, und zwar schon, wenn sie sich noch im Krankenhaus befinden. Und so funktioniert es.
Ein Gesundheitsdienstleister beginnt, die App gemeinsam mit dem Patienten im Krankenhaus zu nutzen. Gemeinsam erarbeiten sie einen Sicherheitsplan, der helfen soll, einen zukünftigen Selbstmordversuch zu verhindern. Der Sicherheitsplan ist ein Dokument, das ein Gesundheitsdienstleister gemeinsam mit einem Patienten entwickelt, um ihm zu helfen, mit einer zukünftigen psychischen Krise umzugehen - und mit den Stressfaktoren, die typischerweise Selbstmordgedanken auslösen.
Der Patient lädt die Jaspr-Begleiter-App für zu Hause herunter. Sie haben Zugriff auf ihren Sicherheitsplan, Werkzeuge für den Umgang mit einer Krise, die auf den in ihrem Sicherheitsplan festgelegten Präferenzen basieren, Ressourcen für Hilfe während einer Krise und ermutigende Videos von echten Menschen, die einen Suizidversuch überlebt oder einen geliebten Menschen durch Suizid verloren haben.
Was, wenn die KI sich irrt?
Es besteht immer die Möglichkeit, dass die KI falsch einschätzt, wer suizidgefährdet ist. Sie ist nur so gut wie die Daten, auf denen ihr Algorithmus basiert.
Ein "falsches Positiv" bedeutet, dass jemand als gefährdet eingestuft wird, obwohl er es nicht ist. In diesem Fall würde das bedeuten, dass jemand fälschlicherweise als selbstmordgefährdet eingestuft wird.
Bei einem "falschen Negativ" wird jemand, der gefährdet ist, nicht gekennzeichnet.
Das Risiko, dass sowohl falsch-negative als auch falsch-positive Meldungen Schaden anrichten, ist zu groß, um KI zur Erkennung von Selbstmordrisiko einzusetzen, bevor die Forscher sicher sind, dass sie funktioniert, sagt Boudreaux.
Er weist darauf hin, dass Facebook künstliche Intelligenz eingesetzt hat, um Nutzer zu identifizieren, bei denen ein unmittelbares Selbstmordrisiko besteht.
Meta, die Muttergesellschaft von Facebook, reagierte nicht auf die Anfrage des Arztes nach einem Kommentar zu ihrem Einsatz von KI, um das Selbstmordrisiko ihrer Nutzer zu erkennen und zu behandeln.
Laut seiner Website ermöglicht es Facebook seinen Nutzern, besorgniserregende Beiträge, einschließlich Facebook Live-Videos, zu melden, die darauf hindeuten könnten, dass sich eine Person in einer suizidalen Krise befindet. Die künstliche Intelligenz scannt auch Beiträge und hebt die Option, den Beitrag zu melden, hervor, wenn dies angemessen erscheint. Unabhängig davon, ob Nutzer einen Beitrag melden, kann KI auch Facebook-Beiträge und Live-Videos scannen und kennzeichnen. Facebook-Mitarbeiter prüfen die von Nutzern oder von der KI markierten Beiträge und Videos und entscheiden, wie sie damit umgehen wollen.
Sie können sich mit der Person, die den Beitrag verfasst hat, in Verbindung setzen und ihr raten, sich an einen Freund oder an eine Krisenhotline zu wenden, wie z. B. die National Suicide Prevention Lifeline, die in diesem Monat ihre dreistellige Nummer 988 eingeführt hat. Die Nutzer können sich direkt über Facebook Messenger an die Notrufnummern wenden.
In einigen Fällen, in denen ein Posting auf eine dringende Gefahr hindeutet, kann Facebook die Polizeidienststelle in der Nähe des Facebook-Nutzers in einer potenziellen Krise kontaktieren. Ein Polizeibeamter wird dann zum Haus des Nutzers geschickt, um das Wohlbefinden zu überprüfen.
Die Social-Media-Plattform TikTok, deren Vertreter es ebenfalls ablehnten, für diesen Artikel interviewt zu werden, aber per E-Mail Hintergrundinformationen zur Verfügung stellten, arbeitet nach ähnlichen Protokollen. Dazu gehören die Verbindung von Nutzern mit Krisenhotlines und die Meldung dringender Posts an die Strafverfolgungsbehörden. TikTok stellt auch Hotlinenummern und andere Krisenressourcen als Reaktion auf Suizid-bezogene Suchanfragen auf der Plattform zur Verfügung.
Bedenken bezüglich der Privatsphäre
Die Möglichkeit, dass Social-Media-Plattformen die Polizei kontaktieren, hat Kritik von Datenschutzexperten und Experten für psychische Gesundheit wie Boudreaux hervorgerufen.
"Das ist eine schreckliche Idee", sagt er. "Facebook hat sie eingesetzt, ohne dass die Nutzer wussten, dass die KI im Hintergrund arbeitet und welche Folgen es haben würde, wenn die KI etwas erkennt. Die Entsendung eines Polizeibeamten könnte die Situation nur verschlimmern, insbesondere wenn man einer Minderheit angehört. Abgesehen davon, dass es peinlich oder potenziell traumatisierend ist, hält es die Leute davon ab, etwas zu teilen, weil schlimme Dinge passieren, wenn man etwas teilt."
Datenschutzbedenken sind der Grund, warum der Algorithmus, der Facebook-Posts an Strafverfolgungsbehörden senden könnte, in der Europäischen Union verboten ist, so das Journal of Law and the Biosciences.
Die Folgen für Menschen, die fälschlicherweise als Hochrisikopersonen eingestuft werden, hängen davon ab, wie die Organisation mit der vermeintlich gefährdeten Person umgeht, erklärt Boudreaux. Ein möglicherweise unnötiger Anruf einer medizinischen Fachkraft kann nicht den gleichen Schaden anrichten wie ein unnötiger Besuch der Polizei.
Wenn Sie oder jemand, den Sie kennen, an Selbstmord denken, können Sie die National Suicide Prevention Lifeline kontaktieren. In den USA können Sie die National Suicide Prevention Lifeline ab dem 16. Juli 2022 per Telefon, SMS oder Chat unter der Nummer 988 erreichen. Sie können die Lifeline auch unter ihrer ursprünglichen Nummer 800-273-8255 anrufen. Hilfe ist rund um die Uhr auf Englisch und Spanisch verfügbar.