Nur vertrauenswürdige Tastatur-Apps nutzen

© APA - Austria Presse Agentur

Digital Life
11/10/2019

Künstliche Intelligenz hindert Suizid aus der Ferne

Postings, die einen Selbstmord vermuten lassen oder explizit nennen, werden auf einer Skala eingereiht.

Der Fall des chinesischen Studenten Li Fan zeigt, das künstliche Intelligenz (KI) Leben retten kann. Der 21-Jährige wollte seinem Leben ein Ende bereiten und kündigte dies auf der chinesischen Social Media-Plattform Weibo Anfang dieses Jahres an. „Ich kann nicht mehr weitermachen. Ich werde aufgeben“, schreibt er. Kurze Zeit später war Li bewusstlos. 

Sein Posting wurde von einem Programm entdeckt, das auf einem 8.000 Kilometer weit entfernten Computer in Amsterdam läuft. Es wurde von der Software gekennzeichnet – zahlreiche freiwillige Helfer aus unterschiedlichen Teilen Chinas in Folge angehalten, zu agieren. Je nach beurteiltem Schweregrad chatten sie mit den jeweiligen Personen, um sie wieder zu beruhigen oder informieren die Polizei.

In Lis Fall, konnten die Helfer ihn aus der Ferne nicht wecken. Die Besorgnis stiegt, sodass die Helfer sich direkt an die lokale Polizei wandten, die Li schließlich gefunden und gerettet hat, wie BBC berichtet. 

Bei 700 Menschen erfolgreich

Entwickler der Software ist Huang Zhisheng von der Free University Amsterdam. Das Programm wurde in den vergangenen eineinhalb Jahren von 600 freiwilligen Helfern in ganz China verwendet. Bei fast 700 Menschen konnte ein angekündigter Suizid auf diese Weise verhindert werden. Zhisheng zufolge könnten so jede Woche rund zehn Menschen gerettet werden. 

Das Java-basierte Programm untersucht sogenannte „Baumhöhlen“ auf Weibo und analysiert die Postings. Baumhöhlen sind „Orte“ im Netz, wo Menschen Geheimnisse erzählen. Zum Beispiel hatte einen 23-Jährige vor sieben Jahren auf Weibo geschrieben, dass sie sich umbringen wolle. Nach ihrem Tod haben Tausende andere Nutzer ebenfalls ihr Leid unter ihrem Posting geklagt. Die Originalnachricht ist somit eine Baumhöhle.

Beurteilt auf Skala

Die KI bewertet die Schwere der Nachrichten auf einer Skala von 1 bis 10. 9 bedeutet, dass ein Suizid bald begangen werden könnte, 10 heißt, es könnte bereits passieren. In diesen Fällen kontaktieren Freiwillige direkt die Polizei, oder wenn möglich, Verwandte oder Freunde der jeweiligen Person.