Google+Find us on Google+
Internet of Things (IOT), News

Künstliche Intelligenz erkennt Suizidgedanken

Künstliche Intelligenz erkennt Suizidgedanken Künstliche Intelligenz erkennt Suizidgedanken anhand der Gesichtsmimik von wenigen Millisekunden. (Bild: Rudi Fränl)
About Author
Thorsten Claus
tc

Thorsten Claus ist Gründer und Chefredakteur von “moobilux | Connected Mobile” mit mehr als 16 Jahren Berufserfahrung. Der langjährige Journalist beschäftigt sich vor allem mit Themen rund um die mobile Telekommunikation. Als Experte veröffentlichte er in den vergangenen Jahren u. a. Fachbeiträge in “VoIP Compendium”, “Voice Compass” und “t3n”. Als Experte berichtete er in “Deutschland-Radio Wissen”, “Finacial Times Deutschland” und bei “n-tv” über die neuen Trends und Entwicklungen in der Technologie-Branche. Thorsten Claus ist Mitgründer der Pitch-TV-Eventserie „pitchfreunde // Show Your Mobile“ welches sich speziell an Startups mit Fokus Mobile & e-Mobility richtet.

Künstliche Intelligenz, kurz KI, soll Selbstmordabsichten bei öffentlichen Verkehrsmitteln voraussagen. Das Londoner Unternehmen Human hat hierzu einen KI basierten Algorithmus entwickelt, der Emotionen im Gesicht abliest. Um extreme Gefühle festzustellen, fokussiert sich die Software auf Gesichtsbewegungen, die im Millisekunden Bereich erfolgen. Das Programm lässt sich mittels mobilen Internet, API oder Überwachungskamerasystemen nutzen.

Erfassung der Höhen und Tiefen
Nur weil jemand deutliche Signale von Sorge in seiner Mimik zeige, heiße dies noch lange nicht, dass eine Selbstmordabsicht vorliegen müsse. Dafür gebe es viele andere mögliche Gründe.

“Die Mimik und Körpersprache eines Menschen geben uns zwar verlässliche Hinweise darauf, wie sich ein Mensch gerade fühlt. Sie verraten aber nicht, warum die Person gerade eine bestimmte Emotion erlebt. Zieht jemand beispielsweise die Augenbrauen hoch und zusammen, so ist dies ein relativ zuverlässiger Hinweis darauf, dass die Person gerade Sorge, also eine leichte Angst spürt”, sagt Dirk Eilert von der Eilert-Akademie für emotionale Intelligenz.

Human arbeitet bereits mit einer Vielzahl an Verkehrsbehörden sowie Notfalldiensten in Europa, den USA und Kanada zusammen. “Historische Daten weisen darauf hin, dass unsere Klienten bevorzugte Orte haben, an denen Suizidversuche tendenziell öfter stattfinden”, erklärt Human-Gründerin Yi Xu gegenüber dem “Portal The Memo”.

Prävention
Die Emotion-Tracking-Technologie ist nicht nur zur Verhinderung von Selbstmorden, sondern auch in anderen Bereichen, wie am Arbeitsplatz, an Konsumorten oder bei öffentlichen Behörden, einsetzbar. Auch im Sport- oder Versicherungsbereich kann es von Vorteil sein, die mentale Gesundheit zu eruieren.

Das Unternehmen ist sogar von der britischen Organisation CamCare zertifiziert worden, um potenziell Spielsüchtige zu identifizieren. “Wir adressieren uns mit unserer Technologie an Menschen, die andernfalls in der Menschenmenge untergehen würden”, erklärt Xu. Das Ergebnis seien quantifizierbare Resultate, die auf extreme psychische Höhen und Tiefen schließen lassen.

Missbrauch möglich
Wie bei anderen Technologien ist auf beim Emotion-Tracking die Gefahr des Missbrauchs nicht auszuschließen. Dieser Missbrauch der durch die KI gewonnen Ergebnisse, könnte z.B. auch darin liegen, dass diese ohne das Wissen des analysierten Opfers einhergeht. Daher ist sind auch an dieser Stelle klare Regelungen des Gesetzgebers gefragt, damit neue Technologien nur zum Vorteil aller eingesetzt werden.

To Top