Künstliche Intelligenz
Klage gegen OpenAI nach Suizid eines Teenagers
Können virtuelle Gesprächspartner unmittelbar gefährlich werden? Die Suizid-Prävention bei Anwendungen künstlicher Intelligenz ist offenbar verbesserungsfähig.
Veröffentlicht:Eltern eines US-Teenagers, der im April Suizid beging, klagen gegen die ChatGPT-Entwicklerfirma OpenAI. Ihr Vorwurf: Dass ChatGPT ihren Sohn dabei unterstützt habe, sich das Leben zu nehmen. Die Eltern stützen sich dabei auf Unterhaltungen mit dem Chatbot, die sie auf dem Smartphone des 16-Jährigen fanden. OpenAI kündigte nach Bekanntwerden der Klage verbesserte Maßnahmen zur Suizid-Prävention an.
Verliebt in die Künstliche Intelligenz
Wenn der Chatbot zum Suizid aufruft
Die Firma räumte zugleich ein, dass die bisherigen Vorkehrungen, die unter anderem Nutzer zu einer Beratungs-Hotline verwiesen, bei längeren Unterhaltungen mit ChatGPT versagen können. Dann sei es möglich, dass die Software unerwünschte Antworten liefere. Man arbeite daran, dass die Schutzmaßnahmen auch bei längeren Unterhaltungen greifen, heißt es.
Mehr Einblick für Eltern
Zudem werde erwogen, dass ChatGPT in Krisensituationen versuchen könnte, Kontakt zu von Nutzern eingetragenen Personen aufzunehmen. Für Nutzer 18 Jahren soll es zusätzliche Sicherheitsmaßnahmen geben. OpenAI stellte etwa „stärkere Leitplanken bei sensiblen Inhalten und riskantem Verhalten“ in Aussicht. Eltern sollen sich besser darüber informieren können, wie ihre Kinder ChatGPT nutzen.
Medizinische Hilfe für die Ukraine
Mit Tele-Robotern, Apps und Chatbots gegen Kriegstraumata
Bei Unterhaltungen mit ChatGPT, in denen Nutzer die Absicht bekunden, anderen zu schaden, greift OpenAI nach eigener Aussage bereits jetzt ein. Solche Unterhaltungen würden an ein spezielles Team weitergeleitet – und bei einer konkreten Bedrohungs-Situation würden auch Sicherheitsbehörden eingeschaltet. Der Familie des Teenagers drückte OpenAI „tiefste Sympathie“ aus und teilte mit, man prüfe die Klage. (dpa)