Eine Ära, in der 1,2 Millionen Menschen pro Woche dem KI-System ihre Suizidgedanken anvertrauen — Gespräche über Suizid machen 0,15% der wöchentlichen Kommunikation aus.

Eine Ära, in der 1,2 Millionen Menschen pro Woche dem KI-System ihre Suizidgedanken anvertrauen — Gespräche über Suizid machen 0,15% der wöchentlichen Kommunikation aus.

OpenAI gab am 27. Oktober bekannt, dass etwa 0,15 % der wöchentlich aktiven Nutzer von ChatGPT Gespräche führen, die auf Suizidpläne oder -absichten hindeuten, und 0,07 % Anzeichen von psychischen Erkrankungen oder manischen Zuständen zeigen. Bei einer Nutzerschaft von 800 Millionen pro Woche entspricht dies etwa 1,2 Millionen in Bezug auf Suizid und etwa 560.000 in Bezug auf psychische Erkrankungen oder Manie. Mit GPT-5 wurde die Anzahl der „unerwünschten Antworten“ in solchen schwierigen Gesprächen um 65–80 % reduziert, und es wurden Maßnahmen zur Bereitstellung von Krisen-Hotline-Informationen sowie zur Verbesserung der Qualität bei längeren Gesprächen verstärkt. Gleichzeitig gibt es jedoch rechtliche und regulatorische Druckmittel sowie gemischte Reaktionen in sozialen Netzwerken, wie „nur eine Selbsteinschätzung“ oder „Transparenz ist positiv“. Um AI näher an eine „Ersthilfe für die Seele“ zu bringen, sind die Genauigkeit der Erkennung, die Zuverlässigkeit bei langen Gesprächen, der Schutz von Minderjährigen und die Überprüfung der praktischen Ergebnisse entscheidend.