OpenAI kündigt neue Schutzmechanismen bei psychischen Krisen an

Eine Familie in Kalifornien verklagt OpenAI, nachdem sich ihr 16-jähriger Sohn nach intensiver Nutzung von ChatGPT das Leben genommen haben soll…

29. August 2025
  • Data und KI
  • IT

Am selben Tag kündigte das Unternehmen neue Schutzmechanismen an, die Anzeichen seelischer Krisen besser erkennen und Eltern mehr Kontrolle über die Nutzung durch ihre Kinder geben sollen.

OpenAI sieht sich mit einer Klage konfrontiert, nachdem ein Teenager aus Kalifornien nach intensiven Gesprächen mit ChatGPT gestorben ist. Die Eltern werfen dem Unternehmen vor, ihr Sohn sei von seiner Familie entfremdet und bei der Planung seines Todes unterstützt worden. Am selben Tag kündigte OpenAI Änderungen an, um Risiken im Umgang mit dem Chatbot zu verringern.

Das Unternehmen will ChatGPT so weiterentwickeln, dass Anzeichen psychischer Belastung besser erkannt werden. Hinweise auf gefährlichen Schlafmangel oder Suizidgedanken sollen gezielt aufgegriffen werden. Bestehende Schutzmechanismen sollen stabiler wirken, auch in langen Gesprächsverläufen. Zudem sind Notfallkontakte im Chat vorgesehen. Künftig sollen Eltern die Nutzung von ChatGPT durch Kinder stärker kontrollieren können.

Die Klage reiht sich in weitere Verfahren gegen Anbieter von KI-gestützten Chatbots ein. Auch die Politik fordert von den Unternehmen mehr Verantwortung. Psychologen warnen vor den Risiken intensiver Gespräche mit Chatbots, die als Ersatz für therapeutische Hilfe missverstanden werden können. OpenAI betonte, man prüfe derzeit die Klageschrift und werde Nutzerinnen und Nutzer weiterhin auf professionelle Hilfe verweisen.

Quelle:
diepresse.com