Wenn KI Therapie braucht: Studie zeigt emotionale Reaktionen von ChatGPT

Eine Studie der Universität Zürich zeigt: ChatGPT reagiert auf traumatische Inhalte mit erhöhter „Angst“. Das könnte therapeutische Einsätze problematisch machen. Beruhigende Texte senken diese Reaktion, aber nicht vollständig. Forscher betonen: KI-Chatbots brauchen emotionale Stabilität, um in sensiblen Bereichen sicher eingesetzt zu werden.

5. März 2025
  • IT


KI-Chatbots sollen künftig in der Psychotherapie eingesetzt werden – doch eine Studie der Universität Zürich deckt Schwächen auf. ChatGPT reagierte auf traumatische Geschichten mit erhöhter „Angst“, was bestehende Vorurteile verstärken könnte.

Die Forscher testeten, ob beruhigende Texte die KI stabilisieren können. Tatsächlich senkten gezielte „Achtsamkeitsübungen“ die Angstwerte, wenn auch nicht vollständig.

Für den Einsatz im Gesundheitswesen hat das weitreichende Folgen. KI-Systeme müssen so gesteuert werden, dass sie in kritischen Situationen stabil bleiben. Entspannungstexte könnten helfen, doch langfristige Lösungen sind noch unklar. Die Studie zeigt: KI kann keine menschlichen Therapeuten ersetzen – und braucht selbst „emotionale“ Regulierung…

Quelle:

telepolis.de


Medinfoweb
Die etablierte Informationsplattform für Informatik, Ökonomie, Marketing und Qualitätsmanagement im Gesundheitswesen.

Gebündelt, stets aktuell und immer handverlesen werden alle Neuigkeiten gesammelt und anwenderbezogen aufbereitet.