Medizinische Fragen an ChatGPT: Warum OpenAI jetzt klare Grenzen zieht

Immer mehr Menschen nutzen KI bei gesundheitlichen Fragen. Fachleute warnen jedoch vor Fehleinschätzungen, rechtlichen Risiken und falscher Sicherheit. OpenAI reagiert mit klaren Einschränkungen…

8. Januar 2026
  • Data und KI

Künstliche Intelligenz wird zunehmend für medizinische Fragen genutzt. Viele Anwenderinnen und Anwender schätzen die schnelle, verständliche und scheinbar empathische Antwort von Systemen wie ChatGPT. Fachleute sehen diese Entwicklung kritisch. Der Wiener Anästhesist und KI-Forscher Oliver Kimberger warnt vor inhaltlichen Fehlern, sogenannten Halluzinationen und inkonsistenten Aussagen, die Laien nicht erkennen können. OpenAI hat deshalb die medizinische und rechtliche Beratung durch ChatGPT in den Nutzungsbedingungen untersagt. Der Schritt dient vor allem der rechtlichen Absicherung. Zwar kann KI Hemmschwellen senken und zum Arztbesuch ermutigen, sie bleibt jedoch ein nicht zertifiziertes Werkzeug ohne medizinische Verantwortung. Besonders problematisch ist die mögliche Verstärkung von Ängsten oder psychischen Belastungen. Körperliche Untersuchungen, ärztliche Einschätzung und Behandlung kann KI nicht ersetzen.

Quelle:
sn.at

Medinfoweb
Die etablierte Informationsplattform für Informatik, Ökonomie, Marketing und Qualitätsmanagement im Gesundheitswesen.

Gebündelt, stets aktuell und immer handverlesen werden alle Neuigkeiten gesammelt und anwenderbezogen aufbereitet.