Forschung zeigt: Menschen erzielen bei medizinischen Fragestellungen die besten Ergebnisse. Und zwar mit KI
Der Einsatz von ChatGPT für medizinische Fragen nimmt zu. Nutzer:innen laden oft Fotos hoch, um eine erste Einschätzung zu erhalten. Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) betont die Möglichkeit, sich im Dialog mit der KI schrittweise einer Problemlösung zu nähern. Auch könne die Technik Barrieren abbauen, indem Informationen in verschiedenen Sprachen und Formaten bereitgestellt werden.
- IT
 - Medizin
 - QM
 
Die Risiken sind jedoch erheblich. ChatGPT kann falsche Antworten generieren, sogenannte „Halluzinationen“. Falschdiagnosen können gravierende Folgen haben. Anders als bei Suchmaschinen suggerieren KI-Dialoge eine persönliche Beratung, was kritisches Hinterfragen erschwert. Ärzt:innen berichten von Patient:innen, die mit durch KI erzeugten Selbstdiagnosen in die Praxis kommen und seltene Krankheiten vermuten.
Für eine erste Orientierung kann ChatGPT nützlich sein. In der medizinischen Praxis wird KI zunehmend als Unterstützung eingesetzt. DFKI-Experten regen an, dass Krankenkassen oder seriöse Anbieter datenschutzkonforme Modelle bereitstellen.
Eine internationale Studie unter Leitung des Max-Planck-Instituts zeigt, dass die Kombination aus menschlicher Expertise und KI die treffsichersten Diagnosen liefert. Beide machen unterschiedliche Fehler, die sich gegenseitig ausgleichen können.
Trotz technischer Fortschritte bleibt klar, Diagnose, Indikationsstellung und Therapie müssen in ärztlicher Verantwortung liegen. Die KI kann den Weg zum Arzt nicht ersetzen.
tagesschau.de
					Gebündelt, stets aktuell und immer handverlesen werden alle Neuigkeiten gesammelt und anwenderbezogen aufbereitet.