KI als Arzt? Studie zeigt: Menschen nutzen Sprachmodelle falsch

Große Sprachmodelle bestehen medizinische Prüfungen, scheitern aber im Kontakt mit echten Patient:innen. Eine Oxford-Studie zeigt: Die Diagnosequalität sinkt, sobald Laien mit KI interagieren. Hauptursache sind Missverständnisse und unklare Eingaben – nicht die Technik selbst.

2. Mai 2025
  • IT
  • Medizin


Eine Studie der Universität Oxford zeigt: Sprachmodelle wie GPT-4o liefern in medizinischen Tests präzise Antworten – im Kontakt mit Patient:innen versagen sie jedoch oft. In realitätsnahen Szenarien schnitten KI-Nutzer schlechter ab als eine Kontrollgruppe ohne KI. Ursache sei ein Übertragungsproblem: Patienten geben unvollständige Informationen ein oder interpretieren Antworten falsch. Die Forscher fordern daher praxisnahe Nutzertests und interaktive Systeme, die aktiv nachfragen. Die Studie stellt auch gängige Benchmarks infrage, die bislang als Leistungsnachweis galten. Trotz hoher KI-Kompetenz bleibt die Mensch-Maschine-Kommunikation das größte Hindernis für den klinischen Einsatz…

Quelle:

the-decoder.de


Medinfoweb
Die etablierte Informationsplattform für Informatik, Ökonomie, Marketing und Qualitätsmanagement im Gesundheitswesen.

Gebündelt, stets aktuell und immer handverlesen werden alle Neuigkeiten gesammelt und anwenderbezogen aufbereitet.