KI als Arzt? Studie zeigt: Menschen nutzen Sprachmodelle falsch
Große Sprachmodelle bestehen medizinische Prüfungen, scheitern aber im Kontakt mit echten Patient:innen. Eine Oxford-Studie zeigt: Die Diagnosequalität sinkt, sobald Laien mit KI interagieren. Hauptursache sind Missverständnisse und unklare Eingaben – nicht die Technik selbst.
- IT
- Medizin
Eine Studie der Universität Oxford zeigt: Sprachmodelle wie GPT-4o liefern in medizinischen Tests präzise Antworten – im Kontakt mit Patient:innen versagen sie jedoch oft. In realitätsnahen Szenarien schnitten KI-Nutzer schlechter ab als eine Kontrollgruppe ohne KI. Ursache sei ein Übertragungsproblem: Patienten geben unvollständige Informationen ein oder interpretieren Antworten falsch. Die Forscher fordern daher praxisnahe Nutzertests und interaktive Systeme, die aktiv nachfragen. Die Studie stellt auch gängige Benchmarks infrage, die bislang als Leistungsnachweis galten. Trotz hoher KI-Kompetenz bleibt die Mensch-Maschine-Kommunikation das größte Hindernis für den klinischen Einsatz…
the-decoder.de
Gebündelt, stets aktuell und immer handverlesen werden alle Neuigkeiten gesammelt und anwenderbezogen aufbereitet.