ChatGPT zeigt Potenzial in Notaufnahmen, bleibt aber hinter menschlichem Urteilsvermögen zurück
Eine Studie der University of California, San Francisco zeigt, dass ChatGPT Ärzte in Notaufnahmen unterstützen könnte, aber aufgrund seiner Neigung zu übervorsichtigen Empfehlungen noch nicht das klinische Urteilsvermögen menschlicher Ärzte erreicht.
- IT
Die generative KI ChatGPT wurde in einer Studie der University of California, San Francisco (UCSF) als potenzielle Unterstützung in Notaufnahmen untersucht. Dabei zeigte sich, dass ChatGPT einfache Entscheidungen gut bewältigen kann, bei komplexeren Fällen jedoch an seine Grenzen stößt. Im Vergleich zu menschlichen Ärzten tendiert ChatGPT dazu, häufiger unnötige medizinische Maßnahmen wie Einweisungen, radiologische Untersuchungen und Antibiotikaverordnungen zu empfehlen. ChatGPT-4 war dabei acht Prozent und ChatGPT-3.5 sogar 24 Prozent weniger genau als menschliche Ärzte. Hauptautor Chris Williams führt diese „Übervorsichtigkeit“ auf das Training des Modells mit Internetdaten zurück, die eher auf Sicherheit und Verweisungen an Ärzte ausgelegt sind. Um ChatGPT effektiv in der Notaufnahme einzusetzen, sind laut der Studie klare Rahmenbedingungen erforderlich, die eine Balance zwischen notwendiger Vorsicht und Vermeidung unnötiger Maßnahmen sicherstellen. Die Herausforderung besteht darin, die KI so zu gestalten, dass sie sinnvolle Unterstützung bietet, ohne die Ressourcen übermäßig zu beanspruchen…
ingenieur.de
Gebündelt, stets aktuell und immer handverlesen werden alle Neuigkeiten gesammelt und anwenderbezogen aufbereitet.