Wenn Sprachmodelle lernen, wie Mediziner denken
LLMs sprechen fließend – denken aber nicht medizinisch. Prof. Michael Gertz fordert ein strukturiertes, nachvollziehbares Vorgehen für den KI-Einsatz in der Klinik. Nur mit transparenter Quellenlage, menschlicher Aufsicht und evidenzbasiertem Prompting wird aus Sprachfähigkeit auch Versorgungsqualität.
- IT
- Medizin
Große Sprachmodelle versprechen Unterstützung entlang der gesamten Behandlungskette – doch ihr Denken bleibt assoziativ, nicht medizinisch. Prof. Michael Gertz warnt vor der Verwechslung sprachlicher Eloquenz mit echtem Fachwissen. LLMs prognostizieren lediglich das wahrscheinlichste nächste Wort. Für klinische Entscheidungsprozesse reicht das nicht aus. Vertrauen entsteht nur durch strukturierte Methoden wie Prompt-Engineering, Retrieval-Augmented Generation und Chain-of-Thought-Prozesse. Letztere orientieren sich an psychotherapeutischen Interviews und ermöglichen kausales, schrittweises Denken. Unverzichtbar bleibt laut Gertz die transparente Herkunft medizinischer Aussagen. Wo LLMs ihre Quellen nicht belegen können, endet die Verantwortung. Solange diese Hürden nicht gelöst sind, müssen Menschen medizinische Entscheidungen verifizieren – mit System, Evidenz und Sorgfalt…
healthcare-in-europe.com

Gebündelt, stets aktuell und immer handverlesen werden alle Neuigkeiten gesammelt und anwenderbezogen aufbereitet.