Wenn Sprachmodelle lernen, wie Mediziner denken

LLMs sprechen fließend – denken aber nicht medizinisch. Prof. Michael Gertz fordert ein strukturiertes, nachvollziehbares Vorgehen für den KI-Einsatz in der Klinik. Nur mit transparenter Quellenlage, menschlicher Aufsicht und evidenzbasiertem Prompting wird aus Sprachfähigkeit auch Versorgungsqualität.

9. April 2025
  • IT
  • Medizin


Große Sprachmodelle versprechen Unterstützung entlang der gesamten Behandlungskette – doch ihr Denken bleibt assoziativ, nicht medizinisch. Prof. Michael Gertz warnt vor der Verwechslung sprachlicher Eloquenz mit echtem Fachwissen. LLMs prognostizieren lediglich das wahrscheinlichste nächste Wort. Für klinische Entscheidungsprozesse reicht das nicht aus. Vertrauen entsteht nur durch strukturierte Methoden wie Prompt-Engineering, Retrieval-Augmented Generation und Chain-of-Thought-Prozesse. Letztere orientieren sich an psychotherapeutischen Interviews und ermöglichen kausales, schrittweises Denken. Unverzichtbar bleibt laut Gertz die transparente Herkunft medizinischer Aussagen. Wo LLMs ihre Quellen nicht belegen können, endet die Verantwortung. Solange diese Hürden nicht gelöst sind, müssen Menschen medizinische Entscheidungen verifizieren – mit System, Evidenz und Sorgfalt…

Quelle:

healthcare-in-europe.com


Medinfoweb
Die etablierte Informationsplattform für Informatik, Ökonomie, Marketing und Qualitätsmanagement im Gesundheitswesen.

Gebündelt, stets aktuell und immer handverlesen werden alle Neuigkeiten gesammelt und anwenderbezogen aufbereitet.