Gefährliche KI Täuschung: Ein Weckruf für die Medizinische Forschung

In einer Studie nutzen Mediziner ChatGPT, um erfundene Messdaten zu generieren, die täuschend echt wirken

13. Dezember 2023
  • IT
  • Medizin
  • QM

In einer Studie nutzen Mediziner ChatGPT, um erfundene Messdaten zu generieren, die täuschend echt wirken. Der Artikel in ‚Nature‘ beleuchtet, wie sie damit auf die Risiken von Künstlicher Intelligenz in der Wissenschaft aufmerksam machen. Die Forscher erstellten mit GPT-4 und ADA (Advanced Data Analysis) scheinbar valide Daten für eine augenchirurgische Methode, um zu demonstrieren, wie KI in der Lage ist, Forschungsergebnisse zu manipulieren.

Quelle:

heise.de


Medinfoweb
Die etablierte Informationsplattform für Informatik, Ökonomie, Marketing und Qualitätsmanagement im Gesundheitswesen.

Gebündelt, stets aktuell und immer handverlesen werden alle Neuigkeiten gesammelt und anwenderbezogen aufbereitet.