Gefährliche KI Täuschung: Ein Weckruf für die Medizinische Forschung
In einer Studie nutzen Mediziner ChatGPT, um erfundene Messdaten zu generieren, die täuschend echt wirken
13. Dezember 2023
- IT
- Medizin
- QM
In einer Studie nutzen Mediziner ChatGPT, um erfundene Messdaten zu generieren, die täuschend echt wirken. Der Artikel in ‚Nature‘ beleuchtet, wie sie damit auf die Risiken von Künstlicher Intelligenz in der Wissenschaft aufmerksam machen. Die Forscher erstellten mit GPT-4 und ADA (Advanced Data Analysis) scheinbar valide Daten für eine augenchirurgische Methode, um zu demonstrieren, wie KI in der Lage ist, Forschungsergebnisse zu manipulieren.
Quelle:
heise.de

Gebündelt, stets aktuell und immer handverlesen werden alle Neuigkeiten gesammelt und anwenderbezogen aufbereitet.