Deepfake-Röntgenbilder erhöhen Risiken für Diagnostik und Klinikschutz
Eine Studie zeigt, dass Radiologen KI-generierte Röntgenbilder kaum von echten Aufnahmen unterscheiden können. Das verschärft Risiken für Diagnosen, digitale Patientenakten und die Cybersicherheit im Gesundheitswesen…
- Data und KI
- QM
Eine Studie im Fachjournal Radiology zeigt ein neues Risiko für das Gesundheitswesen. KI kann Röntgenbilder erzeugen, die selbst erfahrene Radiologinnen und Radiologen kaum als Fälschung erkennen. Das gefährdet die Diagnosesicherheit und erhöht die Risiken für Missbrauch in digitalen Klinikstrukturen.
Das Forschungsteam um Dr. Mickael Tordjman von der Icahn School of Medicine in New York ließ 17 Radiologen aus zwölf Kliniken in sechs Ländern 264 Röntgenbilder bewerten. Unter den beteiligten Kliniken waren auch Einrichtungen aus Deutschland. Die Ärzte konnten echte und KI-generierte Bilder kaum unterscheiden. Auch die Berufserfahrung von null bis 40 Jahren verbesserte die Erkennungsrate nicht.
Oftmals wirken die synthetischen Bilder auffällig glatt und symmetrisch. Knochen erscheinen übermäßig glatt, Wirbelsäulen unnatürlich gerade und Lungenflügel sehr gleichmäßig. Diese Merkmale reichen aber nicht aus, um Fälschungen sicher zu erkennen. Der Text betont außerdem, dass frei verfügbare generative KI die Erstellung anatomisch plausibler Bilder deutlich erleichtert.
Die Studie verweist damit auf Risiken für Diagnosen, betrügerische Klagen und Cyberangriffe auf Kliniknetzwerke. Als Reaktion fordern die Autoren neue Detektionsmethoden, gezielte Schulungen für Radiologen und regulatorische Antworten auf den Missbrauch solcher Deepfake-Bilder.
Gebündelt, stets aktuell und immer handverlesen werden alle Neuigkeiten gesammelt und anwenderbezogen aufbereitet.