Ethische Verantwortung in der KI-Nutzung: Unternehmen unter Zugzwang
Ab 2025 verpflichtet der EU AI Act Unternehmen zur strikten Einhaltung von Sicherheits- und Governance-Vorgaben für KI, darunter die Bewertung systemischer Risiken und die Abschaltung verbotener Systeme. Multidisziplinäre Taskforces sollen ethische, rechtliche und technische Standards sicherstellen, um Risiken zu mindern und künftige Gesetzesänderungen zu antizipieren.
- IT
- Politik
- QM
Der EU AI Act fordert Unternehmen ab 2025 dazu auf, ihre KI-Systeme zu bewerten, Risiken zu minimieren und strenge Cybersicherheits- und Energieeffizienzstandards einzuhalten. Verbotene Systeme müssen innerhalb von sechs Monaten abgeschaltet werden, während Hochrisikosysteme einer strengen Governance unterliegen. Multidisziplinäre Teams aus den Bereichen Recht, Datenschutz, Data Science und Risikomanagement sollen die Einhaltung überwachen, Risiken bewerten und Standards etablieren. Zudem wird empfohlen, digitale Ethik in die Kategorisierung von KI-Systemen einzubeziehen, um manipulative oder gefährliche Technologien frühzeitig zu identifizieren und Gesetzesänderungen vorzugreifen. Die Vorbereitung auf den AI Act ist essenziell, um rechtliche und ethische Herausforderungen in der KI-Nutzung zu meistern…
kpmg.de
Gebündelt, stets aktuell und immer handverlesen werden alle Neuigkeiten gesammelt und anwenderbezogen aufbereitet.