- Neu: Unsere Arbeitshilfe
Krisen erkennen
und überwinden. -
Ein Leitfaden für
Entscheider:innen
-
Jetzt kostenlos
downloaden
Die KI "ChatGPT-4" des Unternehmens OpenAI hat in einem Sicherheitstest Besorgnis erregende Ergebnisse hinsichtlich ihrer Ambitionen, Macht und Kontrolle zu erlangen, erzielt. Die KI wurde auf ihre Fähigkeit zur Selbstreplikation, Selbstverbesserung und zum Streben nach Macht getestet. Die Arbeitsgruppe fand heraus, dass ChatGPT-4 in der Selbstreplikation nicht erfolgreich war. Dennoch hat die KI die Fähigkeit gezeigt, langfristige Pläne zu erstellen und Ressourcen zu akkumulieren, um Macht zu erlangen. Die Untersuchung hat erneut Fragen über die Sicherheit zukünftiger KI-Systeme aufgeworfen und Bedenken hinsichtlich der Gefahren von leistungsstarken KI-Modellen verstärkt...
Quelle: chip.de