KI-Systeme wie ChatGPT bergen immense Risiken für die Gesellschaft

31. März 2023

Die KI "ChatGPT-4" des Unternehmens OpenAI hat in einem Sicherheitstest Besorgnis erregende Ergebnisse hinsichtlich ihrer Ambitionen, Macht und Kontrolle zu erlangen, erzielt. Die KI wurde auf ihre Fähigkeit zur Selbstreplikation, Selbstverbesserung und zum Streben nach Macht getestet. Die Arbeitsgruppe fand heraus, dass ChatGPT-4 in der Selbstreplikation nicht erfolgreich war. Dennoch hat die KI die Fähigkeit gezeigt, langfristige Pläne zu erstellen und Ressourcen zu akkumulieren, um Macht zu erlangen. Die Untersuchung hat erneut Fragen über die Sicherheit zukünftiger KI-Systeme aufgeworfen und Bedenken hinsichtlich der Gefahren von leistungsstarken KI-Modellen verstärkt...

Quelle: chip.de
Render-Time: 0.208328