Der “International AI Safety Report” als Grundlage globaler KI-Politik

Philip Fox, 29. Januar 2025

 

Heute veröffentlicht eine Gruppe von ~100 KI-Fachleuten den “International AI Safety Report". Der von 30 Regierungen, der UNO, OECD und EU in Auftrag gegebene Bericht fasst den aktuellen Stand der Wissenschaft zu KI-Fähigkeiten, -Risiken und -Sicherheitsmaßnahmen zusammen.

Der Bericht ist das Ergebnis einer einzigartigen wissenschaftlichen Zusammenarbeit, an der Nobelpreisträger, Turing-Preisträger und Fachleute aus aller Welt mitgewirkt haben. Ziel ist es, Orientierung in einem immer komplexer werdenden KI-Diskurs zu bieten und damit eine Grundlage für informierte politische Entscheidungen zu schaffen.

Aus dem KIRA-Team waren Daniel Privitera als Lead Writer und Philip Fox als Writer an dem Vorhaben beteiligt.

Der Fokus liegt auf der sogenannten “Allzweck-KI” (“general-purpose AI”), deren Fähigkeiten sich in den vergangenen Jahren und Monaten besonders schnell entwickelt sind. Drei Kernfragen strukturieren den Bericht:

  1. Was kann Allzweck-KI?

  2. Welche Risiken sind mit ihr verbunden?

  3. Was können wir gegen diese Risiken tun?

Zu den wichtigsten Ergebnissen gehören:

  • KI entwickelt sich rasant: In den vergangenen 18 Monaten haben die besten Modelle in ausgewählten Benchmarks einen Sprung von “zufälligem Raten” zu “Doktoranden-Niveau” gemacht.

  • KI-Unternehmen setzen zunehmend auf “inference-scaling”: KI-Modelle erhalten dabei immer mehr Rechenleistung, um Probleme zu lösen. Dieses neue Paradigma könnte in Zukunft zuverlässig bessere Fähigkeiten ermöglichen.

  • Es gibt mehrere gut dokumentierte Schäden durch Allzweck-KI, darunter Betrugsmaschen, Urheberrechtsverletzungen und nicht-einvernehmliche intime Darstellungen.

  • Mit steigenden KI-Fähigkeiten wächst auch die Evidenz für weitere Risiken. Dazu gehören Verwerfungen am Arbeitsmarkt, KI-gestützte Cyber- oder biologische Angriffe und ein gesellschaftlicher Kontrollverlust über Allzweck-KI.

  • Es gibt verschiedene Techniken, um KI-Risiken zu reduzieren – z. B. Evaluationen, Maßnahmen für mehr Datenschutz oder Erklärbarkeits-Tools –, aber deren Wirkung ist aktuell begrenzt.

  • Für politische Entscheidungen wird zukünftig immer häufiger ein “Evidenz-Dilemma” gelten: Präventive Maßnahmen ohne ausreichende Evidenz könnten sich als unnötig oder unwirksam erweisen, während das Warten auf weitere Evidenz dazu führen könnte, dass die Gesellschaft unvorbereitet auf größere Risiken ist.

Der Bericht dient als Gesprächsgrundlage für den AI Action Summit, der am 10./11. Februar in Paris stattfindet.

Zurück
Zurück

Gastbeitrag von Leicht und Fox: Warum Deutschland ein AI Security Institute braucht

Weiter
Weiter

Brief führender KI-Fachleute an Bundesregierung: Der europäische AI Act braucht Grundlagenmodell-Regulierung