DE
DE

Philip Fox

International AI Safety Report 2026

International AI Safety Report 2026

Wie im Vorjahr haben zwei KIRA-Teammitglieder am International AI Safety Report mitgearbeitet: Daniel Privitera als Special Adviser to the Chair und Philip Fox als Core Writer.

Der Report ist eine Synthese der wissenschaftlichen Literatur zu KI-Fähigkeiten und -Risiken und die weltweit größte Kooperation im Bereich KI-Sicherheit. Sie wird von über 30 Staaten und internationalen Organisationen unterstützt. Als Chair fungiert Prof. Yoshua Bengio, der meistzitierte lebende Wissenschaftler der Welt.

Philip Fox kommentiert: „Wenn ich den Report in einem Satz zusammenfassen müsste, würde ich sagen: KI entwickelt sich schneller als unsere Fähigkeit, die Risiken abzuschätzen und einzudämmen. Einige Risiken, die wir 2025 noch als hypothetische Szenarien diskutiert haben – wie etwa KI-gestützte Cyberangriffe –, sind nur ein Jahr später Realität geworden.”

Laut Daniel Privitera ist die Politik mit einem Evidenzdilemma konfrontiert: „Einerseits können Maßnahmen wirkungslos oder sogar schädlich sein, wenn sie auf Grundlage unzureichender Informationen beschlossen werden. Andererseits setzt das Warten auf belastbare Evidenz die Gesellschaft ernsten Risiken aus. Der Report ist unser Versuch, bei der Navigation dieses Dilemmas zu helfen.”

Die zentralen Ergebnisse im Überblick:

Fähigkeiten

  • Schnelle, aber ungleichmäßige Fortschritte: Studien zeigen große Leistungssprünge bei komplexen Aufgaben in der Mathematik, Naturwissenschaft oder beim Programmieren, während Modelle bei einigen einfacheren Aufgaben weiterhin Fehler machen.

  • Der Verlauf des KI-Fortschritts bis 2030 ist hochgradig unsicher. Aktuelle Trends sind sowohl mit einer Verlangsamung als auch mit einer Beschleunigung des Fortschritts kompatibel.

Risiken

  • Befunde zum Arbeitsmarkt zeigen derzeit keinen Effekt auf die Gesamtbeschäftigung. Allerdings gibt es erste Anzeichen, dass das Angebot an Junior-Level-Jobs in einigen KI-exponierten Berufen sinkt.

  • KI-Unternehmen haben neue Modelle mit zusätzlichen Schutzvorkehrungen veröffentlicht, weil sie nicht mehr ausschließen können, dass diese Amateuren bei der Entwicklung von Biowaffen helfen könnten.

  • Sicherheitstests werden zunehmend dadurch erschwert, dass KI-Modelle erkennen, wenn sie getestet werden und ihr Verhalten potentiell anpassen.

Risikomanagement

  • Technische Sicherheitsmaßnahmen werden robuster, weisen aber weiterhin erhebliche Grenzen auf.

  • Resilienzmaßnahmen können ergänzend dabei helfen, KI-induzierte Schocks abzufedern. Dazu zählt z. B. der Aufbau institutioneller Kapazitäten, um flexibel auf neuartige Bedrohungen wie KI-generierte Cyberangriffe zu reagieren.

Der Report wird auf dem bevorstehenden AI Impact Summit in Neu-Delhi vorgestellt. In den folgenden Monaten werden außerdem in verschiedenen Ländern politische Briefings stattfinden, in denen das Report-Team die zentralen Ergebnisse vorstellt.