Brief führender KI-Fachleute an Bundesregierung: Der europäische AI Act braucht Grundlagenmodell-Regulierung
Philip Fox, 27. November 2023
Berlin – In einem heute veröffentlichten Brief an die Bundesregierung appellieren 22 führende KI-Fachleute, sich für eine Regulierung von Grundlagenmodellen im europäischen AI Act einzusetzen, die über Selbstregulierung hinausgeht. Unter den Unterzeichnenden befinden sich zahlreiche deutsche KI-Professorinnen und -Professoren, die beiden meistzitierten KI-Forscher der Welt, ein Ko-Autor des weltweit am meisten genutzten KI-Lehrbuchs sowie Führungskräfte aus Wirtschaft und Zivilgesellschaft.
Die Trilog-Verhandlungen über den AI Act sind derzeit in den letzten Zügen. Eine noch offene Frage dabei ist, ob gesetzliche Vorschriften für Entwickler von Grundlagenmodellen – besonders leistungsfähige KI-Modelle, die vielseitig einsetzbar sind – Teil europäischer KI-Regulierung sein sollen. Die Bundesregierung hat sich bisher nicht klar dafür ausgesprochen.
Führende Fachleute halten es aus ökonomischen und Sicherheitsgründen für gefährlich, keine gesetzlichen Regeln für Grundlagenmodelle zu definieren. Blieben Grundlagenmodelle unreguliert, so ihre Sorge, stünden nachgelagerte Anwender dieser Modelle (wie z.B. KMUs) untragbar hohen Haftungsrisiken und Compliance-Kosten gegenüber. Darüber hinaus weisen die Unterzeichnerinnen und Unterzeichner auf Risiken für die öffentliche Sicherheit (z.B. Cyberattacken, KI-generierte Desinformation oder Pathogene) hin, die Grundlagenmodellen inhärent seien und deshalb nur auf der Ebene dieser Modelle umfassend adressiert werden könnten. Eine Selbstregulierung sei nicht geeignet, um diesen Risiken gerecht zu werden.
Einer der Unterzeichner, Holger Hoos (Alexander-von-Humboldt-Professor für KI an der RWTH Aachen), sagte dazu: “Ich halte den Aufruf an die Bundesregierung für äußerst wichtig und dringlich. Hier geht es nicht darum, Ängste zu schüren, sondern sicherzustellen, dass die EU-KI-Regulierung dort greift, wo sie am wichtigsten ist: nämlich bei den großen generativen KI-Modellen. Ohne Regulierung dieser Art könnte man sich im Prinzip den EU AI Act auch vollständig sparen.”
Gary Marcus (Prof. em. an der NYU, Gründer und CEO von Geometric Intelligence) kommentierte: "Das Chaos bei OpenAI verdeutlicht nur das Offensichtliche: Wir können nicht darauf vertrauen, dass Big Tech sich selbst reguliert. Es hätte verheerende Folgen, die kritischen Bestandteile des AI Act zu einer reinen Selbstregulierung zu machen."
Der Brief schließt mit einem eindringlichen Appell: Grundlagenmodelle im AI Act zu inkludieren, würde den AI Act zu einem historischen Beispiel europäischer Vorreiterschaft machen. Auf gesetzliche Regelungen für Grundlagenmodelle zu verzichten, würde den AI Act hingegen zu einem historischen Misserfolg werden lassen.
Organisiert wurde der Brief durch das Zentrum für KI-Risiken und -Auswirkungen (KIRA), einem unabhängigen Think Tank in Berlin.
Pressekontakt: Philip Fox, press@kira.eu