Verlieren wir die Kontrolle? Privitera mit Gastbeitrag für WELT Online
Philip Fox, 25. Mai 2023
In einem Gastbeitrag für WELT Online weist KIRA-Geschäftsführer Daniel Privitera auf potentiell schwerwiegende Risiken hin, die neben vielen Chancen mit fortgeschrittener KI einhergehen. Dabei bezieht er sowohl die eindringlichen Warnungen führender KI-Experten wie Geoffrey Hinton, Stuart Russell und Yoshua Bengio ein, wie auch mehrere Hintergrundgesprächen mit Angestellten großer KI-Firmen, die er zuletzt in den USA führte.
Die Sorgen basierten auf dem ungelösten “Alignment-Problem”: Niemand in der Forschung könne aktuell sicherstellen, dass leistungsstarke KI-Systeme unsere Werte und Ziele teilen. Ein Problem, das mit stärkeren Modellen umso akuter werden könnte: “Die Systeme werden nämlich auch besser darin, Menschen zu täuschen.”
Könnte man einem KI-System, das bedenkliches Verhalten zeigt, nicht einfach den Stecker ziehen? Darauf sollten wir uns nicht verlassen, sagt Privitera: “Ein KI-System wie GPT-4 ist keine physische Maschine – sondern letztlich eine Datei, die sich per E-Mail verschicken lässt.” Ein einmal in Umlauf geratenes Modell könne deshalb schwer wieder eingefangen werden.
Um solche Risiken, aber auch heute schon auftretende negative Auswirkungen durch KI zu minimieren, plädiert Privitera für:
eine konstruktive politische Debatten, die frei von "parteipolitischen Spielchen” ist
verpflichtende externe Sicherheitsüberprüfungen für neue KI-Modelle
ein gemeinsamer Einsatz von Regierungen für internationale Governance-Lösungen
Daniel Privitera promoviert in Volkswirtschaftslehre an der Universität Oxford und ist Geschäftsführer des Zentrum für KI-Risiken & -Auswirkungen (KIRA).