Regelungsvorhaben
Internationales Abkommen für eine sichere und kontrollierbare Entwicklung fortgeschrittener KI-Systeme
Angegeben von:
PauseAI Germany (R007813)
am
28.01.2026
Beschreibung:
PauseAI Germany fordert ein völkerrechtliches Verbot der Superintelligenz-Entwicklung, aufzuheben nur bei breitem wissenschaftlichem Konsens über sichere Entwicklung und starker öffentlicher Zustimmung.
Konkret wird gefordert:
1) Internationale KI-Sicherheitsbehörde (analog IAEA) für Genehmigung von Trainingsläufen und Sicherheitsbewertungen
2) Technische Schwellenwerte für die Entwicklung genehmigungspflichtiger Systeme
3) Unabhängige Sicherheitsprüfungen vor Deployment
4) Internationale Verifikationsmechanismen
Deutschland soll sich auf EU- und UN-Ebene für ein solches Abkommen einsetzen.
- Sonstiges im Bereich "Medien, Kommunikation und Informationstechnik" [alle RV hierzu]