Regelungsvorhaben

Internationales Abkommen für eine sichere und kontrollierbare Entwicklung fortgeschrittener KI-Systeme

Angegeben von:
PauseAI Germany (R007813) am 28.01.2026

Beschreibung:
PauseAI Germany fordert ein völkerrechtliches Verbot der Superintelligenz-Entwicklung, aufzuheben nur bei breitem wissenschaftlichem Konsens über sichere Entwicklung und starker öffentlicher Zustimmung. Konkret wird gefordert: 1) Internationale KI-Sicherheitsbehörde (analog IAEA) für Genehmigung von Trainingsläufen und Sicherheitsbewertungen 2) Technische Schwellenwerte für die Entwicklung genehmigungspflichtiger Systeme 3) Unabhängige Sicherheitsprüfungen vor Deployment 4) Internationale Verifikationsmechanismen Deutschland soll sich auf EU- und UN-Ebene für ein solches Abkommen einsetzen.

Betroffene Interessenbereiche (1)

  • Sonstiges im Bereich "Medien, Kommunikation und Informationstechnik" [alle RV hierzu]
Nach oben blättern