{"$schema":"https://www.lobbyregister.bundestag.de/json-schemas/R2.22/Lobbyregister-Registereintrag-schema-R2.22.json","source":"Deutscher Bundestag, Lobbyregister für die Interessenvertretung gegenüber dem Deutschen Bundestag und der Bundesregierung","sourceUrl":"https://www.lobbyregister.bundestag.de","sourceDate":"2026-04-14T14:36:18.472+02:00","jsonDocumentationUrl":"https://www.lobbyregister.bundestag.de/informationen-und-hilfe/open-data-1049716","registerNumber":"R001948","registerEntryDetails":{"registerEntryId":38950,"legislation":"GL2024","version":10,"detailsPageUrl":"https://www.lobbyregister.bundestag.de/suche/R001948/38950","pdfUrl":"https://www.lobbyregister.bundestag.de/media/dd/e2/487056/Lobbyregister-Registereintraege-Detailansicht-R001948-2025-03-04_21-25-19.pdf","validFromDate":"2025-03-04T21:25:19.000+01:00","validUntilDate":"2025-08-04T21:17:29.000+02:00","fiscalYearUpdate":{"updateMissing":false,"lastFiscalYearUpdate":"2024-06-24T17:05:23.000+02:00"}},"accountDetails":{"activeLobbyist":true,"activeDateRanges":[{"fromDate":"2024-06-24T17:05:23.000+02:00"}],"firstPublicationDate":"2022-02-28T10:29:53.000+01:00","lastUpdateDate":"2025-03-04T21:25:19.000+01:00","registerEntryVersions":[{"registerEntryId":38950,"jsonDetailUrl":"https://www.lobbyregister.bundestag.de/sucheJson/R001948/38950","version":10,"legislation":"GL2024","validFromDate":"2025-03-04T21:25:19.000+01:00","validUntilDate":"2025-08-04T21:17:29.000+02:00","versionActiveLobbyist":true},{"registerEntryId":31121,"jsonDetailUrl":"https://www.lobbyregister.bundestag.de/sucheJson/R001948/31121","version":9,"legislation":"GL2024","validFromDate":"2024-06-24T17:05:23.000+02:00","validUntilDate":"2025-03-04T21:25:19.000+01:00","versionActiveLobbyist":true}],"accountHasCodexViolations":false},"lobbyistIdentity":{"identity":"ORGANIZATION","name":"AW AlgorithmWatch gGmbH","legalFormType":{"code":"JURISTIC_PERSON","de":"Juristische Person","en":"Legal person"},"legalForm":{"code":"LF_GMBH","de":"Gesellschaft mit beschränkter Haftung (GmbH)","en":"Limited liability company (GmbH)"},"contactDetails":{"phoneNumber":"+4930994049000","emails":[{"email":"register@algorithmwatch.org"}],"websites":[{"website":"https://algorithmwatch.org"}]},"address":{"type":"NATIONAL","nationalAdditional1":"AW AlgorithmWatch gGmbH","street":"Linienstr.","streetNumber":"13","zipCode":"10178","city":"Berlin","country":{"code":"DE","de":"Deutschland","en":"Germany"}},"capitalCityRepresentationPresent":false,"legalRepresentatives":[{"lastName":"Spielkamp","firstName":"Matthias","function":"Geschäftsführer, Gesellschafter","recentGovernmentFunctionPresent":false,"entrustedPerson":true,"contactDetails":{}}],"entrustedPersonsPresent":true,"entrustedPersons":[{"lastName":"Spielkamp","firstName":"Matthias","recentGovernmentFunctionPresent":false},{"academicDegreeBefore":"PhD/Dr.des.","lastName":"Müller","firstName":"Angela","recentGovernmentFunctionPresent":false},{"lastName":"Sombetzki","firstName":"Pia","recentGovernmentFunctionPresent":false},{"lastName":"Aszódi","firstName":"Nikolett","recentGovernmentFunctionPresent":false},{"lastName":"Helming","firstName":"Clara","recentGovernmentFunctionPresent":false},{"lastName":"Vieth-Ditlmann","firstName":"Kilian","recentGovernmentFunctionPresent":false}],"membersPresent":false,"membershipsPresent":true,"memberships":[{"membership":"AlgorithmWatch ist Mitglied des Netzwerks F5."},{"membership":"AlgorithmWatch ist Mitglied des Netzwerks Forum Medien und Entwicklung (fome)."}]},"activitiesAndInterests":{"activity":{"code":"ACT_NONPROFIT_ORGA_V2","de":"Nichtregierungsorganisation (NGO)","en":"Non-governmental organization (NGO)"},"typesOfExercisingLobbyWork":[{"code":"SELF_OPERATED_OWN_INTEREST","de":"Die Interessenvertretung wird in eigenem Interesse selbst wahrgenommen","en":"Interest representation is self-performed in its own interest"}],"fieldsOfInterest":[{"code":"FOI_SCIENCE_RESEARCH_TECHNOLOGY","de":"Wissenschaft, Forschung und Technologie","en":"Science, research and technology"},{"code":"FOI_SP_DIVERSITY","de":"Diversitätspolitik","en":"Diversity policy"},{"code":"FOI_MEDIA_DIGITALIZATION","de":"Digitalisierung","en":"Digitalization"},{"code":"FOI_MEDIA_FREEDOM_OF_SPEECH","de":"Meinungs- und Pressefreiheit","en":"Freedom of speech and freedom of the press"},{"code":"FOI_SA_PUBLIC_SERVICE","de":"Öffentlicher Dienst und öffentliche Verwaltung","en":"Public service"},{"code":"FOI_FA_HUMAN_RIGHTS","de":"Menschenrechte","en":"Human rights"},{"code":"FOI_ENVIRONMENT_SUSTAINABILITY","de":"Nachhaltigkeit und Ressourcenschutz","en":"Sustainability and resource protection"},{"code":"FOI_MEDIA_PRIVACY","de":"Datenschutz und Informationssicherheit","en":"Data protection and information security"},{"code":"FOI_MEDIA_OTHER","de":"Sonstiges im Bereich \"Medien, Kommunikation und Informationstechnik\"","en":"Other in the field of \"Media, communication and information technology\""},{"code":"FOI_SA_PUBLIC_ADMINISTRATION","de":"Verwaltungstransparenz/Open Government","en":"Public administration"},{"code":"FOI_MEDIA_INTERNET_POLICY","de":"Internetpolitik","en":"Internet policy"},{"code":"FOI_EU_LAWS","de":"EU-Gesetzgebung","en":"EU legislation"},{"code":"FOI_MEDIA_COMMUNICATION","de":"Kommunikations- und Informationstechnik","en":"Communication and information technology"},{"code":"FOI_WORK_RIGHT","de":"Arbeitsrecht/Arbeitsbedingungen","en":"Work right"},{"code":"FOI_MEDIA_MASS","de":"Massenmedien","en":"Mass media"}],"activityDescription":"AlgorithmWatch ist eine gemeinnützige Organisation mit dem Ziel, Prozesse algorithmischer Entscheidungsfindung zu betrachten und einzuordnen, die eine gesellschaftliche Relevanz haben - die also entweder menschliche Entscheidungen vorhersagen oder vorbestimmen, oder Entscheidungen automatisiert treffen. AlgorithmWatch analysiert die Auswirkungen algorithmischer Entscheidungsfindungsprozesse auf menschliches Verhalten und zeigt ethische Konflikte auf. Als Forschungs- und Advocacy-Organisation setzt AlgorithmWatch journalistische und wissenschaftliche Recherchemethoden ein, um unter anderem die Auswirkungen von Systemen der automatisierten Entscheidungsfindung (ADM) auf Gesellschaften einer breiten Öffentlichkeit zugänglich zu machen. Ziel der Organisation ist es, den Nutzen algorithmischer Entscheidungsfindung für das Gemeinwohl  zu maximieren. Zu diesem Zweck veröffentlicht sie Analysen, Positionspapiere, kommentiert Gesetzesvorhaben, organisiert Veranstaltungen, kooperiert mit anderen zivilgesellschaftlichen Organisationen sowie mit Akteuren aus Forschung und Wissenschaft und tauscht sich mit der Politik aus."},"employeesInvolvedInLobbying":{"relatedFiscalYearFinished":true,"relatedFiscalYearStart":"2023-01-01","relatedFiscalYearEnd":"2023-12-31","employeeFTE":0.51},"financialExpenses":{"relatedFiscalYearFinished":true,"relatedFiscalYearStart":"2023-01-01","relatedFiscalYearEnd":"2023-12-31","financialExpensesEuro":{"from":30001,"to":40000}},"mainFundingSources":{"relatedFiscalYearFinished":true,"relatedFiscalYearStart":"2023-01-01","relatedFiscalYearEnd":"2023-12-31","mainFundingSources":[{"code":"MFS_GIFTS_AND_DONATIONS","de":"Schenkungen und sonstige lebzeitige Zuwendungen","en":"Gifts and other lifetime donations"},{"code":"MFS_PUBLIC_GRANTS","de":"Öffentliche Zuwendungen","en":"Public grants"}]},"publicAllowances":{"publicAllowancesPresent":true,"relatedFiscalYearFinished":true,"relatedFiscalYearStart":"2023-01-01","relatedFiscalYearEnd":"2023-12-31","publicAllowances":[{"name":"Bundesministerium für Bildung und Forschung","type":{"code":"GERMAN_PUBLIC_SECTOR_FEDERAL","de":"Deutsche Öffentliche Hand – Bund","en":"German Public Sector – Federal"},"location":"Kapelle-Ufer 1, 10117 Berlin","publicAllowanceEuro":{"from":180001,"to":190000},"description":"DataSkop \r\nIn vielfältiger Weise durchdringen algorithmische Entscheidungssysteme unseren Alltag, ohne dass die Funktionsweise solcher Prozesse transparent ist. Im Fokus des Teilvorhabens DataSkop - was passiert mit unseren Daten? steht daher die Entwicklung einer Datenspendeplattform zur Analyse komplexer algorithmischen Systeme.\r\n\r\nNetzwerk - Digitale Souveränität\r\nDie zehn Verbundprojekte, u.a. DataSkop, werden im Rahmen des Netzwerks Digitale Souveränität zusammengebracht, um die gesamtgesellschaftliche Dimension des Themas Digitale Souveränität sichtbar zu machen. Im Fokus steht der Wissenstransfer von der Forschung in die Gesellschaft. Weiter soll mit Hilfe neuer Interaktionsformen zwischen Mensch und Technik sollen die Generierung und die Verwendung von Daten für Nutzer*innen besser nachvollziehbar gemacht werden."},{"name":"Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV)","type":{"code":"GERMAN_PUBLIC_SECTOR_FEDERAL","de":"Deutsche Öffentliche Hand – Bund","en":"German Public Sector – Federal"},"location":"Stresemannstraße 128 - 130,10117 Berlin","publicAllowanceEuro":{"from":190001,"to":200000},"description":"Im Rahmen des SustAIn-Projekts entwickelt AlgorithmWatch Instrumente, mit denen sich die Nachhaltigkeit von KI-Systemen in der Praxis bewerten lässt. Wir zeigen auf, wie KI nachhaltiger gestaltet werden kann und sprechen Politikempfehlungen aus. Grundlage für diese Arbeit ist ein von uns entwickeltes Kriterien- und Indikatorenset, mit dem wir die Nachhaltigkeit von KI bewerten. Unser Ziel ist es, Organisationen für die Nachhaltigkeit ihrer KI-Systeme zu sensibilisieren und ihnen Tools an die Hand zu geben, mit denen sie Bericht erstatten und ihre KI-Systeme nachhaltiger gestalten können."}]},"donators":{"donatorsInformationPresent":true,"relatedFiscalYearFinished":true,"relatedFiscalYearStart":"2023-01-01","relatedFiscalYearEnd":"2023-12-31","totalDonationsEuro":{"from":1270001,"to":1280000},"donators":[{"name":"Alfred Landecker Foundation","donationEuro":{"from":180001,"to":190000},"description":"Fördermittel"},{"name":"Stiftung Mercator","donationEuro":{"from":280001,"to":290000},"description":"Fördermittel"},{"name":"Schöpflin Stiftung","donationEuro":{"from":210001,"to":220000},"description":"Fördermittel"},{"name":"Robert Bosch Stiftung","donationEuro":{"from":140001,"to":150000},"description":"Fördermittel"},{"name":"Luminate","donationEuro":{"from":270001,"to":280000},"description":"Fördermittel"}]},"membershipFees":{"relatedFiscalYearFinished":true,"relatedFiscalYearStart":"2023-01-01","relatedFiscalYearEnd":"2023-12-31","totalMembershipFees":{"from":0,"to":0},"individualContributorsPresent":false,"individualContributors":[]},"annualReports":{"annualReportLastFiscalYearExists":true,"lastFiscalYearStart":"2023-01-01","lastFiscalYearEnd":"2023-12-31","annualReportPdfUrl":"https://www.lobbyregister.bundestag.de/media/b4/1f/487047/AW-Jahresabschluss-2023.pdf"},"regulatoryProjects":{"regulatoryProjectsPresent":true,"regulatoryProjectsCount":7,"regulatoryProjects":[{"regulatoryProjectNumber":"RV0004861","title":"KI-Verordnung Durchführungsgesetz","printedMattersPresent":false,"printedMatters":[],"draftBillPresent":false,"description":"Die BuReg ist gefordert, die EU Verordnung über Künstliche Intelligenz in das Deutsche Recht zu überführen. AlgorithmWatch setzt sich in diesem Kontext für eine KI-Aufsicht ein, die für Menschen in Deutschland niedrigschwellig erreichbar ist sowie für ein nationales Verbot für den Einsatz biometrischer Fernidentifizierungssysteme im öffentlichen Raum. ","affectedLawsPresent":false,"affectedLaws":[],"fieldsOfInterest":[{"code":"FOI_FA_HUMAN_RIGHTS","de":"Menschenrechte","en":"Human rights"},{"code":"FOI_EU_LAWS","de":"EU-Gesetzgebung","en":"EU legislation"},{"code":"FOI_MEDIA_DIGITALIZATION","de":"Digitalisierung","en":"Digitalization"}]},{"regulatoryProjectNumber":"RV0004862","title":"Novellierung des Allgemeinen Gleichbehandlungsgesetzes (AGG)","printedMattersPresent":false,"printedMatters":[],"draftBillPresent":false,"description":"AlgorithmWatch setzt sich dafür ein, Schutzlücken in Hinblick auf algorithmische Diskriminierung im Kontext der vorgesehenen Novellierung des Allgemeinen Gleichbehandlungsgesetz zu schließen. ","affectedLawsPresent":true,"affectedLaws":[{"title":"Allgemeines Gleichbehandlungsgesetz","shortTitle":"AGG","url":"https://www.gesetze-im-internet.de/agg"}],"fieldsOfInterest":[{"code":"FOI_FA_HUMAN_RIGHTS","de":"Menschenrechte","en":"Human rights"}]},{"regulatoryProjectNumber":"RV0004863","title":"Beschäftigtendatenschutz","printedMattersPresent":false,"printedMatters":[],"draftBillPresent":false,"description":"AlgorithmWatch setzt sich dafür ein, konkrete Regelungen zum verbesserten Schutz von Beschäftigten zu schaffen, die sich auf verschiedene spezifische Verarbeitungssituationen beziehen und den Einzug algorithmischer Systeme in der Arbeitswelt konkret aufgreifen. \r\n","affectedLawsPresent":false,"affectedLaws":[],"fieldsOfInterest":[{"code":"FOI_MEDIA_PRIVACY","de":"Datenschutz und Informationssicherheit","en":"Data protection and information security"},{"code":"FOI_WORK_RIGHT","de":"Arbeitsrecht/Arbeitsbedingungen","en":"Work right"}]},{"regulatoryProjectNumber":"RV0004864","title":"Einführung eines KI-Transparenzregisters","printedMattersPresent":false,"printedMatters":[],"draftBillPresent":false,"description":"AlgorithmWatch setzt sich für die Einführung eines nationalen KI-Transparenzregisters ein, in dem KI-Anwendungen der öffentlichen Hand in Deutschland aufgelistet, Risikoabschätzungen nachvollziehbar gemacht und verantwortliche Personen vermerkt werden.  ","affectedLawsPresent":false,"affectedLaws":[],"fieldsOfInterest":[{"code":"FOI_SA_PUBLIC_ADMINISTRATION","de":"Verwaltungstransparenz/Open Government","en":"Public administration"}]},{"regulatoryProjectNumber":"RV0004865","title":"Global Digital Compact","printedMattersPresent":false,"printedMatters":[],"draftBillPresent":false,"description":"AlgorithmWatch wirkt auf einen Global Digital Compact der UN hin, der ein offenes, freies und sicheres Internet im Sinne der Menschenrechte weltweit fördert.","affectedLawsPresent":false,"affectedLaws":[],"fieldsOfInterest":[{"code":"FOI_MEDIA_INTERNET_POLICY","de":"Internetpolitik","en":"Internet policy"},{"code":"FOI_MEDIA_DIGITALIZATION","de":"Digitalisierung","en":"Digitalization"}]},{"regulatoryProjectNumber":"RV0014901","title":"Vermeidung europarechtswidriger biometrischer Überwachungsbefugnisse für das BAMF","printedMattersPresent":true,"printedMatters":[{"title":"Entwurf eines Gesetzes zur Verbesserung der inneren Sicherheit und des Asylsystems","printingNumber":"20/12805","issuer":"BT","documentUrl":"https://dserver.bundestag.de/btd/20/128/2012805.pdf","projectUrl":"https://dip.bundestag.de/vorgang/gesetz-zur-verbesserung-der-inneren-sicherheit-und-des-asylsystems/315332","leadingMinistries":[]}],"draftBillPresent":false,"description":"AlgorithmWatch setzt sich gegen die Verabscheidung vorgeschlagener biometrischer Überwachungsbefugnisse ein. Das betrifft die Entwürfe für § 15b AsylG. Die Regelung sollte gestrichen werden. ","affectedLawsPresent":true,"affectedLaws":[{"title":"Asylgesetz","shortTitle":"AsylVfG 1992","url":"https://www.gesetze-im-internet.de/asylvfg_1992"}],"fieldsOfInterest":[{"code":"FOI_FA_HUMAN_RIGHTS","de":"Menschenrechte","en":"Human rights"},{"code":"FOI_MEDIA_PRIVACY","de":"Datenschutz und Informationssicherheit","en":"Data protection and information security"},{"code":"FOI_MEDIA_FREEDOM_OF_SPEECH","de":"Meinungs- und Pressefreiheit","en":"Freedom of speech and freedom of the press"}]},{"regulatoryProjectNumber":"RV0014902","title":"Vermeidung europarechtswidriger biometrischer Überwachungsbefugnisse für Strafverfolgungsbehörden, Bundeskriminalamt und Bundespolizei","printedMattersPresent":true,"printedMatters":[{"title":"Entwurf eines Gesetzes zur Verbesserung der Terrorismusbekämpfung","printingNumber":"20/12806","issuer":"BT","documentUrl":"https://dserver.bundestag.de/btd/20/128/2012806.pdf","projectUrl":"https://dip.bundestag.de/vorgang/gesetz-zur-verbesserung-der-terrorismusbek%C3%A4mpfung/315333","leadingMinistries":[]}],"draftBillPresent":false,"description":" AlgorithmWatch setzt sich gegen die Verabscheidung vorgeschlagener biometrischer Überwachungsbefugnisse ein. Das betrifft die Entwürfe für §§ 10b, 39a und 63b\r\nBKA-Gesetz, § 34b BPolG, § 98d StPO. Die Regelungen sollten\r\ngestrichen werden.","affectedLawsPresent":true,"affectedLaws":[{"title":"Gesetz über das Bundeskriminalamt und die Zusammenarbeit des Bundes und der Länder in kriminalpolizeilichen Angelegenheiten","shortTitle":"BKAG 2018","url":"https://www.gesetze-im-internet.de/bkag_2018"},{"title":"Gesetz über die Bundespolizei","shortTitle":"BGSG 1994","url":"https://www.gesetze-im-internet.de/bgsg_1994"},{"title":"Strafprozeßordnung","shortTitle":"StPO","url":"https://www.gesetze-im-internet.de/stpo"}],"fieldsOfInterest":[{"code":"FOI_MEDIA_FREEDOM_OF_SPEECH","de":"Meinungs- und Pressefreiheit","en":"Freedom of speech and freedom of the press"},{"code":"FOI_FA_HUMAN_RIGHTS","de":"Menschenrechte","en":"Human rights"},{"code":"FOI_MEDIA_PRIVACY","de":"Datenschutz und Informationssicherheit","en":"Data protection and information security"}]}]},"statements":{"statementsPresent":true,"statementsCount":7,"statements":[{"regulatoryProjectNumber":"RV0004861","regulatoryProjectTitle":"KI-Verordnung Durchführungsgesetz","pdfUrl":"https://www.lobbyregister.bundestag.de/media/a3/51/308377/Stellungnahme-Gutachten-SG2406180146.pdf","pdfPageCount":13,"text":{"copyrightAcknowledgement":"Die grundlegenden Stellungnahmen und Gutachten können urheberrechtlich geschützte Werke enthalten. Eine Nutzung ist nur im urheberrechtlich zulässigen Rahmen erlaubt.","text":"Stellungnahme zur öffentlichen Anhörung des Ausschuss für Digitales am 15. Mai 2024 zur nationalen Umsetzung der KI-Verordnung\r\n13. Mai 2024\r\nKo-Autor*innen: Kilian Vieth-Ditlmann, stv. Teamleiter Policy & Advocacy, AlgorithmWatch,\r\nPia Sombetzki, Policy & Advocacy Managerin, AlgorithmWatch\r\nUnsere Empfehlungen in Kürze\r\n● Die nationale Aufsicht zügig koordinieren und aufbauen sowie unabhängig und\r\nschlank aufstellen; dabei vielfältige Expertise einbeziehen, einen KI-Beirat\r\nschaffen und ein effektives Beschwerdesystem aufsetzen.\r\n● Verbote für den Einsatz biometrischer Fernidentifikationssysteme im öffentlich\r\nzugänglichen Raum ohne Einschränkungen beibehalten und im\r\nDurchführungsgesetz konkretisierend ausformulieren.\r\n● Ein nationales KI-Transparenzregister für die öffentliche Hand aufbauen, das die\r\nbegrenzten Informationen in der EU-Datenbank der Hochrisiko-KI-Systeme\r\numfassend ergänzt.\r\n\r\nKontext\r\nDer Rat der Europäischen Union beschließt die KI-Verordnung (KI-VO) voraussichtlich am\r\n21. Mai 2024. Die Umsetzungsfristen sind knapp, die Anforderungen 1 komplex. Daher\r\nbereiten die EU-Mitgliedsstaaten bereits jetzt die Umsetzung der KI-Verordnung ins\r\nnationale Recht vor – so auch die deutsche Bundesregierung.\r\nAlgorithmWatch hat die Entstehung der KI-Verordnung von Beginn an aktiv begleitet und\r\nzu dem Gesetzgebungsprozess Stellung genommen:\r\n- Positionspapier nach Veröffentlichung des Kommissionsentwurfs (August 2021):\r\nhttps://algorithmwatch.org/en/eu-ai-act-consultation-submission-2021/\r\n- Zivilgesellschaftliches Statement von über 120 Organisationen (November 2021):\r\nhttps://algorithmwatch.org/de/grundrechte-ins-zentrum-der-ki-verordnung/\r\n- Begleitung des Verhandlungsprozesses (April 2022):\r\nhttps://algorithmwatch.org/de/forderungen-artificial-intelligence-act-eu/ &\r\n- Reaktion auf den Entwurfbericht (Mai 2022):\r\nhttps://algorithmwatch.org/de/entwurfsbericht-zum-ai-act/\r\n- Stellungnahme im Auschuss für Digitales des Bundestags (September 2022):\r\nhttps://algorithmwatch.org/de/stellungnahme-digitalausschuss-bundestag-aiact-2\r\n022/\r\n- Empfehlungen zur Regulierung von GPAI in der KI-VO (September 2023):\r\nhttps://algorithmwatch.org/de/der-ai-act-und-general-purpose-ai/\r\n\r\nMit der Verabschiedung der KI-VO erkennt die EU an, dass der Einsatz von Künstlicher\r\nIntelligenz (KI) unsere Grundrechte, Rechtsstaatlichkeit und demokratische Prozesse\r\ngefährden kann. Und dass es Regulierung braucht, um sie zu schützen. Dazu gehört,\r\ndass besonders schädliche KI-Systeme, die mit unseren demokratischen Gesellschaften\r\nunvereinbar sind, verboten werden müssen.\r\nViele Aspekte sind am finalen Kompromiss dennoch nicht zufriedenstellend. Vor allem\r\nmit Blick auf den wirksamen Schutz von Grundrechten, bestehen eine Reihe von\r\ngravierenden Defiziten.\r\nDie kommende Um- und Durchsetzung der KI-VO auf EU-Ebene und in den\r\nMitgliedsstaaten bietet die Chance, einige Lücken und Unklarheiten zu beseitigen und\r\nfür mehr Grundrechtsschutz zu sorgen. Im Folgenden gehen wir auf die aus unserer\r\nSicht wichtigsten Fragen zur nationalen Ausgestaltung der KI-VO ein.\r\n\r\nFragen 1 und 8 werden zusammengefasst beantwortet:\r\n1 Wie muss die nationale Aufsicht aufgestellt sein, um eine möglichst kohärente,\r\nschlanke Governance zu gewährleisten? Wie gelingt uns trotz sektoraler\r\nZuständigkeiten und föderaler Aufteilung der vielzitierte One-Stop-Shop? Welche\r\ngenauen Aufgaben sollte die Aufsicht übernehmen?\r\n8 Welche gesetzlichen und politischen Maßnahmen sind notwendig, um die\r\nZusammenarbeit zwischen den zuständigen Behörden in Deutschland und den\r\nEinrichtungen auf EU-Ebene (insbesondere AI Office, AI Board, Advisory Forum und\r\nScientific Panel) schlagkräftig und effizient aufzustellen und wie lässt sich\r\ngewährleisten, dass zivilgesellschaftliche und interdisziplinäre wissenschaftliche\r\nExpertise bei der Auslegung, Konkretisierung, Umsetzung und Weiterentwicklung\r\ndes AI Acts substantiell Berücksichtigung finden?\r\nNach Inkrafttreten der KI-Verordnung hat die Bundesregierung 12 Monate Zeit, die\r\nnationale Aufsicht in Deutschland aufzustellen. Es bleibt der Bundesregierung also nicht\r\nviel Zeit, diese komplexe Aufgabe zu erfüllen. Die Kommission hat außerdem bereits den\r\nWunsch geäußert, dass die Mitgliedstaaten bis Ende dieses Jahres zuständige Stellen\r\nbenennen, um die EU-weite Umsetzung der KI-Verordnung zügig und koordiniert\r\nvoranzubringen. Die geregelten Verbote gelten bereits nach sechs Monaten. Damit\r\nbeispielsweise Beschwerden bearbeitet werden können, wenn die neuen Regeln nicht\r\neingehalten werden, braucht es daher auch möglichst früh auf nationaler Ebene ein\r\nkoordiniertes und abgestimmtes Vorgehen.\r\nDie Ressorts und die Behörden, die zentrale und insbesondere koordinierende\r\nAufgaben übernehmen sollen, müssen sich daher dringend abstimmen. Ebenso sollten\r\nVertreter*innen aus zivilgesellschaftlichen Organisationen und\r\nVerbraucherschützer*innen bereits jetzt in die aktuellen politischen Erwägungen\r\neinbezogen werden, damit konkrete Vorschläge dazu, wie nationale Aufsichtsstrukturen\r\naussehen sollten, nicht erst spät im Prozess Gehör finden und potenziell weniger\r\nWirkung entfalten können, als die von Unternehmen.\r\nZu den Aufsichtsstrukturen gibt die KI-Verordnung, insbesondere Artikel 70 der\r\nKI-Verordnung, lediglich grobe Leitlinien vor. Die Liste der Aufgaben und Befugnisse im\r\nKontext der nationalen Aufsicht ist umfassend. Eine kohärente und klare Governance\r\nmuss dabei dennoch das Ziel sein. Die zukünftige Aufsicht muss auf den Kompetenzen\r\nund Erfahrungen der bestehenden Marktüberwachung aufbauen; es darf keine\r\nDoppelstrukturen geben.\r\nWie bei der nationalen Digitale-Dienste-Koordinierungsstelle, sollte allerdings\r\nsichergestellt werden, dass insbesondere auch Einzelpersonen, die eine\r\nBeschwerde einreichen wollen, eine zentrale Kontaktstelle aufsuchen können, die\r\nüber das gesamte Verfahren ansprechbar bleibt. Die Anforderungen daran, wie ein\r\nsolches Verfahren ausgestaltet wird, sollten bereits im Gesetz grundsätzlich geregelt\r\nwerden. Insbesondere sollten Kriterien und Indikatoren festgelegt werden, die in\r\nVerwaltungsvorschriften näher definieren, woran sich ein effizientes und\r\nzugängliches Beschwerdeverfahren messen lässt. Beispielsweise sollten\r\nBearbeitungs- und Beantwortungsfristen festgelegt werden. Wir empfehlen, dass\r\nBeschwerdeführer*innen innerhalb von zehn Tagen über den Verfahrensablauf\r\numfassend informiert werden, u.a. auch darüber, welche weiteren Behörden in ihr\r\nBeschwerdeverfahren einbezogen wurden und von welcher Bearbeitungsdauer sie\r\nausgehen können.\r\nDie KI-Verordnung sieht vor, dass die nationalen Regierungen drei Monate nach\r\nInkrafttreten eine Liste von nationalen Behörden und öffentlichen Stellen\r\nveröffentlichen, deren Arbeit darauf zielt, die Grundrechte zu schützen, und diese der\r\nEuropäischen Kommission mitteilt (Artikel 77 Abs. 1-2 KI-VO). Bei Beschwerden zu\r\nGrundrechts- und Verbraucherschutzfragen muss sichergestellt sein, dass in den\r\nBeschwerdeverfahren die Expertise der Stellen einbezogen wird, die für die\r\nBeratung in solchen Fällen zuständig sind, wie etwa der Antidiskriminierungsstelle\r\ndes Bundes. Grundsätzlich sollte der Begriff der öffentlichen Stellen in Artikel 77 KI-VO\r\nweit ausgelegt werden, sodass er z.B. auch Menschenrechts-, Verbraucherschutz- und\r\nUmweltschutzorganisationen umfasst. Denn durch den Einsatz von\r\nHochrisiko-KI-Systemen kann eine Vielfalt an Grundrechtsfragen entstehen, wofür\r\nwiederum eine Vielfalt an Grundrechts-Expertise aus so vielen Themenfeldern und\r\nBetroffenengruppen wie möglich verfügbar sein sollte.\r\nDarüber hinaus haben diese Stellen konkrete Auskunftsrechte gegenüber\r\nKI-Entwickler*innen und KI-Anbietern. Auch wenn die Mandate unterschiedlich\r\nausfallen: Koordinierungsstelle, Marktüberwachungsbehörden und die Behörden,\r\ndie für die Einhaltung der Grundrechte zuständig sind, müssen wirksam\r\nzusammenarbeiten, um wichtige Informationen zu bekommen.\r\nUm zu überprüfen, ob dieses komplexe Zusammenspiel zwischen Koordinierungsstelle,\r\nverschiedenen Behörden und Stellen angemessen funktioniert und die\r\nKoordinierungsstelle unabhängig agiert, sollte in einem Durchführungsgesetz\r\nfestgeschrieben werden, dass eine regelmäßige Evaluierung erfolgt. Es sollte\r\naußerdem evaluiert werden, wie teuer und wirksam eine Koordinierungsstelle im\r\nVergleich mit einer zentralen Aufsichtsbehörde wäre. Mittelfristig empfehlen wir,\r\ndie Kompetenzen in einer Digitalagentur zusammenzuführen.\r\nZudem sollte ein KI-Beirat eingerichtet werden. Er würde dafür sorgen, dass\r\nzivilgesellschaftliche und interdisziplinäre wissenschaftliche Expertise sowie die\r\nPerspektive Betroffener in die Arbeit der Koordinierungsstelle einfließt, um die\r\nKI-Verordnung auszulegen, zu präzisieren und weiterzuentwickeln.\r\nSolch ein KI-Beirat sollte die Koordinierungsstelle bei grundsätzlichen Fragen der\r\nAnwendung und Durchsetzung der KI-Verordnung beraten, allgemeine Empfehlungen\r\nzur effektiven und einheitlichen Durchführung der Verordnung vorschlagen und\r\nwissenschaftliche, technische und gesellschaftspolitische Fragestellungen an die\r\nKoordinierungsstelle herantragen.\r\nMitglieder eines KI-Beirats sollten das Recht haben, Fragen an die Koordinierungsstelle\r\nund zuständige Behörden zu stellen. Nur dann kann der Beirat gut informierte\r\nEinschätzungen abgeben. Darüber hinaus sollte die Unabhängigkeit des Beirats\r\nsichergestellt werden. Er muss sich eine eigene Geschäftsordnung geben können, die keiner Zustimmung eines Ministeriums oder einer Behörde bedarf. Er sollte darüber\r\nhinaus eigenständig Studien und Gutachten erstellen und beauftragen können. Die\r\nArbeit des Beirats sollte auch finanziell unterstützt werden: Es bräuchte eine\r\nangemessen ausgestattete Geschäftsstelle sowie Aufwandsentschädigungen für\r\nBeirats-Mitglieder, die im Haushalt eingeplant werden. Die Sitzungen eines solchen\r\nBeirats sollten grundsätzlich öffentlich stattfinden und offen sein für die Einbeziehung\r\nweiterer zivilgesellschaftlicher Akteure und Verbraucherschützer, die nicht selbst als\r\nMitglieder im Beirat vertreten sind.\r\nWie beim Digitale-Dienste-Gesetz sollte ein Forschungsetat eingeführt werden, der\r\nunabhängige Forschung durch Wissenschaft und Zivilgesellschaft unterstützt. Damit ein\r\nsolcher Forschungsetat seine beabsichtigte Wirkung entfalten könnte, müsste er\r\nangemessen hoch ausfallen.\r\n\r\nFragen 3 und 17 werden zusammengefasst beantwortet:\r\n3 Bei der biometrischen Fernidentifizierung im öffentlichen Raum eröffnet der AI\r\nAct die Möglichkeit des Nachschärfens der EU-weiten Mindeststandards. Sowohl\r\nfür Echtzeit-Fernidentifizierungssysteme als auch für nachträgliche biometrische\r\nFernidentifizierung im öffentlichen Raum können die Mitgliedstaaten in\r\nnationalen Rechtsgrundlagen auch strengere Regeln erlassen. Wie lässt sich diese\r\nMöglichkeit für einen umfassenderen Grundrechtsschutz nutzen, wo könnten\r\nentsprechende Vorschriften im nationalen Recht verankert werden und wie\r\nsollten diese – etwa im Hinblick auf ein ausnahmsloses Verbot – inhaltlich\r\nausgestaltet sein?\r\n17 Welche konkrete Regelung empfehlen Sie für die nationale Umsetzung des\r\nAI-Acts, um die im Koalitionsvertrag enthaltene Position eines Verbots\r\nbiometrischer Fernidentifikationssysteme im öffentlichen Raum umzusetzen für\r\ndie Sicherung der Grundrechte auf Privatsphäre sowie Datenschutz, auf\r\nNichtdiskriminierung, Meinungs- und Informationsfreiheit, auf Versammlungsund\r\nVereinigungsfreiheit sowie auf Rechtsstaatlichkeit und inwiefern ergibt es mit\r\nBlick auf die genannten Grundrechte Sinn, dabei hinsichtlich Echtzeit und\r\nretrograder Fernidentifikation zu unterscheiden, insbesondere da die\r\nUnterscheidung zwischen Echtzeit und retrograd unklar ist?\r\nNotwendigkeit eines Verbots biometrischer Fernidentifizierungssysteme\r\nDie automatisierte Fernidentifizierung von Personen anhand von biometrischen Daten\r\nwie dem Gesicht, dem Gang oder der Stimme im öffentlich zugänglichen Raum\r\nermöglicht eine biometrische Massenüberwachung. Sie steht im Kern mit\r\nGrundrechten wie der Privatsphäre, der informationellen Selbstbestimmung und der\r\nVersammlungsfreiheit sowie grundlegenden rechtsstaatlichen Prinzipien in Konflikt.\r\nDas anlasslose, unterschiedslose oder stichprobenartige Beobachten, Verfolgen und\r\nAnalysieren von Menschen anhand ihrer biometrischen Merkmale, insbesondere dem\r\nGesicht, mit automatisierter Gesichtserkennung, schafft Überwachungsmöglichkeiten,\r\ndie sonst zwar theoretisch, nicht aber praktisch realisierbar waren. Der Eingriff in Grundrechte bekommt eine neue Qualität und ist mit einer herkömmlichen\r\nVideoüberwachung nicht zu vergleichen. Video- und Fotoaufnahmen können\r\nautomatisiert mit Bilddatenbanken abgeglichen, Personen über mehrere Videokameras\r\nhinweg automatisiert verfolgt und Verhaltens- und Bewegungsprofile erstellt werden.5\r\nWo bisher einzelne Personenkontrollen möglich sind, können mit KI zehntausende oder\r\nhunderttausende Menschen erfasst werden.\r\nVon einer automatisierten Gesichtserkennung werden wir alle wie wandelnde QR-Codes\r\nbehandelt, können erkannt, gespeichert und abgeglichen werden, ohne es zu merken\r\noder einen Einfluss darauf zu haben. Die Anonymität im öffentlichen Raum wird\r\ndadurch ausgehebelt. Die Erwartung, sich unerkannt zu bewegen, ist aber ein wichtiges\r\nVorfeld-Grundrecht, ähnlich dem Datenschutz, um viele andere Grundrechte ausüben\r\nzu können. Wenn Menschen im öffentlichen Raum jederzeit identifiziert und überwacht\r\nwerden können, verletzt dies nicht nur ihr Recht auf Privatsphäre, sondern hat auch eine\r\nabschreckende Wirkung (sog. „chilling effect“). Die Angst, erkannt und gespeichert zu\r\nwerden, hält sie vom Wahrnehmen anderer Grundrechte wie der Meinungsäußerungsoder\r\nVersammlungsfreiheit ab, zum Beispiel auf dem Weg zu einer gewerkschaftlichen\r\nKundgebung oder einer Demonstration, zu Lokalen, die Hinweise auf ihre Religion,\r\npolitische Gesinnung oder sexuelle Orientierung geben könnten oder zu einem\r\nGespräch mit einer Journalist*in. All diese Grundrechte sind somit auch für die freie\r\nMeinungsbildung in einer demokratischen Gesellschaft zentral.\r\nBiometrische Überwachung betrifft auch das Recht auf Gleichbehandlung.\r\nGrundsätzlich gilt zwar: Je besser die biometrische Fernidentifizierung funktioniert, desto\r\ngefährlicher wird sie. Dennoch besteht auch eine Gefahr der Diskriminierung in der\r\nbestehenden hohen Fehleranfälligkeit der Erkennungssysteme, insbesondere bei\r\nPersonengruppen mit bestimmten Eigenschaften, die in Datensätzen unterrepräsentiert\r\nsind. Hinzu kommt die Gefahr der gezielten Diskriminierung, die genau den Zweck\r\nverfolgt, bestimmte Personen oder Gruppen anhand biometrischer Merkmale\r\nherauszufiltern. Für bereits benachteiligte oder von Diskriminierung betroffene\r\nPersonen und Gruppen sowie für politische Aktivist*innen zeigen sich die Auswirkungen\r\nvon biometrischer Massenüberwachung oft in verstärkter Form.\r\nVerbot biometrischer Echtzeit-Fernidentifizierung für Strafverfolgung und Polizei\r\nAngesichts des enormen Schädigungspotenzials für Grundrechte und Demokratie\r\nverbietet die KI-Verordnung die biometrische Echtzeit-Fernidentifizierung in öffentlich\r\nzugänglichen Räumen durch Polizei und Strafverfolgungsbehörden grundsätzlich. Artikel\r\n5 Absatz 1 Buchstabe h untersagt „die Verwendung biometrischer\r\nEchtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu\r\nStrafverfolgungszwecken“ (vgl. auch Erwägungsgrund 32f). Die KI-VO stellt also klar:\r\nVideoüberwachung ist in der Bundesrepublik weit verbreitet, sei es im ÖPNV, in Supermärkten\r\noder in Innenstädten. \r\nOhne explizite gesetzliche Grundlage im nationalen Recht liegt keine Erlaubnis für\r\nden Einsatz biometrischer Erkennungssysteme im öffentlichen Raum für Zwecke\r\nder Strafverfolgung und Gefahrenabwehr vor.\r\nWenn nun über strengere Regeln oder Einschränkungen diskutiert wird, KI-basierte\r\nGesichtserkennungssystem im öffentlichen Raum einzusetzen, impliziert das, dass sie\r\ngrundsätzlich für Zwecke der Strafverfolgung und Gefahrenabwehr eingesetzt werden\r\nsollen. Das sollte auf Grund der ausgeführten Gefahren für Grundrechte und\r\nRechtsstaatlichkeit aber ausnahmslos verhindert werden. Denn die Technologie ist in\r\neiner demokratischen Gesellschaft weder erforderlich noch verhältnismäßig. Daran\r\nändern auch Öffnungsklauseln nichts. Allein das Vorhandensein einer\r\nentsprechenden Infrastruktur im öffentlichen Raum bringt die erwähnten Chilling\r\nEffects mit sich, da Betroffene nie wissen können, ob und wann die biometrische\r\nÜberwachung stattfindet. Das spricht gegen ein Verbot mit Ausnahmen, denn es\r\nermöglicht die grundlegende Infrastruktur und diese Ausnahmen, ob und wann\r\nbiometrische Fernidentifizierung eingesetzt wird, sind für Menschen nicht\r\nnachvollziehbar.\r\nDiese Gefahren hat die aktuelle Bundesregierung bereits anerkannt und in ihrem\r\nKoalitionsvertrag festgelegt, dass biometrische Erkennung im öffentlichen Raum\r\neuroparechtlich auszuschließen und der Einsatz von biometrischer Erfassung zu\r\nÜberwachungszwecken abzulehnen ist. Die in der KI-Verordnung formulierten\r\nVerbote sollten daher absolut ausgelegt werden und keine gesetzlichen\r\nGrundlagen geschaffen werden, die selbst mit Einschränkungen leicht dazu führen\r\nkönnten, eine geschaffene Infrastruktur schleichend auszuweiten.\r\nGegenwärtig existiert im deutschen Recht keine Gesetzesgrundlage für den Einsatz\r\nbiometrischer Fernidentifizierungssysteme durch Strafverfolgungsbehörden. Es lässt\r\nsich derzeit allerdings beobachten, wie bestehende Befugnisse zweckentfremdet und als\r\nLegitimation für solche Einsätze herangezogen werden.\r\nDazu gehört unter anderem die Rasterfahndung (§ 98a Strafprozessordnung), die\r\ngegenwärtig zumindest von einigen Strafverfolgungsbehörden als rechtliche Grundlage\r\nfür den Einsatz biometrischer Überwachungssysteme herangezogen wird.\r\nRasterfahndung wurde auf Bundesebene 1992 gesetzlich geregelt. Die Rasterfahndung\r\nkonnte biometrische Gesichtserkennungssysteme noch gar nicht umfasst haben, da die\r\nKI-basierte Gesichtserkennungstechnik zum Zeitpunkt der Einführung der\r\nRechtsgrundlage noch gar nicht in der heutigen Funktionsweise existierte. Die Menge an\r\nbiometrischen Daten, die heute durch KI-Systeme automatisiert verarbeitet werden,\r\nhätte sich der Gesetzgeber damals nicht träumen lassen. Auch der verfassungsrechtliche Wesentlichkeitsvorbehalt verbietet eine Auslegung bestehender\r\nGesetzesgrundlagen für derart grundrechtsinvasive und gefährliche Befugnisse.\r\nEine bestehende gesetzliche Grundlage für ein bestimmtes Ermittlungsinstrument kann\r\ndemnach nicht für neue biometrische Überwachungssysteme herangezogen bzw.\r\numgedeutet werden. Erst recht nicht, wenn neuere Datenverarbeitungsmethoden viel\r\ntiefer in unsere Grundrechte eingreifen und das Potenzial haben, unsere demokratische\r\nGesellschaft als Ganzes zu verändern. Das Bundesverfassungsgericht hat bereits für die\r\ngroßflächige, automatisierte Verarbeitung von Kfz-Kennzeichen durch Polizei und\r\nStrafverfolgungsbehörden hohe verfassungsrechtliche Anforderungen aufgestellt. Und\r\ndort ging es nicht um besonders sensible biometrische Daten wie Gesichter, sondern\r\num Kfz-Kennzeichen. Die automatisierte Erhebung und Auswertung von öffentlich\r\nzugänglichen personenbezogenen Daten stellt nach Rechtsprechung des\r\nBundesverfassungsgerichts immer einen Eingriff in das Grundrecht auf informationelle\r\nSelbstbestimmung dar.\r\nAuch ein jüngeres Verfassungsurteil über die automatisierte Datenanalyse für die\r\nvorbeugende Bekämpfung von Straftaten stellt mit Verweis auf das Grundrecht auf\r\ninformationelle Selbstbestimmung klar, dass automatische Abgleiche biometrischer\r\nDaten besonders voraussetzungsvoll sind. Die Mindestanforderungen für biometrische\r\nFernidentifizierung, wie sie in der KI-VO beschrieben werden, sind demnach zu\r\nunspezifisch. Die Einsatzzwecke und die Abgrenzung zwischen Echtzeit-Verarbeitung\r\nund nachträglicher Verarbeitung sind zu unbestimmt. Und weder die\r\nReferenzdatenbanken gesuchter Personen, noch die zu durchsuchenden Bild- oder\r\nVideodaten (etwa hinsichtlich zeitlicher und räumlicher Beschränkung) sind hinreichend\r\nkonkretisiert.\r\nEs lässt sich zusammenfassen: Selbst wenn der Gesetzgeber eine Rechtsgrundlage für\r\nden Einsatz biometrischer Fernidentifizierungssysteme in Echtzeit im öffentlich\r\nzugänglichen Raum zu Strafverfolgungszwecken schaffen wollte, entsprächen die\r\nVerfahrensanforderungen nach KI-Verordnung nicht den in Deutschland geltenden\r\nverfassungsrechtlichen Mindeststandards.\r\nEine explizites Verbot, biometrische Fernidentifizierungssysteme im öffentlichen Raum\r\neinzusetzen, würde die gegenwärtigen Rechtsunklarheiten beseitigen.\r\nVerbot nachträglicher biometrischer Fernidentifizierung\r\nDer Einsatz sämtlicher nicht ausdrücklich verbotener biometrischer\r\nFernidentifizierungssysteme, unabhängig davon wer sie verwendet, fällt nach KI-VO\r\nunter die Hochrisiko-Anwendungen (Art. 26 Abs. 10 in Verbindung mit Anhang III, Absatz\r\n1, Buchstabe a KI-VO). Das schließt auch solche Systeme mit ein, die nicht in Echtzeit,\r\nsondern nachträglich Gesichter in Videodaten oder Fotomaterial identifizieren.\r\nEine Unterscheidung zwischen Echtzeit-Systemen und Systemen zur\r\nnachträglichen Fernidentifizierung ist jedoch mit Blick auf die\r\nGrundrechtsauswirkungen unlogisch. Erstens ist im Gesetzestext nicht klar definiert,\r\nab welchem Zeitversatz Echtzeit-Identifizierung zu nachträglicher Identifizierung wird.\r\nZweitens bergen beide Formen der biometrischen Erkennung dasselbe\r\nMissbrauchspotenzial, dieselben Abschreckungseffekte, und dasselbe Risiko für\r\ndiskriminierende Überwachung (siehe oben). Warum allein wegen einer Zeitverzögerung\r\nvon einem geringeren Eingriff in Grundrechte ausgegangen werden sollte, bleibt unklar.\r\nIm Gegenteil schafft die nachträgliche Fernidentifizierung zusätzliche Gefahren: Die\r\nZeitverzögerung ermöglicht komplexere und damit tiefergehende Auswertungen und\r\neröffnet das Risiko, dass Daten für neue Zwecke ausgewertet werden, die ursprünglich\r\nnoch gar nicht der Erhebungsgrund waren. Es entsteht ggf. ein Anreiz, Videoaufnahmen\r\nlange zu speichern. Das schafft zusätzliche Einschüchterungseffekte, wenn wir nicht\r\nwissen, ob und wann Videoaufnahmen oder anderes Datenmaterial in Zukunft mit\r\nKI-Systemen ausgewertet werden können. Die KI-basierte Analyse von biometrischen\r\nDaten ist ein elaboriertes technisches Verarbeitungsverfahren und keine technische\r\nArbeitshilfe für ein manuelles Verfahren.\r\nEin umfassendes nationales Verbot biometrischer Fernidentifizierung im\r\nöffentlich zugänglichen Raum für Strafverfolgungszwecke muss daher im Sinne\r\neines wirksamen Grundrechtsschutzes sämtliche biometrischen\r\nErkennungssysteme unabhängig vom Zeitpunkt der Verwendung umschließen.\r\nDiese Möglichkeit bietet die KI-VO ausdrücklich (Artikel 26, Absatz 10, Unterabsatz 7\r\nKI-VO). Erwägungsgrund 95 KI-VO betont zudem, dass nachträgliche Gesichtserkennung\r\nkeinesfalls das Verbot von Echtzeit-Fernidentifizierung unterlaufen darf. Gemäß Artikel\r\n10 der Richtlinie über Datenschutz in der Strafverfolgung (EU Richtlinie 2016/680)\r\nkönnen alle EU Mitgliedstaaten weiterführende Regelungen bei der Verarbeitung\r\nbiometrischer Daten durch Polizei und Strafverfolgung erlassen.\r\nEs gilt aber auch hier die gleiche rechtliche Ausgangslage: Jede Form der biometrischen\r\nFernidentifizierung bedarf einer eindeutigen gesetzlichen Grundlage. Solange diese nicht\r\ngeschaffen wird, herrscht keine Erlaubnis. Bestehende Rechtsgrundlagen für\r\nautomatisierte Gesichtserkennung heranzuziehen ist unzulässig und missachtet das\r\nBestimmtheitsgebot (siehe oben). Polizei und Strafverfolgung benötigen für ein solch\r\neingriffsintensives Instruments immer einer hinreichend bestimmten gesetzlichen\r\nRegelung. Sie kann nicht auf bereits vorhandenen, allgemeineren Normen basieren.\r\n\r\nVerbot für Private\r\nDie KI-VO erkennt die Nutzung von biometrischen Fernidentifikationsystemen durch\r\nprivate Akteure in öffentlich zugänglichen Räumen, sei es in Echtzeit oder nachträglich,\r\nlaut Erwägungsgrund 39 als unzulässig an. Die KI-VO beinhaltet allerdings kein\r\nausdrückliches Verbot von automatisierter Fernidentifizierung in öffentlich zugänglichen\r\nRäumen durch private Stellen (z.B. Betreiber von Einkaufszentren oder Sportanlagen)\r\nund öffentliche Stellen außerhalb der Polizei (z.B. kommunale Behörden, Schulen oder\r\nUniversitäten), sei es in Echtzeit oder nachträglich, da die EU\r\nDatenschutzgrundverordnung 2016/679 dies schon untersagt.\r\nEine informierte Einwilligung oder ein berechtigtes Interesse kann bei biometrischer\r\nFernidentifizierung durch Private im öffentlichen Raum nicht gegeben sein. Und es kann\r\nstrukturell aufgrund der Vielzahl an potenziell betroffenen Personen bei biometrischer\r\nFernidentifizierung nie angenommen werden. Keine private Stelle kann aus der\r\nAnwesenheit in einem öffentlichen Raum ein Einverständnis in die Datenerhebung\r\nherleiten.\r\nZusammenfassend lässt sich Folgendes festhalten:\r\n➔ Gemäß der EU KI-Verordnung, insbesondere Erwägungsgrund 37, ist die\r\nVerwendung von biometrischen Echtzeit-Fernidentifizierungssystemen in\r\nöffentlich zugänglichen Räumen zu Zwecken der Strafverfolgung und der\r\nGefahrenabwehr verboten.\r\n➔ Im Einklang mit Artikel 10 der Richtlinie über Datenschutz in der Strafverfolgung\r\n(EU Richtlinie 2016/680) ist der Einsatz von Systemen zur nachträglichen\r\nbiometrischen Fernidentifizierung in öffentlich zugänglichen Räumen durch\r\nPolizei und Strafverfolgung verboten.\r\n➔ Basierend auf Artikel 9 der Datenschutz-Grundverordnung ist der Einsatz von\r\nbiometrischen Fernidentifizierungssystemen in öffentlich zugänglichen Räumen,\r\nsowohl in Echtzeit als auch nachträglich, durch private und öffentliche Stellen\r\nverboten.\r\nDennoch bestehen Rechtsunklarheiten und Umsetzungsdefizite in der Praxis. Ein\r\nDurchführungsgesetz sollte diese ausräumen, indem darin die geltenden Verbote noch\r\neinmal konkretisierend ausformuliert werden.\r\n\r\nWie muss die Umsetzung des AI Acts in Deutschland gestaltet werden, um\r\neinerseits die Sicherheit und Bürgerrechte zu wahren und andererseits ein\r\ninnovationsfreundliches Umfeld zu schaffen, das Innovationskraft und\r\nprivatwirtschaftlichen Wettbewerb auf dem deutschen Markt ideal unterstützt?\r\n\r\nSicherheit und Bürgerrechte stehen nicht im Widerspruch zu einem\r\ninnovationsfreundlichen Umfeld, sondern sind seine Grundlage. Entwicklungen, die\r\nunserer Sicherheit und unseren Bürgerrechten entgegenstehen, sind keine\r\nInnovationen, sondern Gefahren. Die Frage, die sich stellt, ist: Wie kann es Unternehmen\r\nso leicht wie möglich gemacht werden, die Auflagen aus der KI-Verordnung einzuhalten?\r\nDie Antwort sind klare und verständliche Vorgaben, eine effiziente Aufsichtsstruktur und\r\nBeratungsangebote durch die Koordinierungsstelle.\r\nAuch Unternehmen sollten, ebenso wie Individuen, klare Ansprechpartner*innen haben\r\nund nicht mit einem Zuständigkeitswirrwarr konfrontiert sein. Das schafft\r\nRechtssicherheit, was wiederum dazu führt, dass Unternehmen schneller\r\nEntscheidungen darüber treffen können, welche Produkte sie entwickeln und anbieten\r\nmöchten, und minimiert ihre Kosten.\r\nKlare und verständliche Vorgaben, die auch eingehalten werden können, führen zu\r\neinem „level playing field“ der Unternehmen untereinander und belohnen nicht die „bad\r\nactors“.\r\nZudem sollte die Aufsichtsbehörde eine Beratung für Unternehmen anbieten, die es\r\nihnen erleichtert, gesetzeskonforme Produkte zu entwickeln und anzubieten.\r\n\r\n18) Wie sollte und könnte ein nationales KI-Transparenzregister über den Bereich\r\nder Hoch Risiko Systeme hinausgehen, um wirksame Transparenz im Sinne des\r\nVerbraucherschutzes (Nachvollziehbarkeit, Beschwerdebasis etc.) herzustellen\r\nund insbesondere beim Einsatz von KI-Systemen durch die öffentliche Hand dem\r\nerhöhten Anspruch an Grundrechtsschutz und bestehende Abhängigkeiten\r\ngerecht zu werden und wie sollte generell ein solches Transparenzregister\r\norganisiert sein, hinsichtlich:\r\n· wer sollte es aufbauen und wen dabei einbeziehen\r\n· wie sollte es aufgebaut werden\r\n· wer sollte es verwalten\r\n· welche Informationen sollte es enthalten?\r\nTransparenz und Nachvollziehbarkeit ist nicht nur im Hochrisikobereich gemäß KI-VO\r\nvon Nutzen, sondern sollte für alle automatisierten Entscheidungssysteme von\r\nöffentlichen Stellen gelten. Die geplante EU-Datenbank (Art. 71 KI-VO), in der die\r\nNutzung von Hochrisiko-KI-Systemen von öffentlichen Stellen gelistet werden sollen,\r\nwird nur wenige der insgesamt eingesetzten Systeme aufführen. Auf nationaler Ebene\r\nsollte daher nachgebessert und ein nationales KI-Transparenzregister für die gesamte\r\nöffentliche Hand eingeführt werden. Da die KI-VO ein generelles KI-Register nicht regelt,\r\nkann sie in diesem Bereich auch keine harmonisierende Wirkung haben. Die\r\nNiederlande haben bereits ein nationales KI-Register für die öffentliche Verwaltung\r\neingeführt.\r\nEin nationales KI-Transparenzregister sollte zentral koordiniert und standardisiert\r\nsein. Um eine Doppelstruktur zu vermeiden, sollte es über eine Schnittstelle zur EU\r\nDatenbank der Hochrisiko-Systeme verfügen. Damit steht es nicht im Konflikt mit der\r\nEU-Datenbank, sondern ergänzt und vervollständigt den Überblick über staatliche\r\nKI-Einsätze.\r\nEin nationales KI-Register für die öffentliche Verwaltung kann nicht nur Transparenz für\r\nBetroffene herstellen und Verantwortlichkeit erzeugen, sondern auch positive Anreize\r\nfür Behörden schaffen: vorhandene Anwendungen werden sichtbar und auffindbar,\r\nineffizienten Parallelentwicklungen lassen sich viel leichter vermeiden. Aktuell wird\r\nbereits durch das Beratungszentrum für Künstliche Intelligenz (BeKI) des BMI ein\r\n„Marktplatz der KI-Möglichkeiten“ entwickelt. Er soll Ministerien 15 und Behörden die\r\nPotenziale von KI-Anwendungen aufzeigen und „Transparenz über die\r\nKI-Anwendungslandschaft und Erfahrungswerte in den Ressorts“ liefern.\r\nWichtig ist, dass die Angaben über KI-Anwendungen in Behörden über den in der KI-VO\r\ngeforderten Datenkranz (vgl. Anhang VIII der KI-VO) hinausgehen. Denn wirksame\r\nTransparenz wird durch die dort geforderten spärlichen Informationen noch nicht\r\nhinreichend sichergestellt. Ziel sollte sein, Nachvollziehbarkeit für alle Menschen und\r\neine effektive Grundlage für Nachfragen und Beschwerden sicherzustellen.\r\nEin umfassender Transparenzbericht sollte alle ethisch relevante Auswirkungen und\r\ndie ergriffenen Gegenmaßnahmen detailliert aufführen. Dazu zählt u.a.:\r\n- Definition des Problems, das das KI-System lösen soll\r\n- Konkrete Zieldefinition (z.B. Effizienz- oder Leistungsverbesserungen,\r\nEntscheidungsunterstützung, Automatisierung von Aufgaben, Kostensenkung\r\nusw.)\r\n- Ethische und rechtliche Anforderungen an das System (Datenschutz,\r\nIT-Sicherheit, Fairness, Erklärbarkeit, etc.)\r\n- Transparenz über sämtliche Grundrechtsauswirkungen\r\n- Transparenz über die Umweltverträglichkeit (Energieverbrauch,\r\nTreibhausgasemissionen, indirekter Ressourcenverbrauch, etc.)\r\n- Benennung der Verantwortlichen für Konzeption und Implementierung.\r\nDie Listung von KI-Anwendungen in einem nationalen KI-Transparenzregister sollte\r\nzudem verpflichtend sein. So wird Verbindlichkeit bezüglich der einzutragenden Daten\r\ngeschaffen. Freiwillige Einträge in das Register werden zwangsläufig lückenhaft bleiben.\r\nDamit wäre das Ziel, Synergien zu nutzen und vertrauensbildende Transparenz für\r\nBetroffene zu gewährleisten, verfehlt.\r\n\r\nAlle Ressorts sollten in die Entwicklung und Umsetzung des KI-Transparenzregisters\r\neinbezogen werden. Bei der Entwicklung ist ein strukturierter Stakeholderdialog, der\r\nfrühzeitig alle relevanten Interessengruppen einbezieht, von großem Nutzen.\r\nAlgorithmWatch ist eine Menschenrechtsorganisation mit Sitz in Berlin und Zürich, die\r\nsich mit den gesellschaftlichen Auswirkungen von algorithmischen\r\nEntscheidungssystemen (ADM) und Künstlicher Intelligenz (KI) befasst. Wir setzen uns\r\ndafür ein, dass solche Technologien Menschenrechte, Demokratie und Nachhaltigkeit\r\nstärken, statt sie zu schwächen. Dazu tragen wir mit politischen Kampagnen,\r\nLobbyarbeit, journalistischen Recherchen, Forschung und Technikentwicklung bei.\r\n\r\nUnsere Webseite: https://algorithmwatch.org/\r\nKontakt zu den Autor*innen:\r\nKilian Vieth-Ditlmann, vieth-ditlmann@algorithmwatch.org\r\nPia Sombetzki, sombetzki@algorithmwatch.org\r\n"},"recipientGroups":[{"recipients":{"parliament":[{"code":"RG_BT_MEMBERS_OF_PARLIAMENT","de":"Mitglieder des Bundestages","en":"Members of parliament"}],"federalGovernment":[]},"sendingDate":"2024-05-13"}]},{"regulatoryProjectNumber":"RV0004861","regulatoryProjectTitle":"KI-Verordnung Durchführungsgesetz","pdfUrl":"https://www.lobbyregister.bundestag.de/media/3c/70/308379/Stellungnahme-Gutachten-SG2406190057.pdf","pdfPageCount":2,"text":{"copyrightAcknowledgement":"Die grundlegenden Stellungnahmen und Gutachten können urheberrechtlich geschützte Werke enthalten. Eine Nutzung ist nur im urheberrechtlich zulässigen Rahmen erlaubt.","text":"Offener Brief: Menschenrechte schützen – Biometrische\r\nFernidentifizierung verbieten Berlin, 13. März 2024\r\nSehr geehrte Abgeordnete des Deutschen Bundestages,\r\nheute, am 13. März 2024, beschließt das Europäische Parlament den Artificial Intelligence (AI) Act. Als\r\nerstes umfassendes Gesetz zur Regulierung Künstlicher Intelligenz (KI) weltweit schafft der AI Act in\r\nder gesamten Europäischen Union einheitliche Regeln für die Entwicklung und den Einsatz von KI.\r\nDie finale Fassung des AI Acts verbietet biometrische Überwachung im öffentlichen Raum zwar\r\ngrundsätzlich, lässt jedoch eine Vielzahl an Ausnahmen zu. Diese weitreichenden Ausnahmen für\r\nStrafverfolgung und Sicherheitsbehörden laden europaweit zum Ausbau öffentlicher Überwachung\r\nein. Eine solche Überwachungsinfrastruktur führt dazu, dass Menschen unter dem ständigen Gefühl\r\nder Kontrolle ihre Freiheitsrechte nicht mehr ungehindert ausüben. Der Schutz von Menschenrechten\r\ndarf jedoch nicht unter Vorbehalt stehen. Insbesondere im aktuellen politischen Klima müssen die\r\ndemokratischen Kräfte gemeinsam die Möglichkeit des institutionellen Machtmissbrauchs\r\nminimieren. Deshalb gilt es nun, die im AI Act explizit vorgesehene Möglichkeit der nationalen\r\nVerschärfung europäischer Regeln sowohl für Echtzeit- als auch für nachträgliche biometrische\r\nFernidentifizierung zu nutzen.\r\nWir fordern Sie als Abgeordnete des Deutschen Bundestages daher auf, jede Form der biometrischen\r\nFernidentifizierung in Deutschland zu verbieten!\r\nIm Koalitionsvertrag verpflichten sich die Regierungsparteien gleich an zwei Stellen, biometrische\r\nÜberwachung in Deutschland zu verhindern. So heißt es, dass „[b]iometrische Erkennung im\r\nöffentlichen Raum“ europarechtlich auszuschließen sei, auch der „Einsatz von biometrischer\r\nErfassung zu Überwachungszwecken“ wird explizit abgelehnt. Nachdem das europarechtliche Verbot\r\nbiometrischer Überwachung nun nicht vollständig umzusetzen war, muss ein nationales Verbot das\r\nMittel der Wahl sein.\r\nDie Durchführung biometrischer Echtzeit-Fernidentifikation im öffentlichen Raum öffnet die Tür in\r\ndystopische Verhältnisse, in denen jeder Mensch bei jeder Bewegung im öffentlichen Raum\r\npermanent identifizierbar und überwachbar wird. Ähnliches gilt auch für nachträgliche biometrische\r\nFernidentifikation, die ebenfalls die Bildung umfassender Personenprofile ermöglicht. Anonymität im\r\nöffentlichen Raum ist eine der Grundvoraussetzungen für freie Meinungsäußerung und\r\ndemokratischen Protest. Insbesondere Angehörige marginalisierter Gruppen werden von der\r\nAusübung ihrer Meinungs- und Demonstrationsfreiheit abgehalten, wenn sie Repressalien befürchten\r\nmüssen. Auch der Ampel-Koalitionsvertrag betont: „Das Recht auf Anonymität sowohl im öffentlichen\r\nRaum als auch im Internet ist zu gewährleisten.“\r\nWir fordern Sie deshalb auf, sich für den Schutz der Menschen in Deutschland und das Recht auf ein\r\nLeben frei von Massenüberwachung und Kontrolle einzusetzen.\r\nMit freundlichen Grüßen\r\nListe der Unterzeichnenden (alphabetisch sortiert):\r\nAlgorithmWatch\r\nAmnesty International\r\nAntidiskriminierungsverband Deutschland e.V.\r\nChaos Computer Club\r\nD64 – Zentrum für digitalen Fortschritt\r\nDachverband der Fanhilfen e.V.\r\nDeutscher Caritasverband e.V.\r\nDigitale Freiheit e.V.\r\nDigitale Gesellschaft e.V.\r\nForum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF) e. V.\r\nHumanistische Union e.V.\r\nLOAD e.V. - Verein für liberale Netzpolitik\r\nnetzforma* e.V. - Verein für feministische Netzpolitik\r\nOpen Knowledge Foundation Deutschland e.V.\r\nSUPERRR Lab\r\nTopio e.V.\r\nWikimedia Deutschland e. V."},"recipientGroups":[{"recipients":{"parliament":[{"code":"RG_BT_MEMBERS_OF_PARLIAMENT","de":"Mitglieder des Bundestages","en":"Members of parliament"}],"federalGovernment":[]},"sendingDate":"2024-03-13"}]},{"regulatoryProjectNumber":"RV0004865","regulatoryProjectTitle":"Global Digital Compact","pdfUrl":"https://www.lobbyregister.bundestag.de/media/6f/41/308381/Stellungnahme-Gutachten-SG2406190064.pdf","pdfPageCount":10,"text":{"copyrightAcknowledgement":"Die grundlegenden Stellungnahmen und Gutachten können urheberrechtlich geschützte Werke enthalten. Eine Nutzung ist nur im urheberrechtlich zulässigen Rahmen erlaubt.","text":"Positionspapier deutscher, digitaler, zivilgesellschaftlicher Organisationen zum VN Global\r\nDigital Compact und Pakt für die Zukunft\r\n1 Vision\r\nUnsere Vision eines zukunftsfähigen Internets umfasst die Verwirklichung der universellen\r\nMenschenrechte und den umfassenden Schutz der planetaren Ressourcen für das Wohl der\r\nWeltgemeinschaft. Alle Menschen sollen sich gleichermaßen frei und sicher in einem\r\npluralistischen Netz bewegen und es uneingeschränkt nutzen können. Die digitale\r\nTransformation muss im Sinne einer globalen Gerechtigkeit umgesetzt werden. Das\r\ngelingt nur, wenn Menschenrechte, Nachhaltigkeit und Digitalisierung\r\nzusammengebracht und mit konkreten Maßnahmen gestützt werden.\r\nWir begrüßen daher die Initiative des UNSG, das Zusammenleben der Menschen und die\r\nEntwicklung des Planeten mit gemeinsamen Prinzipien für eine offene, freie und sichere\r\ndigitale Zukunft für alle Menschen zu adressieren. Die gemeinsame Entwicklung der\r\nMenschheit braucht eine offene, sichere, freie, resiliente und gemeinsame\r\nNetzinfrastruktur, inklusive digitale Räume und eine robuste Umsetzung der universellen\r\nMenschenrechte. Das Internet ist der globale Ort, in dem alle Menschenrechte von der\r\ninternationalen Staatengemeinschaft, aber auch von zunehmend global vernetzten\r\nWirtschaftsakteuren und Unternehmen respektiert, geschützt und realisiert werden\r\nmüssen. Wir appellieren an die Staaten, ihre menschenrechtlichen Verpflichtungen entlang\r\ndes „respect, protect, fulfil“-Frameworks auch im digitalen Raum vollumfänglich gerecht zu\r\nwerden. Gleichzeitig fordern wir, dass Unternehmen und Wirtschaftsakteure verbindlicher\r\nund durchsetzungsstärker ihren menschenrechtlichen Sorgfaltspflichten im gesamten\r\nUnternehmenshandeln effektiv nachkommen. Die Umsetzung dieser Vision muss in die\r\n2030-Agenda eingebettet sein, deren Ziele wirkungsvoll umgesetzt und von gut\r\ndurchdachten netzpolitischen Entscheidungen unterstützt werden müssen. Grundsteine\r\ndieser Vision sind öffentliche digitale Räume und freies Wissen.\r\nNationale Regulierungen allein sind nicht ausreichend, um den globalen\r\nHerausforderungen angemessen zu begegnen. Daher sind die Vereinten Nationen eine\r\nsinnvolle und geeignete Instanz, um gemeinsame Ziele, Handlungsempfehlungen und\r\nGovernance festzulegen. Wir unterstützen den Multi-Stakeholder-Ansatz und freuen uns\r\nüber den erkennbaren Wunsch, die Beteiligung von zivilgesellschaftlichen Akteur*innen zu\r\nermöglichen.\r\nMit Blick auf den Global Digital Compact und den Pakt für die Zukunft wollen wir die\r\nfolgenden Aspekte betonen, die gemeinschaftlich erarbeitet und zusammengetragen\r\nwurden. Die Ausführungen beschränken sich auf die dringendsten Aspekte und haben\r\nkeinen Anspruch auf Vollständigkeit.\r\n2 Verpflichtungen und Maßnahmen\r\n1. Die digitale Transformation muss für globale Gerechtigkeit eingesetzt werden.\r\nDas gelingt nur, wenn Nachhaltigkeit und Digitalisierung zusammengebracht\r\nund mit konkreten Maßnahmen unterstützt werden.\r\na. Nachhaltigkeit und die Umsetzung der Agenda 2030 sollten im gesamten GDC\r\nsichtbares Leitmotiv sein, nicht nur in einzelnen Unterkapiteln. Insbesondere\r\ndie Chancen und Risiken der digitalen Transformation für Biodiversität,\r\nUmwelt- und Klimaschutz müssen in allen Aspekten stärker berücksichtigt\r\nwerden.\r\nb. Nachhaltigkeitsaspekte müssen „by design“ und insbesondere bei der\r\ndigitalen Infrastruktur beachtet werden. Dazu gehören neben sparsamem\r\nCode auch weltweite Standards für Nachhaltigkeitssiegel für Rechenzentren,\r\ntransparente Produktions- und Entsorgungsketten von Hardware und ein\r\n„Right to Repair“.\r\nc. Institutionen der VN sollten mit gutem Beispiel vorangehen und für ihre\r\nServices entsprechende Standards einhalten.\r\n2. Menschen- und Bürger*innenrechten im Digitalen schützen, stärken und\r\nentwickeln\r\na. Staatliche Menschenrechtsverpflichtungen entlang des „respect, protect,\r\nfulfil“-Frameworks müssen ganzheitlich auch im digitalen Raum Anwendung\r\nfinden. Menschenrechtsprinzipien in technischen und politischen Lösungen\r\nmüssen „by design“ und „by default“ gewahrt werden.\r\nb. Privatsphäre ist ein Menschenrecht, das sich auf andere Menschenrechte wie\r\ndie Versammlungsfreiheit und Meinungsfreiheit auswirkt. Das Recht auf\r\nVerschlüsselung und Anonymität stärkt die Privatsphäre und garantiert\r\neine sichere, verlässliche und freie Kommunikation. Entsprechend sollten die\r\nVN darauf abzielen, dass Staaten Gesetze und Strategien verabschieden, die\r\neinen umfassenden Schutz für Verschlüsselungstechnologien bieten und\r\nderen Einsatz als „default“ unterstützen. Dazu gehören auch\r\nVerschlüsselungswerkzeuge zum Schutz der Anonymität. Das Recht auf\r\nVerschlüsselung und Anonymität muss im GDC aufgeführt und konsequent\r\nin nationale Regelsetzung überführt werden (vgl. A/HRC/29/32,\r\nUN-Sonderbeauftragter für Meinungsfreiheit; Encryption and Anonymity\r\nFollow-Up Report).\r\nc. Umsetzung eines globalen, sofortigen Moratoriums über den Verkauf,\r\nHandel und die Nutzung von Überwachungssoftware wie Pegasus und\r\nPredator. Der GDC und die VN dürfen nicht hinter bisher formulierten\r\nForderungen zurückbleiben (vgl. A/HRC/52/39, UN-Sonderberichterstatter für\r\ndie Förderung und den Schutz der Menschenrechte und Grundfreiheiten bei\r\nder Bekämpfung des Terrorismus; EU Bericht von 2023 im Kontext der\r\nPegasus Veröffentlichungen; A/HRC/51/17, UN-Jahresbericht von 2022 zum\r\nRecht auf Privatsphäre im digitalen Zeitalter).\r\nd. Alle Überwachungsmaßnahmen müssen den Standards und Prinzipien\r\ndes internationalen Menschenrechts genügen, insbesondere den Kriterien\r\nüber Rechtmäßigkeit, Notwendigkeit und Verhältnismäßigkeit. Zudem\r\nmüssen Schutzgarantien gesetzlich verankert sein. Gezielte, nur in\r\nbegründeten Ausnahmefällen erlaubte Überwachung muss mit robusten\r\nDatenschutzregeln einhergehen. Überwachte Personen müssen nach Ende\r\nder Überwachungsmaßnahme proaktiv informiert werden, dass ihre Daten\r\nund ihre Kommunikation gesammelt wurden. Sie müssen die Möglichkeit\r\nhaben, ihre Rechte vor einem unabhängigen Gericht einzuklagen.\r\nJournalist*innen als Berufsgeheimnisträger*innen muss ein besonderer\r\nSchutz vor Überwachung gewährt werden, insbesondere vor\r\nSpionageprogrammen wie Predator und Pegasus.\r\ne. Personenbezogene Datensammlungen, -verarbeitungen, -nutzungen und\r\n-weitergaben müssen den Regelungen des Datenschutzes unterliegen.\r\nDieses Recht muss in allen Staaten national verankert werden. Der Global\r\nDigital Compact sollte Datensparsamkeit als Leitprinzip stärken.\r\nf. Netzsperren, Online-Zensur und die digitale staatliche Repression gegen\r\netwa Menschenrechtsverteidiger*innen, Journalist*innen und Anwält*innen\r\nüber Ländergrenzen hinweg müssen vonseiten der VN schlagkräftiger,\r\nnachhaltiger und zielgerichteter angegangen werden.\r\ng. Der Schutz vor Online-Gewalt braucht eine internationale Meldestelle,\r\neinheitliche Standards und ausgebildete Jurisdiktion. Die VN sollten\r\nbestehende Institutionen wie etwa den UNHCR entsprechend ausstatten.\r\nh. Der GDC sollte konkrete Kriterien dafür festlegen, was „vertrauliches Nutzen\r\ndes Internets“ bedeutet (Verantwortlichkeiten, Multi-Stakeholder, Label für\r\nVertrauen) und den Begriff „Inklusion“ genauer differenzieren.\r\n3. Öffentliche digitale Infrastruktur mit freiem Zugang\r\na. Ein Internet, das der genannten Vision dient, benötigt gemeinsame\r\nInfrastrukturen und öffentliche Räume. Eine Priorität der VN muss sein, einer\r\nFragmentierung des Internets durch gemeinsame Standards und\r\nInteroperabilitätsanforderungen entgegen zu wirken Die VN müssen\r\nnationale Abschottungsversuche gegen den globalen Austausch von Wissen\r\nund Information auf Infrastrukturebene ächten – ob durch Staaten oder\r\nInternetprovider.\r\nb. Ein gemeinsam nutzbares Internet muss durch eine globale\r\nInternetverwaltung (Global Governance) gesichert werden, die auf\r\nbestehende Strukturen und bewährte Multistakeholder-Ansätze zurückgreift.\r\nc. Die VN sollten sich dafür einsetzen, die Wahlmöglichkeiten und Chancen der\r\nMenschen beim Zugang zum Internet, seinen Informationen und Diensten zu\r\nerhöhen, indem Regierungen Maßnahmen zur Verringerung von\r\nMarktkonzentration ergreifen und sicherstellen, dass digitale Innovation dem\r\nGemeinwohl dient.\r\nd. Im GDC muss die Zielsetzung verankert sein, globale öffentliche Rechen- und\r\nDateninfrastrukturen aufzubauen, die dem öffentlichen Interesse dienen und\r\ndie Kraft und Kreativität der Menschheit zusammenführen.\r\ne. Alternative Infrastrukturen wie Community Networks, offene Frequenzen,\r\nCommunity Hubs, Büchereien als Public-Access-Infrastruktur und vieles mehr\r\nmüssen im GDC positiv herausgestellt und mit Förderprogrammen bedacht\r\nwerden.\r\n4. Öffentliche digitale Räume und globale digitale Gemeingüter als Grundpfeiler\r\nund natürliches Ergebnis dieser Zielvision\r\na. Digitale Commons müssen als globales öffentliches Gut anerkannt werden.\r\nDie Verteilung und gemeinschaftliche Nutzung von digitalen\r\nInformationsressourcen und Technologien muss von Regierungen weltweit\r\ngefördert und unterstützt werden, etwa indem sie sich selbst zu Open Source\r\nverpflichten und öffentlich finanziertes Wissen unter offenen Lizenzen\r\nmöglichst nach CC-0-Standards der Creative Commons bereitstellen.\r\nb. Ein globaler Fond zur Förderung von Open-Source-Software sollte\r\neingerichtet und entlang etablierter Ausgewogenheitskriterien verteilt\r\nwerden. Dazu gehört auch die Investition in Konzepte, wie der Wert digitaler\r\nCommons an die Kreativen und die Gemeinschaft zurückgeführt werden\r\nkönnen.\r\nc. Offene Technologien, Standards und Code (FLOSS) sowie die möglichst offene\r\nLizenzierung von Daten nach Standards der Creative Commons müssen\r\nermöglicht und gefördert werden. Für mit öffentlichen Geldern erstellte Güter\r\nwie Wissensdatenbanken, Gutachten oder Daten müssen offene Lizenzen\r\ngewählt werden, damit Freies Wissen für technischen und gesellschaftlichen\r\nFortschritt effektiv und weitreichend genutzt werden kann (Öffentliches Geld,\r\nöffentliches Gut).\r\nd. Freies Wissen, basierend auf verlässlichen und nachprüfbaren Informationen,\r\nkann der Verbreitung von Desinformation und Misinformation\r\nentgegenwirken. Globale Wissensressourcen sollten daher offen, möglichst\r\nunter CC-0, zur Verfügung gestellt und global vernetzt werden.\r\ne. Der GDC sollte die Initiative beinhalten, weltweite Standards für Fair Use zu\r\netablieren, insbesondere für Informationszwecke und im Bildungsbereich.\r\nf. Digitale Mündigkeit muss in allen Altersstufen gefördert werden. Dafür sollten\r\nauch staatliche Förderprogramme mit Hilfe zur Selbsthilfe eingeführt werden.\r\ng. Zusätzlich zu Maßnahmen zur Einschränkung der Verbreitung von\r\nDesinformationen und Stärkung des Rechts auf Informationen, sollten\r\ndigitalen Dienste in ihren Newsfeeds zuverlässige Nachrichten- und\r\nInformationsquellen fördern, die auf anerkannte Standards zur\r\nKennzeichnung zurückgreifen, wie die Journalism Trust Initiative.\r\n5. Menschenrechtliche und unternehmerische Sorgfaltspflichten im Bereich der\r\nWirtschaft konsequent durchsetzen\r\na. Digitale Dienste und Online-Plattformen müssen verbindlich, lückenlos und\r\nglobal ihrer menschenrechtlichen Verpflichtungen nachkommen. Eine von\r\nStaat und Wirtschaft unabhängige Aufsichtsstruktur und -mechanismen\r\nmüssen auf nationaler Ebene etabliert werden, um die Einhaltung tatsächlich\r\nzu gewährleisten.\r\nb. Für Auswirkungen ihrer Geschäftsmodelle, dem Design ihrer Produkte und\r\nihrer Regulierungsentscheidungen müssen Unternehmen, die digitale\r\nPlattformen und Dienste anbieten, dazu verpflichtet werden, gegenüber der\r\nGesellschaft Rechenschaft abzulegen und transparent zu handeln.\r\nc. Für Internet-Nutzer*innen müssen rechtskräftige und effektive Wege\r\nbereitgestellt werden, um ihre Rechte gegenüber den Unternehmen\r\ndurchsetzen zu können. Die Einrichtung von effektiven, unabhängigen\r\nBeschwerdemechanismen für Nutzer*innen ist unabdingbar.\r\nd. Unternehmen müssen dazu verpflichtet werden, Risikoanalysen und\r\nMechanismen zur Behebung identifizierter Risiken in Bezug auf\r\nMenschenrechte in ihrem Handeln und in ihren Lieferketten umzusetzen.\r\ne. Unternehmen, die mit ihren Überwachungsprodukten und -dienstleistungen\r\netwa im Bereich der Exportkontrolle Menschenrechtsverletzungen begangen\r\nhaben, müssen zur Rechenschaft gezogen werden und den Verkauf, die\r\nEntwicklung und Nutzung ihrer Produkte unverzüglich einstellen. Gegen sie\r\nsind staatliche Sanktionen zu verhängen.\r\nf. Plattformen müssen dazu verpflichtet werden, effektive Strategien und\r\nMaßnahmen gegen die Verbreitung von Desinformationen und Versuchen\r\nder Wahlmanipulationen zu entwickeln und umzusetzen.\r\n6. Digitalisierung ist weit mehr als der isolierte Blick auf Künstliche Intelligenz\r\na. Bei allen Technologien und Innovationen müssen unternehmerische\r\nSorgfaltspflichten und menschenrechtliche Standards verbindlich und global\r\neingehalten und stärker als bisher durchgesetzt werden.\r\nb. Beim Einsatz von KI müssen Transparenz- und Rechenschaftspflichten\r\neingehalten werden, Risikoanalysen und Behebungsmechanismen\r\nimplementiert sowie regelmäßige, unabhängige Audits durchgeführt werden.\r\nBeim Design, der Entwicklung und der Nutzung von KI-Systemen sind\r\nGrundrechte und Datenschutz zu beachten.\r\nc. KI-basierte Systeme sollten nicht ohne Beteiligung und Bewertung von\r\nfachkundigen Personen automatisierte Entscheidungen über einzelne\r\nMenschen treffen – dies gilt insbesondere für sensible Hochrisiko-\r\nAnwendungsbereiche wie etwa im Bereich der Grundrechte und des\r\nDiskriminierungsschutzes.\r\nd. Anwendungen und Inhalte, die KI-basiert sind, müssen sichtbar als solche\r\ngekennzeichnet werden. Alternative Kontaktwege müssen aufgezeigt werden,\r\nbeispielsweise zu Behörden im Falle von Verwaltungsvorgängen. Die\r\nDatengrundlage und -quellen müssen für die Öffentlichkeit transparent und\r\nnachvollziehbar sein. Dazu gehört es auch, die Vertrauenswürdigkeit der\r\nverwendeten Informationen überprüfen zu können. Die UN sollte sich für\r\neine demokratische Kontrolle von KI-Systemen einsetzen, wie sie\r\nbeispielsweise im jüngsten Bericht des Forums für Information und\r\nDemokratie über KI vorgeschlagen wird.\r\ne. Regierungen sollten geeignete Maßnahmen ergreifen, um sicherzustellen,\r\ndass digitale Innovation dem Gemeinwohl dient, und Risiken der\r\nMarktkonzentration zu verringern. Die Abhängigkeit von privaten Ressourcen,\r\ndie für KI-Entwicklung kritisch sind, umfassen Rechenkapazitäten,\r\nDatenspeicherung, Datensätze sowie Produkte und Dienste, in die KI\r\nintegriert werden kann. Ohne Zugang zu diesen Ressourcen wird eine\r\ngemeinwohlorientierte Perspektive auf KI-Entwicklung, -Anwendung und\r\n-Nutzung erschwert. Das Ziel der VN sollte sein, eine Anbieterpluralität auf\r\nallen Ebenen zu ermöglichen.\r\nf. Die VN sollten darauf hinwirken, dass öffentlich bereitgestellte Infrastruktur\r\nin Bezug auf Daten oder Rechenkapazität, etwa die EuroHPC supercomputing\r\nfacilities oder Initiativen wie die Alliance for Language Technologies European\r\nDigital Infrastructure Consortium, global vernetzt wird.\r\ng. Staatlich geförderte nationale und regionale Initiativen sollten in Form von\r\nDatensätzen umgesetzt werden, die als Digital Commons verwaltet werden,\r\nwas bedeutet, dass sie im öffentlichen Interesse und unter demokratischer\r\nund kollektiver Kontrolle gemeinsam genutzt werden sollten.\r\nh. In jedem Fall sollten diese Datensätze nach einem international anerkannten,\r\ninteroperablen Datenstandard zugänglich und austauschbar sein.\r\ni. Es müssen Mechanismen entwickelt werden, die eine faire „Rückgabe“ an die\r\nUrheber*innen, Rechteinhaber*innen und Gemeinschaften gewährleisten,\r\ndie an der Erstellung dieser Ressourcen beteiligt sind.\r\nj. Die VN sollten als Institution selbst darauf hinwirken, dass ihre Dokumente\r\nund Daten über die offiziellen Sprachen der VN hinaus öffentlich zur\r\nVerfügung stehen.\r\n3 Internationale Zusammenarbeit stärken\r\nIn der internationalen Zusammenarbeit zivilgesellschaftliche Expertise und\r\nMulti-Stakeholder-Ansätze verankern\r\na. Die ursprüngliche Vision eines offenen, für alle zugänglichen Internets ist von einem\r\nSystem überbaut worden, das aufgeteilt ist in geschlossene Netzwerke, die von\r\nkommerziellen Akteuren dominiert werden. Zivile, nicht-kommerzielle Räume sind\r\ndagegen kleiner geworden, öffentlich erhältliche Information wird von\r\nwirtschaftlichen Nutzungsinteressen verwertet und in geschlossene Räume\r\nüberführt. Die Beteiligung von zivilgesellschaftlichen Akteuren als Stakeholder eines\r\nglobalen, offenen und sicheren Internets, das den Menschen dient, ist daher\r\nunerlässlich.\r\nb. Internationale Gremien und Prozesse müssen den Prinzipien von Transparenz,\r\nErreichbarkeit und der kohärenten öffentlichen Dokumentation folgen, um von\r\naußen nachvollziehbar zu sein und eine Beteiligung verschiedener Stakeholder zu\r\nermöglichen.\r\nc. IGF-Strukturen müssen international und auf nationaler Ebene gestärkt und\r\nausgebaut werden. Sie profitieren von einer aktiven, breiten und vernetzten\r\nBeteiligung aller Stakeholdergruppen. Diese Beteiligung sollte durch verantwortliche\r\nnationale Institutionen gestärkt werden, indem erweiterte Förderstrukturen (z. B.\r\ndurch einen gesonderten Fördertopf „Freedom Fund for Future“) etabliert werden\r\nund eine feste Verankerung diverser Beteiligungsformate in der staatlichen\r\nGovernance stattfindet. So kann die Expertise aus Zivilgesellschaft und Wissenschaft\r\nwirkungsvoll, faktenbasiert und an menschlichen Bedürfnissen orientiert\r\neingebunden werden.\r\nd. Die UN sollen sich auf die bestehende Internationale Partnerschaft für Information\r\nund Demokratie als eines der wichtigsten Instrumente der internationalen\r\nZusammenarbeit bei der Regulierung des globalen Informations- und\r\nKommunikationsraums beziehen, der 52 Unterzeichnerstaaten (darunter\r\nDeutschland) angehören.\r\ne. Staaten sollten selbst aktiver Teil von internationalen Foren sein und sich dort für\r\nMenschenrechte sowie für die Einbeziehung von lokalen Akteur*innen und\r\nZivilgesellschaft (v.a. im Globalen Süden) einsetzen.\r\nf. Lebendige Multi-Stakeholder-Formate leben von einer existierenden und pluralen\r\nZivilgesellschaft. Eine solche Zivilgesellschaft besteht einerseits in zentral\r\nerreichbaren Institutionen, lebt und erneuert sich andererseits maßgeblich über\r\nehrenamtliches, projektbezogenes Engagement. Eine Förderung weiter Teile der\r\nZivilgesellschaft ist für deren Mitwirkung in der internationalen Zusammenarbeit\r\nunabdingbar, etwa durch informationelle, finanzielle und materielle Unterstützung in\r\nForm von zeitnahen, verständlichen, zentral verteilten und leicht zugänglichen\r\nInformationen, Reisekostenunterstützung, Unterstützung in der Raumfindung sowie\r\nTeilnahme an und Förderung von regelmäßigen Community-Treffen in Form von\r\nKonferenzen oder anderen Arten des Dialogs.\r\ng. Neutrales, globales Monitoring der Fortschritte des GDC auf VN-Ebene sollte zeitnah,\r\ntransparent und nachvollziehbar einer globalen Öffentlichkeit über die offiziellen\r\nSprachen der VN hinaus zur Verfügung gestellt werden.\r\nMitwirkende Organisationen\r\n● Matthias Spielkamp, Algorithm Watch\r\n● Dr. Marcel Dorsch, CODES Coalition for Digital Environmental Sustainability\r\n● Tom Jennissen, Digitale Gesellschaft\r\n● Geraldine de Bastion, GIG Global Innovation Gathering\r\n● Caroline Krohn, Teresa Widlok, LOAD e.V\r\n● Helene Hahn, Reporter ohne Grenzen I Reporters Without Borders\r\n● Elisa Lindinger, SUPERRR Lab\r\n● Dr. Friederike von Franqué, Wikimedia Deutschland e. V."},"recipientGroups":[{"recipients":{"parliament":[{"code":"RG_BT_MEMBERS_OF_PARLIAMENT","de":"Mitglieder des Bundestages","en":"Members of parliament"}],"federalGovernment":[]},"sendingDate":"2024-04-02"},{"recipients":{"parliament":[],"federalGovernment":[{"department":{"title":"Auswärtiges Amt (AA)","shortTitle":"AA","url":"https://www.auswaertiges-amt.de/de","electionPeriod":20}},{"department":{"title":"Bundesministerium für Digitales und Verkehr (BMDV) (20. WP)","shortTitle":"BMDV (20. WP)","url":"https://bmdv.bund.de/DE/Home/home.html","electionPeriod":20}},{"department":{"title":"Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) (20. WP)","shortTitle":"BMUV (20. WP)","url":"https://www.bmuv.de/","electionPeriod":20}}]},"sendingDate":"2024-04-02"}]},{"regulatoryProjectNumber":"RV0014901","regulatoryProjectTitle":"Vermeidung europarechtswidriger biometrischer Überwachungsbefugnisse für das BAMF","pdfUrl":"https://www.lobbyregister.bundestag.de/media/55/e8/487048/Stellungnahme-Gutachten-SG2409230022.pdf","pdfPageCount":7,"text":{"copyrightAcknowledgement":"Die grundlegenden Stellungnahmen und Gutachten können urheberrechtlich geschützte Werke enthalten. Eine Nutzung ist nur im urheberrechtlich zulässigen Rahmen erlaubt.","text":"Stellungnahme zu den Gesetzentwürfen zur „Verbesserung der Terrorismusbekämpfung“ (BT Drucksache 20/12806) und „Verbesserung der inneren Sicherheit und des\r\nAsylsystems“ (BT-Drucksache 20/12805)\r\n20. September 2024\r\nEingereicht durch AlgorithmWatch für das Bündnis Gesichtserkennung Stoppen!\r\nUnsere Empfehlung in Kürze\r\nDie vorgeschlagenen biometrischen Überwachungsbefugnisse sind europarechtswidrig,\r\nverletzen verfassungsrechtliche Mindestanforderungen und widersprechen\r\ndatenschutzrechtlichen Grundregeln. Das betrifft die Entwürfe für §§ 10b, 39a und 63b\r\nBKA-Gesetz, § 34b BPolG, § 98d StPO und § 15b AsylG. Die Regelungen müssen deshalb\r\ngestrichen werden.\r\n\r\nKontext\r\nDiese Stellungnahme beschränkt sich allein aus Zeitgründen auf die biometrischen\r\nÜberwachungsbefugnisse, wie sie am 12.09.2024 in erster Lesung vom Bundestag\r\nberaten wurden. Im Einzelnen sind das folgende vorgeschlagene Regelungen in den\r\nGesetzentwürfen „zur Verbesserung der Terrorismusbekämpfung“ und „zur\r\nVerbesserung der inneren Sicherheit und des Asylsystems“:\r\n● § 10b im Bundeskriminalamtgesetz: nachträglicher biometrischer Abgleich mit\r\nöffentlich zugänglichen Daten aus dem Internet zur\r\n○ Identifizierung oder Ermittlung des Aufenthaltsorts einer Zielperson\r\n○ Verfolgung und Verhütung von Straftaten\r\n● § 39a und § 63b Bundeskriminalamtgesetz, sowie § 34b im Bundespolizeigesetz:\r\nnachträglicher biometrischer Abgleich mit öffentlich zugänglichen Daten aus dem\r\nInternet zur Gefahrenabwehr\r\n● § 98d Strafprozessordnung: nachträglicher Abgleich biometrischer Daten mit im\r\nInternet öffentlich zugänglichen Daten mittels einer automatisierten Anwendung\r\nzur Datenverarbeitung, zur Identitätsfeststellung oder zur Ermittlung des\r\nAufenthaltsorts einer beschuldigten oder sonstigen Person, nach der für Zwecke\r\neines Strafverfahrens gefahndet wird\r\n● § 15b Asylgesetz: nachträglicher biometrischer Abgleich mit öffentlich\r\nzugänglichen Daten aus dem Internet durch das Bundesamt für Migration und\r\nFlüchtlinge (BAMF)\r\n○ wenn ein Ausländer [sic!] keinen gültigen Pass oder Passersatz besitzt und\r\nder Abgleich für die Feststellung der Identität oder Staatsangehörigkeit\r\neines Ausländers [sic!] erforderlich ist\r\nTrotz schwerwiegender offener Fragen zur Wirksamkeit und Rechtmäßigkeit dieser\r\nvorgeschlagenen Maßnahmen sollen die Gesetzesentwürfe im Eilverfahren\r\nverabschiedet werden. Es zeichnet jedoch sowohl die parlamentarische Demokratie als\r\nauch den Rechtsstaat aus, nicht überhastet und hart, sondern besonnen und\r\nverhältnismäßig zu agieren.\r\nIm Koalitionsvertrag verpflichten sich die Regierungsparteien gleich an zwei Stellen,\r\nbiometrische Überwachung in Deutschland zu verhindern. So heißt es, dass\r\n„[b]iometrische Erkennung im öffentlichen Raum“ europarechtlich auszuschließen sei,\r\nauch der „Einsatz von biometrischer Erfassung zu Überwachungszwecken“ wird explizit\r\nabgelehnt. Ebenso hat die Koalition festgehalten, dass „das Recht auf Anonymität\r\nsowohl im öffentlichen Raum als auch im Internet“ zu gewährleisten ist.\r\nIm Folgenden legen wir dar, warum die vorgeschlagenen Befugnisse nicht nur einen Bruch der Koalitionsvertrag 2021- 2025 zwischen SPD, BÜNDNIS 90 / DIE GRÜNEN und FDP, S. 15 und 86f,\r\ngeltenden Koalitionsvertrags bedeuten, sondern auch mit unionsrechtlichen und\r\nverfassungsrechtlichen Vorgaben unvereinbar sind.\r\n1) Unvereinbarkeit mit EU-Recht\r\nDie vorgeschlagenen biometrischen Überwachungsbefugnisse sind\r\neuroparechtswidrig. Sie widersprechen der jüngst in Kraft getretenen EU\r\nKI-Verordnung (KI-VO), die EU-weit harmonisierte Regelungen zum Einsatz von\r\nKI-Systemen beinhaltet.\r\nAngesichts des enormen Schädigungspotenzials für Grundrechte und Demokratie\r\nverbietet die KI-Verordnung „das Inverkehrbringen, die Inbetriebnahme für diesen\r\nspezifischen Zweck oder die Verwendung von KI-Systemen, die Datenbanken zur\r\nGesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet\r\noder von Überwachungsaufnahmen erstellen oder erweitern“ (Art. 5 Absatz 1 Buchstabe\r\ne KI-VO). Dieses Verbot wird bereits am 2. Februar 2025 gültig und umfasst sowohl\r\nprivate KI-Anbieter als auch öffentliche Stellen wie Polizei-, Strafverfolgungs- und\r\nMigrationsbehörden, die ein solches KI-System anschaffen, betreiben oder nutzen.\r\nDie in den Gesetzentwürfen vorgesehene Befugnis zum nachträglichen\r\nbiometrischen Überwachen sämtlicher öffentlich zugänglicher Daten aus dem\r\nInternet kann ohne den Einsatz dieser EU-weit verbotenen KI-Systeme nicht\r\numgesetzt werden. Dabei spielt es keine Rolle, ob die Behörden die biometrischen\r\nErkennungssysteme selbst entwickeln oder von Dritten beschaffen; beides ist explizit\r\nuntersagt. Der Staat darf keine rechtswidrigen Angebote Dritter nutzen. Eine Umsetzung\r\ndieser Befugnis ohne den Einsatz eines solchen KI-Systems kommt weder theoretisch\r\nnoch praktisch in Betracht, da immer KI-Systeme benötigt werden, um die\r\nbiometrischen Muster von Gesichtern aus Bilddaten zu extrahieren.\r\nDie KI-VO sieht für dieses eindeutige Verbot keine Ausnahmen vor. Lediglich solche\r\nKI-Systeme, die „ausschließlich für militärische Zwecke, Verteidigungszwecke oder\r\nZwecke der nationalen Sicherheit in Verkehr gebracht, in Betrieb genommen oder, mit\r\noder ohne Änderungen, verwendet werden“ (Art. 2 Abs. 3 Satz 2 KI-VO) sind generell von\r\nder KI-VO ausgenommen. Die in den Entwürfen vorgesehenen Einsatzzwecke zur\r\nGefahrenabwehr, zur Strafverfolgung und zur Identitätsfeststellung im Zuge von\r\nAsylverfahren sind eindeutig von der Verordnung erfasst. Alle KI-Systeme, die „etwa für\r\nzivile oder humanitäre Zwecke oder für Zwecke der Strafverfolgung oder öffentlichen\r\nSicherheit“ verwendet werden, fallen in den Anwendungsbereich dieser Verordnung\r\n(Erwägungsgrund 24, KI-VO).\r\nDie Gesetzesbegründung führt aus, dass die biometrische Überwachungsbefugnis für das BAMF\r\ndie Vorgabe aus Artikel 14 KI-VO einhalten soll. Dort geht es darum, dass Hochrisiko-KI-Systeme\r\nvon natürlichen Personen wirksam beaufsichtigt werden müssen, etwa um Risiken für\r\nGrundrechte zu minimieren. Hier geht man also davon aus, dass KI-Systeme zum Einsatz\r\nkommen (BT-Drucksache 20/12805, S. 23).\r\n\r\nDie Echtzeit-Fernidentifikation ist gemäß Art. 5 Abs. 1 Buchstabe h der KI-Verordnung\r\nnur in engen Grenzen erlaubt, was die Entwürfe nur unzureichend berücksichtigen: Ein\r\nEchtzeit-Abgleich ist nicht für Stimmen ausgeschlossen, nur für Bild- und\r\nVideoaufnahmen. Damit könnte etwa in einem Live-Stream trotzdem nach den\r\nbiometrischen Stimmmustern einer Person gesucht werden. Hinzu kommt, dass nicht\r\ndefiniert wird, wann eine Echtzeit-Aufnahme endet. Auf YouTube und anderen\r\nVideo-Plattformen ist es zum Beispiel gang und gäbe, dass Veranstaltungen in Echtzeit\r\nübertragen werden und bereits kurz danach und zeitlich unbegrenzt als Videodateien\r\nöffentlich verfügbar bleiben. Einen Schutz dagegen, diese Live-Streams mit kurzem\r\nZeitversatz zu erfassen und auszuwerten, gibt es weder rechtlich noch technisch. Die\r\nKI-VO verweist in EG 95 darauf, dass „Bedingungen für die nachträgliche biometrische\r\nFernidentifizierung keinesfalls eine Grundlage dafür bieten [sollten], die Bedingungen\r\ndes Verbots und der strengen Ausnahmen für biometrische Echtzeit-Fernidentifizierung\r\nzu umgehen”, lässt aber gleichzeitig offen, ab wann eine Echtzeit-Auswertung aufhört\r\nund eine nachträgliche Auswertung anfängt. An der gleichen Stelle wird vorausgesetzt,\r\ndass die nachträgliche Fernidentifikation stets „auf einem geschlossenen Datensatz\r\nrechtmäßig erworbener Videoaufnahmen basieren” muss. Die Absicht, sämtliche\r\nöffentlich zugängliche Daten aus dem Internet heranzuziehen, widerspricht der KI-VO\r\nauch in dieser Sache.\r\nAuch die EU-weiten Datenschutz-Vorgaben sind nicht mit dem biometrischen\r\nMassenabgleich vereinbar. Artikel 10 der Richtlinie über Datenschutz in der\r\nStrafverfolgung (EU Richtlinie 2016/680) fordert, dass die Verarbeitung von\r\nbiometrischen Daten zur eindeutigen Identifizierung einer natürlichen Person nur dann\r\nerlaubt werden darf, wenn sie unbedingt erforderlich ist. Diese Erforderlichkeit ist in\r\nkeiner Weise dargelegt worden. Außerdem muss sichergestellt sein, dass die Rechte und\r\nFreiheiten der betroffenen Person geschützt werden und die Maßnahme der Wahrung\r\nlebenswichtiger Interessen dient, was ebenfalls in den vorliegenden Entwürfen nicht\r\ngegeben ist.\r\n2) Verletzung verfassungsrechtlicher\r\nMindestanforderungen\r\nDie vorgeschlagenen biometrischen Überwachungsbefugnisse sind mit\r\nverfassungsrechtlichen Mindeststandards nicht vereinbar. Die\r\nÜberwachungsmaßnahme berührt zwangsläufig die Grundrechte aller Menschen und ist\r\nweder erforderlich noch verhältnismäßig. Die KI-basierte Erfassung und Auswertung von\r\nGesichtern und Stimmen verletzt die Grundrechte auf informationelle\r\nSelbstbestimmung, auf freie Meinungsäußerung und weitere. Das Eingriffsgewicht ist\r\nbesonders hoch, weil die Maßnahme heimlich erfolgt und eine extrem hohe Streubreite\r\nhat, denn betroffen sind alle Menschen, von denen Gesichtsbilder oder Audiodateien im\r\nInternet zugänglich sind. Dazu kommt, dass erhebliche Diskriminierungsrisiken\r\nbestehen und besonders sensible Daten aufgedeckt werden können (z.B. bei Aufnahmen von Demonstrationen, Parteiveranstaltungen, Pride-Events,\r\nGewerkschaftskundgebungen, Gottesdiensten etc.).\r\nDas Bundesverfassungsgericht hat bereits für die großflächige, automatisierte\r\nVerarbeitung von Kfz-Kennzeichen durch Polizei und Strafverfolgungsbehörden hohe\r\nverfassungsrechtliche Anforderungen aufgestellt. Und dort ging es nicht um besonders\r\nsensible biometrische Daten wie Gesichter, sondern nur um Kfz-Kennzeichen. Die\r\nautomatisierte Erhebung und Auswertung von öffentlich zugänglichen\r\npersonenbezogenen Daten stellt nach Rechtsprechung des Bundesverfassungsgerichts\r\nimmer einen Eingriff in das Grundrecht auf informationelle Selbstbestimmung dar.\r\nAuch ein jüngeres Verfassungsurteil über die automatisierte Datenanalyse für die\r\nvorbeugende Bekämpfung von Straftaten stellt mit Verweis auf das Grundrecht auf\r\ninformationelle Selbstbestimmung klar, dass automatische Abgleiche biometrischer\r\nDaten besonders voraussetzungsvoll sind.\r\nDie Anforderungen für die vorgeschlagene massenhafte Verarbeitung biometrischer\r\nDaten sind zu unspezifisch und die Einsatzzwecke und Tatbestandsmerkmale sind zu\r\nbreit und nicht gewichtig genug. Insbesondere der Straftatenkatalog des § 100a Abs. 2\r\nStPO wird ständig erweitert und angepasst, wodurch er nicht zur klaren Begrenzung von\r\nMaßnahmen auf schwerwiegende Straftaten geeignet ist. Und weder die\r\nReferenz-Datenbanken gesuchter Personen, noch die zu durchsuchenden Bild- oder\r\nVideodaten sind hinreichend konkretisiert, etwa hinsichtlich zeitlicher und räumlicher\r\nBeschränkung. Das Erfassen von Daten, die den Kernbereich privater Lebensgestaltung\r\nberühren, wird durch den Entwurf nicht grundsätzlich ausgeschlossen und ist praktisch\r\nauch nicht zu gewährleisten. Durch die enorme Streubreite des vorgeschlagenen\r\nbiometrischen Abgleichs ist davon auszugehen, dass regelmäßig Erkenntnisse aus dem\r\nKernbereich privater Lebensführung als „Beifang“ erhoben werden. Dass diese höchst\r\nprivaten Daten nicht verwertet werden dürfen und unverzüglich zu löschen sind, stellt\r\nkeinen hinreichenden Schutz dar. Schon die Möglichkeit der Datenerfassung erhöht den\r\nÜberwachungsdruck und schränkt die grundrechtlich garantierte Privatsphäre ein.\r\nDie öffentliche Verfügbarkeit der Daten, die für einen Abgleich herangezogen werden,\r\nändert nichts daran, dass die Schutzbereiche der Grundrechte berührt sind.9 Schon gar\r\nnicht, wenn besonders schützenswerte, lebenslang unveränderbare biometrische\r\nDatensätze wie Stimm- oder Gesichtsmuster daraus abgeleitet werden. Die\r\nRechtsprechung des Bundesverfassungsgerichts spannt einen Schutzschirm, um\r\nEinschüchterungseffekte zu verhindern, die entstehen können, wenn Einzelne nicht mit\r\nausreichender Sicherheit die Verbreitung ihrer Daten überschauen können. Die\r\nmassenhafte biometrische Identifizierung hat eine enorme einschüchternde Wirkung, da\r\nMenschen nicht wissen (und nicht wissen können), ob und wann Foto- und\r\nVideoaufnahmen oder anderes Datenmaterial wie Podcasts in Zukunft mit KI-Systemen\r\nvon Polizei-, Strafverfolgungs- und Migrationsbehörden ausgewertet werden. Die\r\nKI-basierte Analyse von biometrischen Daten ist ein elaboriertes technisches\r\nVerarbeitungsverfahren und keine technische Arbeitshilfe für manuelle Verfahren.\r\n3) Konflikt mit Datenschutzvorgaben\r\nDer Vorschlag verletzt grundlegende datenschutzrechtliche Vorgaben. Eine\r\ninformierte Einwilligung oder ein berechtigtes Interesse kann im Kontext des\r\nvorgeschlagenen biometrischen Massenabgleichs im gesamten öffentlich zugänglichen\r\nInternet nicht gegeben sein. Weder das eine noch das andere kann strukturell aufgrund\r\nder Vielzahl an potenziell betroffenen Personen angenommen werden. Keine Stelle kann\r\naus dem Hochladen eines Inhalts ins Internet ein Einverständnis in die Datenerhebung\r\nherleiten.\r\nDie Gesetzentwürfe legen die technische Ausgestaltung des massenhaften\r\nbiometrischen Abgleichs nur unzureichend dar. Dennoch ist davon auszugehen, dass die\r\ntechnische Vorgehensweise der des Unternehmens ClearView AI Inc. zumindest ähnelt.\r\nEtliche Datenschutzbehörden haben die Datenverarbeitung durch ClearView AI aufgrund\r\nzahlreicher Verstöße gegen die DSGVO beanstandet und mit hohen Bußgeldern belegt:\r\n- Die niederländische Datenschutzbehörde AP erließ ein Bußgeld in Höhe von 30,5\r\nMio. Euro gegen ClearView AI.\r\n- Die französische Datenschutzbehörde CNIL verhängte eine Geldbuße in Höhe\r\nvon 20 Mio. Euro gegen ClearView AI.\r\n- Die griechische Datenschutzaufsicht verhängte ein Bußgeld in Höhe von 20 Mio.\r\nEuro gegen ClearView AI.\r\n- Die britische Aufsichtsbehörde ICO verhängte eine Geldstrafe in Höhe von 7,5\r\nMio. GBP gegen ClearView Al.\r\n- Die italienische Datenschutzbehörde GPDP erließ ein Bußgeld in Höhe von 20\r\nMio. Euro gegen ClearView AI.\r\nDie europäischen Datenschutzbehörden, der Europäische Datenschutzbeauftragte, der\r\nEuropäische Datenschutzausschuss und die ehemalige UN-17 Hochkommissarin für\r\nMenschenrechte sehen allesamt gravierende Verstöße gegen elementare\r\nDatenschutzregeln und grundrechtliche Garantien, wenn ein massenhafter\r\nbiometrischer Abgleich zum Einsatz kommt.\r\nAlgorithmWatch ist eine Menschenrechtsorganisation mit Sitz in Berlin und Zürich, die\r\nsich mit den gesellschaftlichen Auswirkungen von algorithmischen\r\nEntscheidungssystemen (ADM) und Künstlicher Intelligenz (KI) befasst. Wir setzen uns\r\ndafür ein, dass solche Technologien Menschenrechte, Demokratie und Nachhaltigkeit\r\nstärken, statt sie zu schwächen. Dazu tragen wir mit politischen Kampagnen,\r\nLobbyarbeit, journalistischen Recherchen, Forschung und Technikentwicklung bei.\r\nWebseite von AlgorithmWatch: https://algorithmwatch.org/\r\nWebseite des Bündnisses Gesichtserkennung Stoppen!\r\nhttps://gesichtserkennung-stoppen.de/\r\nKontakt zum Autor:\r\nKilian Vieth-Ditlmann, vieth-ditlmann@algorithmwatch.org\r\n"},"recipientGroups":[{"recipients":{"parliament":[{"code":"RG_BT_MEMBERS_OF_PARLIAMENT","de":"Mitglieder des Bundestages","en":"Members of parliament"}],"federalGovernment":[]},"sendingDate":"2024-09-20"}]},{"regulatoryProjectNumber":"RV0014901","regulatoryProjectTitle":"Vermeidung europarechtswidriger biometrischer Überwachungsbefugnisse für das BAMF","pdfUrl":"https://www.lobbyregister.bundestag.de/media/42/0b/487050/Stellungnahme-Gutachten-SG2409230026.pdf","pdfPageCount":4,"text":{"copyrightAcknowledgement":"Die grundlegenden Stellungnahmen und Gutachten können urheberrechtlich geschützte Werke enthalten. Eine Nutzung ist nur im urheberrechtlich zulässigen Rahmen erlaubt.","text":"Zivilgesellschaftliche Organisationen wenden sich in einem offenen Brief gegen das Unsicherheitspaket der Bundesregierung. Der Brief kritisiert die Ausweitung der Befugnisse der Sicherheitsbehörden im digitalen Bereich, geht aber auch die Verschärfungen im Asylbereich ein. \r\n\r\nHaltung zeigen – Menschenrechte und Rechtsstaatlichkeit verteidigen, biometrische Gesichtserkennung stoppen\r\n\r\nSehr geehrte Abgeordnete des Deutschen Bundestages,\r\n\r\nmit den Gesetzentwürfen zum sogenannten Sicherheitspaket schlagen die Fraktionen der Ampel-Koalition die Verschärfungen des Asylrechts und die Einführung massenhafter biometrischer Überwachung vor. Trotz schwerwiegender offener Fragen bezüglich der Effektivität der vorgeschlagenen Maßnahmen und ihrer Konformität mit EU-Recht und dem Grundgesetz soll dieses Paket in Rekordzeit verabschiedet und umgesetzt werden.\r\n\r\nDas Sicherheitspaket sieht Maßnahmen vor, die in keinem angemessenen Verhältnis zu dem vermuteten Gewinn an Sicherheit stehen. In einigen Bereichen besitzen die Regelungen reinen Symbolcharakter und werden die Sicherheitsbehörden im Vollzug mit neuen Aufgaben belasten, die sie davon abhalten, ihren eigentlichen Tätigkeiten nachzugehen.\r\n\r\nGleichzeitig stützen die vorgeschlagenen Verschärfungen des Asylrechts autoritäre Narrative, die die Rechte „Anderer“, in diesem Fall asylsuchender Menschen, infrage stellen, und tragen damit zur Spaltung der Gesellschaft bei. Asylsuchenden, für deren Asylantrag ein anderer Mitgliedstaat zuständig ist, sollen zukünftig nach zwei Wochen alle Sozialleistungen gestrichen werden. Das untergräbt die Menschenwürde und ist inakzeptabel und völkerrechtswidrig. Die geplante Ausweitung anlassloser Kontrollen durch die Polizei ist ein Einfallstor für Racial Profiling.\r\n\r\nWir fordern Sie dazu auf, sich dem kopflosen Aktionismus, der mit dem Sicherheitspaket einhergeht, entgegenzustellen, Grund- und Menschenrechte zu schützen und für die Rechtsstaatlichkeit einzustehen.\r\n\r\nEingeführt werden soll auch die Befugnis zum biometrischen Abgleich des gesamten Internets mit Bildern und Stimmen von Tatverdächtigen oder gesuchten Personen. Bundeskriminalamt und Bundespolizei sollen diese Befugnis nicht nur zur Bekämpfung von Terrorismus, sondern auch als neues Standardinstrument erhalten, das Bundesamt für Migration und Flüchtlinge sogar ohne Anfangsverdacht einer Straftat, nur um die Identität von Personen festzustellen.\r\n\r\nEine solche Maßnahme ist technisch jedoch nur möglich, wenn riesige, unterschiedslose Gesichtsdatenbanken angelegt werden. Solche Gesichtsdatenbanken sind nach Artikel 5 der KI-Verordnung eine verbotene Praxis, da sie Massenüberwachung ermöglichen und zu schweren Verstößen gegen die Grundrechte, einschließlich des Rechts auf Privatsphäre, führen können. Es gibt zwar Ausnahmen im Rahmen der nationalen Sicherheit, aber ein Verbot des Einsatzes von biometrischen Fernidentifizierungssystemen ist laut KI-Verordnung ausdrücklich möglich und kann von den Mitgliedsstaaten rechtlich eingeführt werden.\r\n\r\nDer Schutz von Menschenrechten darf nicht unter Vorbehalt stehen. Insbesondere im Kontext erstarkender rechtsextremer Parteien müssen die demokratischen Kräfte gemeinsam die Möglichkeit des institutionellen Machtmissbrauchs minimieren.\r\n\r\nWir fordern Sie daher auf, sich gegen jede Form der biometrischen Fernidentifizierung in Deutschland einzusetzen.\r\n\r\nIm Koalitionsvertrag verpflichten sich die Regierungsparteien gleich an zwei Stellen, biometrische Überwachung in Deutschland zu verhindern: Die „[b]iometrische Erkennung im öffentlichen Raum“ wie auch der „Einsatz von biometrischer Erfassung zu Überwachungszwecken“ werden explizit abgelehnt.\r\n\r\nEs ist jetzt an der Zeit, ein Verbot biometrischer Überwachung konsequent zu verfolgen und Einschnitte in Grundrechte wie die ausufernden Ideen zur automatisierten Datenanalyse, die anlasslose IP-Adressdatenspeicherung, Videoüberwachung und Gesichtserkennung im öffentlichen Raum, Onlinedurchsuchung für den Verfassungsschutz und die allgemeine und anlasslose Vorratsdatenspeicherung ein für alle Mal abzulehnen.\r\n\r\nWir fordern Sie auf, sich für den Schutz aller Menschen und das Recht auf ein Leben frei von Massenüberwachung und Kontrolle einzusetzen.\r\n\r\nMit freundlichen Grüßen\r\n\r\nAlphabetisch sortiert:\r\n\r\n    AlgorithmWatch\r\n    Amnesty International\r\n    Chaos Computer Club\r\n    D64 – Zentrum für digitalen Fortschritt\r\n    Die Datenpunks\r\n    Digitale Freiheit e.V.\r\n    Digitale Gesellschaft e.V.\r\n    Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF e.V.)\r\n    Gesichtserkennung Stoppen\r\n    Humanistische Union e.V.\r\n    Innovationsverbund Öffentliche Gesundheit e.V.\r\n    Komitee für Grundrechte und Demokratie\r\n    #LeaveNoOneBehind\r\n    Open Knowledge Foundation Deutschland e.V.\r\n    netzbegrünung – Verein für grüne Netzkultur e.V.\r\n    Sea-Watch e.V.\r\n    Seebrücke\r\n    SUPERRR Lab\r\n    Topio e.V.\r\n    Wikimedia Deutschland e. V.\r\n\r\n"},"recipientGroups":[{"recipients":{"parliament":[{"code":"RG_BT_MEMBERS_OF_PARLIAMENT","de":"Mitglieder des Bundestages","en":"Members of parliament"}],"federalGovernment":[]},"sendingDate":"2024-09-23"}]},{"regulatoryProjectNumber":"RV0014902","regulatoryProjectTitle":"Vermeidung europarechtswidriger biometrischer Überwachungsbefugnisse für Strafverfolgungsbehörden, Bundeskriminalamt und Bundespolizei","pdfUrl":"https://www.lobbyregister.bundestag.de/media/79/49/487052/Stellungnahme-Gutachten-SG2409230023.pdf","pdfPageCount":7,"text":{"copyrightAcknowledgement":"Die grundlegenden Stellungnahmen und Gutachten können urheberrechtlich geschützte Werke enthalten. Eine Nutzung ist nur im urheberrechtlich zulässigen Rahmen erlaubt.","text":"Stellungnahme zu den Gesetzentwürfen zur „Verbesserung der Terrorismusbekämpfung“ (BT Drucksache 20/12806) und „Verbesserung der inneren Sicherheit und des\r\nAsylsystems“ (BT-Drucksache 20/12805)\r\n20. September 2024\r\nEingereicht durch AlgorithmWatch für das Bündnis Gesichtserkennung Stoppen!\r\nUnsere Empfehlung in Kürze\r\nDie vorgeschlagenen biometrischen Überwachungsbefugnisse sind europarechtswidrig,\r\nverletzen verfassungsrechtliche Mindestanforderungen und widersprechen\r\ndatenschutzrechtlichen Grundregeln. Das betrifft die Entwürfe für §§ 10b, 39a und 63b\r\nBKA-Gesetz, § 34b BPolG, § 98d StPO und § 15b AsylG. Die Regelungen müssen deshalb\r\ngestrichen werden.\r\n\r\nKontext\r\nDiese Stellungnahme beschränkt sich allein aus Zeitgründen auf die biometrischen\r\nÜberwachungsbefugnisse, wie sie am 12.09.2024 in erster Lesung vom Bundestag\r\nberaten wurden. Im Einzelnen sind das folgende vorgeschlagene Regelungen in den\r\nGesetzentwürfen „zur Verbesserung der Terrorismusbekämpfung“ und „zur\r\nVerbesserung der inneren Sicherheit und des Asylsystems“:\r\n● § 10b im Bundeskriminalamtgesetz: nachträglicher biometrischer Abgleich mit\r\nöffentlich zugänglichen Daten aus dem Internet zur\r\n○ Identifizierung oder Ermittlung des Aufenthaltsorts einer Zielperson\r\n○ Verfolgung und Verhütung von Straftaten\r\n● § 39a und § 63b Bundeskriminalamtgesetz, sowie § 34b im Bundespolizeigesetz:\r\nnachträglicher biometrischer Abgleich mit öffentlich zugänglichen Daten aus dem\r\nInternet zur Gefahrenabwehr\r\n● § 98d Strafprozessordnung: nachträglicher Abgleich biometrischer Daten mit im\r\nInternet öffentlich zugänglichen Daten mittels einer automatisierten Anwendung\r\nzur Datenverarbeitung, zur Identitätsfeststellung oder zur Ermittlung des\r\nAufenthaltsorts einer beschuldigten oder sonstigen Person, nach der für Zwecke\r\neines Strafverfahrens gefahndet wird\r\n● § 15b Asylgesetz: nachträglicher biometrischer Abgleich mit öffentlich\r\nzugänglichen Daten aus dem Internet durch das Bundesamt für Migration und\r\nFlüchtlinge (BAMF)\r\n○ wenn ein Ausländer [sic!] keinen gültigen Pass oder Passersatz besitzt und\r\nder Abgleich für die Feststellung der Identität oder Staatsangehörigkeit\r\neines Ausländers [sic!] erforderlich ist\r\nTrotz schwerwiegender offener Fragen zur Wirksamkeit und Rechtmäßigkeit dieser\r\nvorgeschlagenen Maßnahmen sollen die Gesetzesentwürfe im Eilverfahren\r\nverabschiedet werden. Es zeichnet jedoch sowohl die parlamentarische Demokratie als\r\nauch den Rechtsstaat aus, nicht überhastet und hart, sondern besonnen und\r\nverhältnismäßig zu agieren.\r\nIm Koalitionsvertrag verpflichten sich die Regierungsparteien gleich an zwei Stellen,\r\nbiometrische Überwachung in Deutschland zu verhindern. So heißt es, dass\r\n„[b]iometrische Erkennung im öffentlichen Raum“ europarechtlich auszuschließen sei,\r\nauch der „Einsatz von biometrischer Erfassung zu Überwachungszwecken“ wird explizit\r\nabgelehnt. Ebenso hat die Koalition festgehalten, dass „das Recht auf Anonymität\r\nsowohl im öffentlichen Raum als auch im Internet“ zu gewährleisten ist.\r\nIm Folgenden legen wir dar, warum die vorgeschlagenen Befugnisse nicht nur einen Bruch der Koalitionsvertrag 2021- 2025 zwischen SPD, BÜNDNIS 90 / DIE GRÜNEN und FDP, S. 15 und 86f,\r\ngeltenden Koalitionsvertrags bedeuten, sondern auch mit unionsrechtlichen und\r\nverfassungsrechtlichen Vorgaben unvereinbar sind.\r\n1) Unvereinbarkeit mit EU-Recht\r\nDie vorgeschlagenen biometrischen Überwachungsbefugnisse sind\r\neuroparechtswidrig. Sie widersprechen der jüngst in Kraft getretenen EU\r\nKI-Verordnung (KI-VO), die EU-weit harmonisierte Regelungen zum Einsatz von\r\nKI-Systemen beinhaltet.\r\nAngesichts des enormen Schädigungspotenzials für Grundrechte und Demokratie\r\nverbietet die KI-Verordnung „das Inverkehrbringen, die Inbetriebnahme für diesen\r\nspezifischen Zweck oder die Verwendung von KI-Systemen, die Datenbanken zur\r\nGesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet\r\noder von Überwachungsaufnahmen erstellen oder erweitern“ (Art. 5 Absatz 1 Buchstabe\r\ne KI-VO). Dieses Verbot wird bereits am 2. Februar 2025 gültig und umfasst sowohl\r\nprivate KI-Anbieter als auch öffentliche Stellen wie Polizei-, Strafverfolgungs- und\r\nMigrationsbehörden, die ein solches KI-System anschaffen, betreiben oder nutzen.\r\nDie in den Gesetzentwürfen vorgesehene Befugnis zum nachträglichen\r\nbiometrischen Überwachen sämtlicher öffentlich zugänglicher Daten aus dem\r\nInternet kann ohne den Einsatz dieser EU-weit verbotenen KI-Systeme nicht\r\numgesetzt werden. Dabei spielt es keine Rolle, ob die Behörden die biometrischen\r\nErkennungssysteme selbst entwickeln oder von Dritten beschaffen; beides ist explizit\r\nuntersagt. Der Staat darf keine rechtswidrigen Angebote Dritter nutzen. Eine Umsetzung\r\ndieser Befugnis ohne den Einsatz eines solchen KI-Systems kommt weder theoretisch\r\nnoch praktisch in Betracht, da immer KI-Systeme benötigt werden, um die\r\nbiometrischen Muster von Gesichtern aus Bilddaten zu extrahieren.\r\nDie KI-VO sieht für dieses eindeutige Verbot keine Ausnahmen vor. Lediglich solche\r\nKI-Systeme, die „ausschließlich für militärische Zwecke, Verteidigungszwecke oder\r\nZwecke der nationalen Sicherheit in Verkehr gebracht, in Betrieb genommen oder, mit\r\noder ohne Änderungen, verwendet werden“ (Art. 2 Abs. 3 Satz 2 KI-VO) sind generell von\r\nder KI-VO ausgenommen. Die in den Entwürfen vorgesehenen Einsatzzwecke zur\r\nGefahrenabwehr, zur Strafverfolgung und zur Identitätsfeststellung im Zuge von\r\nAsylverfahren sind eindeutig von der Verordnung erfasst. Alle KI-Systeme, die „etwa für\r\nzivile oder humanitäre Zwecke oder für Zwecke der Strafverfolgung oder öffentlichen\r\nSicherheit“ verwendet werden, fallen in den Anwendungsbereich dieser Verordnung\r\n(Erwägungsgrund 24, KI-VO).\r\nDie Gesetzesbegründung führt aus, dass die biometrische Überwachungsbefugnis für das BAMF\r\ndie Vorgabe aus Artikel 14 KI-VO einhalten soll. Dort geht es darum, dass Hochrisiko-KI-Systeme\r\nvon natürlichen Personen wirksam beaufsichtigt werden müssen, etwa um Risiken für\r\nGrundrechte zu minimieren. Hier geht man also davon aus, dass KI-Systeme zum Einsatz\r\nkommen (BT-Drucksache 20/12805, S. 23).\r\n\r\nDie Echtzeit-Fernidentifikation ist gemäß Art. 5 Abs. 1 Buchstabe h der KI-Verordnung\r\nnur in engen Grenzen erlaubt, was die Entwürfe nur unzureichend berücksichtigen: Ein\r\nEchtzeit-Abgleich ist nicht für Stimmen ausgeschlossen, nur für Bild- und\r\nVideoaufnahmen. Damit könnte etwa in einem Live-Stream trotzdem nach den\r\nbiometrischen Stimmmustern einer Person gesucht werden. Hinzu kommt, dass nicht\r\ndefiniert wird, wann eine Echtzeit-Aufnahme endet. Auf YouTube und anderen\r\nVideo-Plattformen ist es zum Beispiel gang und gäbe, dass Veranstaltungen in Echtzeit\r\nübertragen werden und bereits kurz danach und zeitlich unbegrenzt als Videodateien\r\nöffentlich verfügbar bleiben. Einen Schutz dagegen, diese Live-Streams mit kurzem\r\nZeitversatz zu erfassen und auszuwerten, gibt es weder rechtlich noch technisch. Die\r\nKI-VO verweist in EG 95 darauf, dass „Bedingungen für die nachträgliche biometrische\r\nFernidentifizierung keinesfalls eine Grundlage dafür bieten [sollten], die Bedingungen\r\ndes Verbots und der strengen Ausnahmen für biometrische Echtzeit-Fernidentifizierung\r\nzu umgehen”, lässt aber gleichzeitig offen, ab wann eine Echtzeit-Auswertung aufhört\r\nund eine nachträgliche Auswertung anfängt. An der gleichen Stelle wird vorausgesetzt,\r\ndass die nachträgliche Fernidentifikation stets „auf einem geschlossenen Datensatz\r\nrechtmäßig erworbener Videoaufnahmen basieren” muss. Die Absicht, sämtliche\r\nöffentlich zugängliche Daten aus dem Internet heranzuziehen, widerspricht der KI-VO\r\nauch in dieser Sache.\r\nAuch die EU-weiten Datenschutz-Vorgaben sind nicht mit dem biometrischen\r\nMassenabgleich vereinbar. Artikel 10 der Richtlinie über Datenschutz in der\r\nStrafverfolgung (EU Richtlinie 2016/680) fordert, dass die Verarbeitung von\r\nbiometrischen Daten zur eindeutigen Identifizierung einer natürlichen Person nur dann\r\nerlaubt werden darf, wenn sie unbedingt erforderlich ist. Diese Erforderlichkeit ist in\r\nkeiner Weise dargelegt worden. Außerdem muss sichergestellt sein, dass die Rechte und\r\nFreiheiten der betroffenen Person geschützt werden und die Maßnahme der Wahrung\r\nlebenswichtiger Interessen dient, was ebenfalls in den vorliegenden Entwürfen nicht\r\ngegeben ist.\r\n2) Verletzung verfassungsrechtlicher\r\nMindestanforderungen\r\nDie vorgeschlagenen biometrischen Überwachungsbefugnisse sind mit\r\nverfassungsrechtlichen Mindeststandards nicht vereinbar. Die\r\nÜberwachungsmaßnahme berührt zwangsläufig die Grundrechte aller Menschen und ist\r\nweder erforderlich noch verhältnismäßig. Die KI-basierte Erfassung und Auswertung von\r\nGesichtern und Stimmen verletzt die Grundrechte auf informationelle\r\nSelbstbestimmung, auf freie Meinungsäußerung und weitere. Das Eingriffsgewicht ist\r\nbesonders hoch, weil die Maßnahme heimlich erfolgt und eine extrem hohe Streubreite\r\nhat, denn betroffen sind alle Menschen, von denen Gesichtsbilder oder Audiodateien im\r\nInternet zugänglich sind. Dazu kommt, dass erhebliche Diskriminierungsrisiken\r\nbestehen und besonders sensible Daten aufgedeckt werden können (z.B. bei Aufnahmen von Demonstrationen, Parteiveranstaltungen, Pride-Events,\r\nGewerkschaftskundgebungen, Gottesdiensten etc.).\r\nDas Bundesverfassungsgericht hat bereits für die großflächige, automatisierte\r\nVerarbeitung von Kfz-Kennzeichen durch Polizei und Strafverfolgungsbehörden hohe\r\nverfassungsrechtliche Anforderungen aufgestellt. Und dort ging es nicht um besonders\r\nsensible biometrische Daten wie Gesichter, sondern nur um Kfz-Kennzeichen. Die\r\nautomatisierte Erhebung und Auswertung von öffentlich zugänglichen\r\npersonenbezogenen Daten stellt nach Rechtsprechung des Bundesverfassungsgerichts\r\nimmer einen Eingriff in das Grundrecht auf informationelle Selbstbestimmung dar.\r\nAuch ein jüngeres Verfassungsurteil über die automatisierte Datenanalyse für die\r\nvorbeugende Bekämpfung von Straftaten stellt mit Verweis auf das Grundrecht auf\r\ninformationelle Selbstbestimmung klar, dass automatische Abgleiche biometrischer\r\nDaten besonders voraussetzungsvoll sind.\r\nDie Anforderungen für die vorgeschlagene massenhafte Verarbeitung biometrischer\r\nDaten sind zu unspezifisch und die Einsatzzwecke und Tatbestandsmerkmale sind zu\r\nbreit und nicht gewichtig genug. Insbesondere der Straftatenkatalog des § 100a Abs. 2\r\nStPO wird ständig erweitert und angepasst, wodurch er nicht zur klaren Begrenzung von\r\nMaßnahmen auf schwerwiegende Straftaten geeignet ist. Und weder die\r\nReferenz-Datenbanken gesuchter Personen, noch die zu durchsuchenden Bild- oder\r\nVideodaten sind hinreichend konkretisiert, etwa hinsichtlich zeitlicher und räumlicher\r\nBeschränkung. Das Erfassen von Daten, die den Kernbereich privater Lebensgestaltung\r\nberühren, wird durch den Entwurf nicht grundsätzlich ausgeschlossen und ist praktisch\r\nauch nicht zu gewährleisten. Durch die enorme Streubreite des vorgeschlagenen\r\nbiometrischen Abgleichs ist davon auszugehen, dass regelmäßig Erkenntnisse aus dem\r\nKernbereich privater Lebensführung als „Beifang“ erhoben werden. Dass diese höchst\r\nprivaten Daten nicht verwertet werden dürfen und unverzüglich zu löschen sind, stellt\r\nkeinen hinreichenden Schutz dar. Schon die Möglichkeit der Datenerfassung erhöht den\r\nÜberwachungsdruck und schränkt die grundrechtlich garantierte Privatsphäre ein.\r\nDie öffentliche Verfügbarkeit der Daten, die für einen Abgleich herangezogen werden,\r\nändert nichts daran, dass die Schutzbereiche der Grundrechte berührt sind.9 Schon gar\r\nnicht, wenn besonders schützenswerte, lebenslang unveränderbare biometrische\r\nDatensätze wie Stimm- oder Gesichtsmuster daraus abgeleitet werden. Die\r\nRechtsprechung des Bundesverfassungsgerichts spannt einen Schutzschirm, um\r\nEinschüchterungseffekte zu verhindern, die entstehen können, wenn Einzelne nicht mit\r\nausreichender Sicherheit die Verbreitung ihrer Daten überschauen können. Die\r\nmassenhafte biometrische Identifizierung hat eine enorme einschüchternde Wirkung, da\r\nMenschen nicht wissen (und nicht wissen können), ob und wann Foto- und\r\nVideoaufnahmen oder anderes Datenmaterial wie Podcasts in Zukunft mit KI-Systemen\r\nvon Polizei-, Strafverfolgungs- und Migrationsbehörden ausgewertet werden. Die\r\nKI-basierte Analyse von biometrischen Daten ist ein elaboriertes technisches\r\nVerarbeitungsverfahren und keine technische Arbeitshilfe für manuelle Verfahren.\r\n3) Konflikt mit Datenschutzvorgaben\r\nDer Vorschlag verletzt grundlegende datenschutzrechtliche Vorgaben. Eine\r\ninformierte Einwilligung oder ein berechtigtes Interesse kann im Kontext des\r\nvorgeschlagenen biometrischen Massenabgleichs im gesamten öffentlich zugänglichen\r\nInternet nicht gegeben sein. Weder das eine noch das andere kann strukturell aufgrund\r\nder Vielzahl an potenziell betroffenen Personen angenommen werden. Keine Stelle kann\r\naus dem Hochladen eines Inhalts ins Internet ein Einverständnis in die Datenerhebung\r\nherleiten.\r\nDie Gesetzentwürfe legen die technische Ausgestaltung des massenhaften\r\nbiometrischen Abgleichs nur unzureichend dar. Dennoch ist davon auszugehen, dass die\r\ntechnische Vorgehensweise der des Unternehmens ClearView AI Inc. zumindest ähnelt.\r\nEtliche Datenschutzbehörden haben die Datenverarbeitung durch ClearView AI aufgrund\r\nzahlreicher Verstöße gegen die DSGVO beanstandet und mit hohen Bußgeldern belegt:\r\n- Die niederländische Datenschutzbehörde AP erließ ein Bußgeld in Höhe von 30,5\r\nMio. Euro gegen ClearView AI.\r\n- Die französische Datenschutzbehörde CNIL verhängte eine Geldbuße in Höhe\r\nvon 20 Mio. Euro gegen ClearView AI.\r\n- Die griechische Datenschutzaufsicht verhängte ein Bußgeld in Höhe von 20 Mio.\r\nEuro gegen ClearView AI.\r\n- Die britische Aufsichtsbehörde ICO verhängte eine Geldstrafe in Höhe von 7,5\r\nMio. GBP gegen ClearView Al.\r\n- Die italienische Datenschutzbehörde GPDP erließ ein Bußgeld in Höhe von 20\r\nMio. Euro gegen ClearView AI.\r\nDie europäischen Datenschutzbehörden, der Europäische Datenschutzbeauftragte, der\r\nEuropäische Datenschutzausschuss und die ehemalige UN-17 Hochkommissarin für\r\nMenschenrechte sehen allesamt gravierende Verstöße gegen elementare\r\nDatenschutzregeln und grundrechtliche Garantien, wenn ein massenhafter\r\nbiometrischer Abgleich zum Einsatz kommt.\r\nAlgorithmWatch ist eine Menschenrechtsorganisation mit Sitz in Berlin und Zürich, die\r\nsich mit den gesellschaftlichen Auswirkungen von algorithmischen\r\nEntscheidungssystemen (ADM) und Künstlicher Intelligenz (KI) befasst. Wir setzen uns\r\ndafür ein, dass solche Technologien Menschenrechte, Demokratie und Nachhaltigkeit\r\nstärken, statt sie zu schwächen. Dazu tragen wir mit politischen Kampagnen,\r\nLobbyarbeit, journalistischen Recherchen, Forschung und Technikentwicklung bei.\r\nWebseite von AlgorithmWatch: https://algorithmwatch.org/\r\nWebseite des Bündnisses Gesichtserkennung Stoppen!\r\nhttps://gesichtserkennung-stoppen.de/\r\nKontakt zum Autor:\r\nKilian Vieth-Ditlmann, vieth-ditlmann@algorithmwatch.org\r\n"},"recipientGroups":[{"recipients":{"parliament":[{"code":"RG_BT_MEMBERS_OF_PARLIAMENT","de":"Mitglieder des Bundestages","en":"Members of parliament"}],"federalGovernment":[]},"sendingDate":"2024-09-20"}]},{"regulatoryProjectNumber":"RV0014902","regulatoryProjectTitle":"Vermeidung europarechtswidriger biometrischer Überwachungsbefugnisse für Strafverfolgungsbehörden, Bundeskriminalamt und Bundespolizei","pdfUrl":"https://www.lobbyregister.bundestag.de/media/90/e9/487054/Stellungnahme-Gutachten-SG2409230027.pdf","pdfPageCount":4,"text":{"copyrightAcknowledgement":"Die grundlegenden Stellungnahmen und Gutachten können urheberrechtlich geschützte Werke enthalten. Eine Nutzung ist nur im urheberrechtlich zulässigen Rahmen erlaubt.","text":"Zivilgesellschaftliche Organisationen wenden sich in einem offenen Brief gegen das Unsicherheitspaket der Bundesregierung. Der Brief kritisiert die Ausweitung der Befugnisse der Sicherheitsbehörden im digitalen Bereich, geht aber auch die Verschärfungen im Asylbereich ein. \r\n\r\nHaltung zeigen – Menschenrechte und Rechtsstaatlichkeit verteidigen, biometrische Gesichtserkennung stoppen\r\n\r\nSehr geehrte Abgeordnete des Deutschen Bundestages,\r\n\r\nmit den Gesetzentwürfen zum sogenannten Sicherheitspaket schlagen die Fraktionen der Ampel-Koalition die Verschärfungen des Asylrechts und die Einführung massenhafter biometrischer Überwachung vor. Trotz schwerwiegender offener Fragen bezüglich der Effektivität der vorgeschlagenen Maßnahmen und ihrer Konformität mit EU-Recht und dem Grundgesetz soll dieses Paket in Rekordzeit verabschiedet und umgesetzt werden.\r\n\r\nDas Sicherheitspaket sieht Maßnahmen vor, die in keinem angemessenen Verhältnis zu dem vermuteten Gewinn an Sicherheit stehen. In einigen Bereichen besitzen die Regelungen reinen Symbolcharakter und werden die Sicherheitsbehörden im Vollzug mit neuen Aufgaben belasten, die sie davon abhalten, ihren eigentlichen Tätigkeiten nachzugehen.\r\n\r\nGleichzeitig stützen die vorgeschlagenen Verschärfungen des Asylrechts autoritäre Narrative, die die Rechte „Anderer“, in diesem Fall asylsuchender Menschen, infrage stellen, und tragen damit zur Spaltung der Gesellschaft bei. Asylsuchenden, für deren Asylantrag ein anderer Mitgliedstaat zuständig ist, sollen zukünftig nach zwei Wochen alle Sozialleistungen gestrichen werden. Das untergräbt die Menschenwürde und ist inakzeptabel und völkerrechtswidrig. Die geplante Ausweitung anlassloser Kontrollen durch die Polizei ist ein Einfallstor für Racial Profiling.\r\n\r\nWir fordern Sie dazu auf, sich dem kopflosen Aktionismus, der mit dem Sicherheitspaket einhergeht, entgegenzustellen, Grund- und Menschenrechte zu schützen und für die Rechtsstaatlichkeit einzustehen.\r\n\r\nEingeführt werden soll auch die Befugnis zum biometrischen Abgleich des gesamten Internets mit Bildern und Stimmen von Tatverdächtigen oder gesuchten Personen. Bundeskriminalamt und Bundespolizei sollen diese Befugnis nicht nur zur Bekämpfung von Terrorismus, sondern auch als neues Standardinstrument erhalten, das Bundesamt für Migration und Flüchtlinge sogar ohne Anfangsverdacht einer Straftat, nur um die Identität von Personen festzustellen.\r\n\r\nEine solche Maßnahme ist technisch jedoch nur möglich, wenn riesige, unterschiedslose Gesichtsdatenbanken angelegt werden. Solche Gesichtsdatenbanken sind nach Artikel 5 der KI-Verordnung eine verbotene Praxis, da sie Massenüberwachung ermöglichen und zu schweren Verstößen gegen die Grundrechte, einschließlich des Rechts auf Privatsphäre, führen können. Es gibt zwar Ausnahmen im Rahmen der nationalen Sicherheit, aber ein Verbot des Einsatzes von biometrischen Fernidentifizierungssystemen ist laut KI-Verordnung ausdrücklich möglich und kann von den Mitgliedsstaaten rechtlich eingeführt werden.\r\n\r\nDer Schutz von Menschenrechten darf nicht unter Vorbehalt stehen. Insbesondere im Kontext erstarkender rechtsextremer Parteien müssen die demokratischen Kräfte gemeinsam die Möglichkeit des institutionellen Machtmissbrauchs minimieren.\r\n\r\nWir fordern Sie daher auf, sich gegen jede Form der biometrischen Fernidentifizierung in Deutschland einzusetzen.\r\n\r\nIm Koalitionsvertrag verpflichten sich die Regierungsparteien gleich an zwei Stellen, biometrische Überwachung in Deutschland zu verhindern: Die „[b]iometrische Erkennung im öffentlichen Raum“ wie auch der „Einsatz von biometrischer Erfassung zu Überwachungszwecken“ werden explizit abgelehnt.\r\n\r\nEs ist jetzt an der Zeit, ein Verbot biometrischer Überwachung konsequent zu verfolgen und Einschnitte in Grundrechte wie die ausufernden Ideen zur automatisierten Datenanalyse, die anlasslose IP-Adressdatenspeicherung, Videoüberwachung und Gesichtserkennung im öffentlichen Raum, Onlinedurchsuchung für den Verfassungsschutz und die allgemeine und anlasslose Vorratsdatenspeicherung ein für alle Mal abzulehnen.\r\n\r\nWir fordern Sie auf, sich für den Schutz aller Menschen und das Recht auf ein Leben frei von Massenüberwachung und Kontrolle einzusetzen.\r\n\r\nMit freundlichen Grüßen\r\n\r\nAlphabetisch sortiert:\r\n\r\n    AlgorithmWatch\r\n    Amnesty International\r\n    Chaos Computer Club\r\n    D64 – Zentrum für digitalen Fortschritt\r\n    Die Datenpunks\r\n    Digitale Freiheit e.V.\r\n    Digitale Gesellschaft e.V.\r\n    Forum InformatikerInnen für Frieden und gesellschaftliche Verantwortung (FIfF e.V.)\r\n    Gesichtserkennung Stoppen\r\n    Humanistische Union e.V.\r\n    Innovationsverbund Öffentliche Gesundheit e.V.\r\n    Komitee für Grundrechte und Demokratie\r\n    #LeaveNoOneBehind\r\n    Open Knowledge Foundation Deutschland e.V.\r\n    netzbegrünung – Verein für grüne Netzkultur e.V.\r\n    Sea-Watch e.V.\r\n    Seebrücke\r\n    SUPERRR Lab\r\n    Topio e.V.\r\n    Wikimedia Deutschland e. V.\r\n"},"recipientGroups":[{"recipients":{"parliament":[{"code":"RG_BT_MEMBERS_OF_PARLIAMENT","de":"Mitglieder des Bundestages","en":"Members of parliament"}],"federalGovernment":[]},"sendingDate":"2024-09-23"}]}]},"contracts":{"contractsPresent":false,"contractsCount":0,"contracts":[]},"codeOfConduct":{"ownCodeOfConduct":false}}