Das Bundesministerium des Innern arbeitet gegenwärtig an einem neuen Sicherheitspaket, das die automatisierte Abgleichung von polizeilichen Fahndungsbildern und Überwachungsaufnahmen mit Daten aus dem Internet ermöglichen soll. In mehreren Bundesländern wird zudem die Einführung der biometrischen Gesichtserkennung zur Echtzeitüberwachung öffentlicher und allgemein zugänglicher Bereiche in Betracht gezogen. Allerdings warnt das Deutsche Institut für Menschenrechte vor den erheblichen menschenrechtlichen Risiken, die mit einer massenhaften biometrischen Überwachung verbunden sind.
„Der Einsatz biometrischer Gesichtserkennung stellt einen gravierenden Eingriff in das Recht auf informationelle Selbstbestimmung sowie Privatsphäre dar. Unschuldige Personen könnten aufgrund falscher Treffer fälschlicherweise ins Visier polizeilicher Maßnahmen geraten. Wer Künstliche Intelligenz im Polizeibereich einsetzen möchte, muss von Anfang an die Grundrechte berücksichtigen, um zu verhindern, dass Technologien eine Bedrohung für unsere Freiheit darstellen. Eine umfassende öffentliche Diskussion über die möglichen Auswirkungen der biometrischen Fernidentifizierung ist unerlässlich“, hebt Beate Rudolf, Direktorin des Deutschen Instituts für Menschenrechte hervor.
Um eine fundierte Auseinandersetzung über den rechtssicheren Einsatz von KI-Technologien zu gewährleisten, empfiehlt das Institut in einer heute veröffentlichten Studie die Gründung einer Enquetekommission zum Thema biometrische Fernidentifizierung durch den Deutschen Bundestag. In dieser Kommission sollten Bundestagsabgeordnete gemeinsam mit Vertretern aus Polizei, Datenschutz- und Antidiskriminierungsbereichen sowie Wissenschaft und Zivilgesellschaft umfassend über Chancen und Risiken dieser Technologie diskutieren. Für eine informierte Meinungsbildung ist auch Transparenz bezüglich der polizeilichen Planungen sowie der verfügbaren Technologien erforderlich.
„Sollten Gesetzgeber auf Bundes- oder Landesebene neue Befugnisse zur Anwendung der Gesichtserkennung durch Polizei einführen wollen, sollten diese zunächst zeitlich befristet sein und evaluiert werden“, empfiehlt Steven Kleemann vom Institut für Digitalisierung und Künstliche Intelligenz sowie Co-Autor der Studie weiter. „Die Nutzung sollte unter Richtervorbehalt stehen; außerdem sollte das Instrument zur Folgenabschätzung hinsichtlich Grundrechten ernst genommen werden – dies wird durch die EU-Verordnung über Künstliche Intelligenz gefordert“, ergänzt Kleemann.
Das Institut spricht sich zudem für einen transparenten Umgang mit Hochrisiko-KI-Systemen aus und fordert den Gesetzgeber auf, über die Vorgaben der europäischen KI-Verordnung hinauszugehen. Beispielsweise sollten KI-Systeme im Bereich Grenzkontrollen sowie Asyl- und Migrationsfragen bei der Polizei in einer öffentlich einsehbaren Datenbank registriert werden.
WEITERE INFORMATIONEN
Töpfer, Eric | Kleemann, Steven (2025): Polizeiliche Gesichtserkennung: Menschenrechtliche Herausforderungen einer Risikotechnologie. Berlin: Deutsches Institut für Menschenrechte https://ots.de/x097PB
Pressekontakt:
Ute Sonnenberg,
2. Pressesprecherin
Telefon: +49 30 259 359 453
E-Mail: sonnenberg@institut-fuer-menschenrechte.de
www.institut-fuer-menschenrechte.de
Bluesky | LinkedIn | Mastodon | YouTube