Bundesminister des Inneren Alexander Dobrindt

Den Big Brother Award in der Kategorie Behörden und Verwaltung erhält dieses Jahr der
Bundesminister des Inneren Alexander Dobrindt
für sein sogenanntes Sicherheitspaket.
Die Herausforderungen, vor denen die Welt und unser Land derzeit stehen, könnten kaum größer sein. Die Zukunft des Planeten und der internationalen Ordnung ist ungewiss. Auch die soziale Marktwirtschaft ist ins Wanken geraten. Gründe genug für viele Menschen, sich unsicher zu fühlen. Was tut der Bundesinnenminister? Er beschwört Feindbilder. Versucht den Eindruck zu erwecken, durch den Kampf gegen Kriminalität Sicherheit zu schaffen. Die CSU beherrscht dieses Populismus-Spiel perfekt. Wie schafft man vermeintliche Sicherheit, demonstriert vermeintliche Stärke? Durch Kontrolle und Überwachung. Von uns allen.
Dabei ist die Union den Heilsversprechen der autoritärsten Silicon-Valley-Ideologen auf den Leim gegangen.
Woraus besteht Dobrindts Sicherheitspaket? Die toxischen Zutaten: Gesichtersuchmaschinen und der Ersatz von Polizeiarbeit durch die gruseligste Software der Welt – Gotham von Palantir a.k.a. „Bundes-VeRA“. Eine Realität gewordene Dystopie.
Was Gesichtersuchmaschinen technisch ermöglichen, ist der feuchte Traum jedes Stalkers. Ein heimlich auf der Straße aufgenommenes Foto einer Person hochladen, binnen Sekunden einen automatischen biometrischen Abgleich durchführen – schon findet man alle Onlinetreffer, in denen dieses Gesicht vorkommt, gleich, ob es sich um ein jahrealtes Party-Foto in den sozialen Medien oder um die Aufnahme einer Demonstration handelt. Biometrische Gesichtersuchmaschinen ermöglichen es Jedem und Jeder, fremde Menschen aus der Ferne zu identifizieren. Sehr praktisch, zum Beispiel um Frauen oder Kindern nachzustellen.
Gesichtersuchmaschinen sind nicht nur extrem gefährlich, sondern auch illegal. Sie vermessen biometrisch sämtliche Bilder von Gesichtern, die im Internet verfügbar sind, und verstoßen daher gegen Art. 9 der Datenschutz-Grundverordnung, der unsere sensibelsten Daten schützt. Biometrisch vermessen werden nicht nur Verdächtigte oder gesuchte Straftäter – sondern wir alle. Die beiden größten Anbieter sind Clearview AI und PimEyes. Clearview AI wurde bereits mehrfach von europäischen Datenschutzaufsichtsbehörden abgestraft.1 Gegen PimEyes läuft derzeit ein Bußgeldverfahren vor dem Landesbeauftragen für Datenschutz und Informationsfreiheit Baden-Württemberg.2
Beide Unternehmen sind flüchtig: PimEyes zog von Polen zunächst auf die Seychellen und von dort nach Georgien, um den Behörden zu entgehen. Auch die Vollstreckung der Bußgelder gegen Clearview AI mit Sitz in New York gelingt bislang nicht. Alexander Dobrindt will nun mit diesen flüchtigen Rechtsbrechern gemeinsame Sache machen. Denn das Sicherheitspaket sieht eine Befugnis der Behörden zur Nutzung der illegalen Gesichtersuchmaschinen vor. Mit diesen Werkzeugen soll nicht nur nach Verdächtigen, sondern auch nach Zeug:innen gesucht werden können. Größer könnte der Widerspruch in einem Rechtsstaat nicht sein. Dobrindt legitimiert die illegalen Schnüffelmaschinen.
Mit § 15a Asylgesetz wurde eine solche Erlaubnis bereits im letzten Jahr für das BAMF geschaffen – zur Identifikation von Asylantragsteller:innen. Wie oft werden repressive Maßnahmen schrittweise eingeführt: Als erstes gegen Migrant:innen, als nächstes zur Bekämpfung schwerer Kriminalität – im nächsten Schritt folgt häufig der Einsatz gegen breite Bevölkerungsgruppen. Bald könnten diese Methoden auch zur Aufklärung und Verhinderung von geringfügigen Verstößen zum Beispiel in Betäubungsmittelsachen, Steuerhinterziehung oder falschen Angaben gegenüber Sozialbehörden eingesetzt werden.
Der zweite Teil des Sicherheitspakets bringt Deutschland noch einen Schritt näher an die Dystopie totaler Überwachung. Bei der Software „Gotham“ von Palantir, die das BKA künftig unter der Bezeichnung „BundesVeRA“ nutzen soll, handelt es sich um eine Mischung aus Minority Report und dem chinesischen Social Scoring System. Ihr erinnert euch, in Minority Report konnten Morde vorhergesehen werden.
Mit dieser als KI vermarkteten Software zur Datenanalyse sollen Verbrechen aufgeklärt und sogar vorhergesagt werden. Dabei wird ausgerechnet, wer „wahrscheinlich“ eine bestimmte Straftat begeht.
Alles, was in den Datenbeständen des Bundeskriminalamts gespeichert ist, will Dobrindt in diese vermeintlich intelligenten Systeme einspeisen: Daten aus Verbunddateien, polizeilichen Ermittlungsakten, biometrische Daten, Vernehmungen von Verdächtigen und Zeug:innen, Informationen aus Terrorismus- und Rechtsextremismus-Datenbanken.3 In diesen Datensätzen sollen ominöse „Muster“ erkannt werden. Wissenschaftliche Belege dafür, dass solche Analysen funktionieren, gibt es nicht. In den 2010er Jahren wurden in einigen Bundesländern zum Beispiel Softwares zur Vorhersage von Wohnungseinbrüchen angeschafft – und wieder abgeschafft, nachdem sie keinen messbaren Erfolg brachten. Sie hatten nur eine Menge Lizenzkosten verschlungen.4
Also, was kann schon schiefgehen?
Du wohnst im falschen Viertel oder hast die falschen Kontakte. Zum Beispiel, weil du als Sozialarbeiterin viel mit Straftätern zu tun hast. So gerätst du schnell ins Fadenkreuz. Statistische Berechnungen von Wahrscheinlichkeiten, wer Täter einer Straftat sein könnte, sind die reinsten Diskriminierungsmaschinen. Am häufigsten kontrolliert werden die schwächsten Mitglieder der Gesellschaft: Wenn du arm bist, wenn deine Haut dunkel ist, wenn dein Vorname nicht deutsch klingt, dann ist wahrscheinlicher, dass du verdächtigt wirst. In Polizeidatenbanken sind jede Menge Angaben mit Diskriminierungspotenzial enthalten, etwa der „Phänotyp“ oder die „Volkszugehörigkeit“ einer Person.
Wir alle können falsch verdächtigt werden. Der wahre Täter? Gerät leicht aus dem Fokus.
In Frankreich und in den Niederlanden wurden bereits Systeme dieser Art eingeführt, die Hinweise geben sollten, welche Personen wahrscheinlich Täter von Sozialbetrug sein könnten. Es stellte sich heraus, dass die Schwächsten am häufigsten falsch verdächtigt wurden: Alleinerziehende, Menschen mit körperlichen Beeinträchtigungen oder mit Migrationsgeschichte.5
Die Liste der Fälle, in denen dem BKA solche Analysen ermöglicht werden sollen, ist lang. Sie umfasst bei weitem nicht nur Mord, Totschlag oder schwere terroristische Angriffe, sondern reicht von Sportwettenbetrug über gewerbsmäßige Hehlerei bis zu bestimmten Straftaten nach dem Betäubungsmittelgesetz.
Als das Bundesverfassungsgericht 2023 eine ähnliche Bestimmung im Hessischen Landesrecht für verfassungswidrig erklärt hat, war gerade dies einer der Knackpunkte: Die Norm enthielt unklare Formulierungen und konnte bereits bei Straftaten zur Anwendung kommen, die unterhalb der verfassungsrechtlich gebotenen Eingriffsschwelle liegen. Außerdem hat das Bundesverfassungsgericht entschieden, dass in keinem Fall Daten von Zeug:innen verwendet werden dürfen. Doch die Entwürfe aus dem Bundesinnenministerium halten sich nicht an diese Vorgaben. Besonders pikant: nach dem Referentenentwurf soll der Einsatz auch ermöglicht werden, um Straftaten im Voraus zu verhindern.6
Nach dem Gesetzgebungsentwurf soll das Bundeskriminalamt zur Durchführung dieser Analysen auch mit „Dritten, auch außerhalb der Europäischen Union“ zusammenarbeiten. Alexander Dobrindt macht keinen Hehl daraus, dass er Software von Palantir einführen möchte. Peter Thiel und Alexander Karp haben ihr Unternehmen nach den sehenden Steinen aus „Herr der Ringe“ benannt. Wer in Tolkiens Trilogie einen solchen Stein besitzt, kann über weite Entfernungen kommunizieren und sehen, was an fernen Orten geschieht und so die eigene Macht absichern – ein IT-Unternehmen als Allmachtsphantasie.
Man könnte meinen, die Regentschaft des unberechenbaren Donald Trump sei ein offensichtlicher Grund, die Souveränität unserer Sicherheits- und Polizeibehörden zu stärken, mit europäischen IT-Systemen zu arbeiten und so die Handlungsfähigkeit aufrechtzuerhalten – auch im Fall geopolitischer Umbrüche. Doch Dobrindt will das Bundeskriminalamt abhängig von der Gunst dieser beiden Oligarchen machen. Unternehmensgründer Peter Thiel zählt zur extremen Rechten der USA7. Er ist Trump-Anhänger und verfolgt offen anti-demokratische Ziele. Peter Thiel bekennt öffentlich, dass aus seiner Sicht „Demokratie und Freiheit nicht vereinbar sind“8. Die Software ist gemacht für einen autoritären Staat.
Mit der Wahl von Palantir-Software geben wir diesen Menschen ein Stück Kontrolle über die bundesdeutsche Polizeiarbeit. Und nebenbei zahlen wir ihnen Millionen aus Steuergeldern.9 Dies könnte die neueste Pleite für den Staatshaushalt werden, die die CSU verursacht.
Dobrindt setzt Tech-Solutionismus – also die scheinbare Lösung gesellschaftlicher Probleme durch Technologie – an die Stelle echter politischer Kompetenz und Führungsstärke.
Insofern – herzlichen Glückwunsch, Alexander Dobrindt, zum Big Brother Award 2025.
Laudator.in

1 EDPB: The French SA fines Clearview AI EUR 20 million, 20.10.2022; AP: „AP legt Clearview boete op voor illegale dataverzameling voor gezichtsherkenning“, 03.09.2024; Natasha Lomas: „Italy fines Clearview AI €20M and orders data deleted“, techcrunch.
2 Louzri: „PimEyes – Verlust der Anonymität“, Datenschutz-Notizen, 10.01.2023.
3 Kurz/Ullrich; „Tür zu für Palantir und Co.“, Netzpolitik.org, 07.04.2025.
4 Peteranderl: „Automatisierte Ungerechtigkeit: Predictive Policing in Deutschland“, CILIP, 20.08.2025.
5 „France: Discriminatory algorithm used by the social security agency must be stopped“, Amnesty International, 16.10.2024.
6 Vgl. Referentenentwurf des Bundesinnenministeriums, § 10 c Abs. 1 BKAG-E. Veröffentlicht von Netzpolitik am 23.07.2025.
7 Gumbel: „Peter Thiel’s midterm bet: the billionaire seeking to disrupt America’s democracy“, The Guardian, 15.10.2022.
8 Joswig: „Peter Thiel is watching you“, taz, 31.03.2025.
9 Hell/Kartheuser: „NRW-Polizei: Knapp 40 Millionen Euro für umstrittene Palantir-Software“, WDR, 25.09.2022.