Bundesregierung will KI-Einsatz der Polizei

Kommt Palantir jetzt auch auf Bundesebene?

Mit neuen Gesetzentwürfen will die schwarz-rote Bundesregierung den Sicherheitsbehörden weitreichende neue Befugnisse einräumen – darunter eine automatisierte Datenanalyse über polizeiliche Datenbanken hinweg. Morgen soll das Kabinett abstimmen. Die finale Fassung ist derzeit noch nicht öffentlich. Unklar ist, ob der Gesetzentwurf den Sicherheitsbehörden Raum dafür lässt, die umstrittene Software des US-Konzerns Palantir zu beschaffen.

Was plant die Bundesregierung?

Mit einem Gesetzespaket zur „Stärkung digitaler Ermittlungsbefugnisse“ sollen Strafverfolgungsbehörden, das Bundeskriminalamt (BKA) und Bundespolizei (BPol) unter bestimmten Voraussetzungen die Befugnis erhalten, „Daten, auf die sie zur Erfüllung ihrer Aufgaben zugreifen darf, (...) einer automatisierten Anwendung zur Datenverarbeitung zusammenführen und darüber hinaus zum Zwecke der Analyse weiterverarbeiten“.

Auf den ersten Blick klingt das nach einer Selbstverständlichkeit. Wenn die Polizei über digitale Informationen verfügt, die in mehreren Datenbanken hinterlegt sind, sollte sie auch dazu in der Lage sein, sie mit einer Software zu durchsuchen und für die Ermittlungsarbeit visuell aufzuarbeiten. Doch die Details haben es in sich. Die massenhafte Auswertung von Daten verletze unter anderem das Recht auf informationelle Selbstbestimmung (Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG) und das Fernmeldegeheimnis (Art. 10 Abs. 1 GG), argumentieren die Gesellschaft für Freiheitsrechte, der Chaos Computer Club, Amnesty International Deutschland und weitere zivilgesellschaftliche Organisationen.

 Im Detail sind folgende Aspekte problematisch:

  • Der Gesetzentwurf regelt nur vage, wie die Datenanalyse im Detail ablaufen darf und soll. Das „Wie“ der Durchführung überlassen die Vorschriften in weiten Teilen der Exekutive. Es ist fragwürdig, ob es dem rechtsstaatlichen Grundsatz entspricht, dass der Gesetzgeber die wesentlichen Entscheidungen darüber, wie ein Eingriff in Grundrechte stattfindet, selbst treffen muss (sog. Wesentlichkeitsgrundsatz). Die vorgebliche Technologieoffenheit des Entwurfs könnte sich mangels klarer Leitplanken für die Polizeibehörden als zu unbestimmt und damit als Verstoß gegen das Rechtstaatsprinzip herausstellen.

  • Ohne klare Vorgaben des Gesetzgebers kann die Exekutive insbesondere darüber entscheiden, ob sie die technischen Lösungen zur Datenanalyse selbst entwickelt oder an private IT-Dienstleister auslagert. Ohne parlamentarische Rückkopplung kann es dazu kommen, dass das BKA oder die Bundespolizei die umstrittene Software der US-Firma Palantir oder vergleichbare Lösungen einkaufen und nutzen. Statt die bestehenden Datenbanken der Polizeibehörden von Bund und Ländern besser zu verknüpfen, und nachweislich datenschutzkonform durchsuchbar zu machen, findet eine Verlagerung auf private Firmen statt. Denn die Software von Palantir ist dazu in der Lage, auch unstrukturierte Datenbestände zu scannen, in die Analyse einzubeziehen und allein aufgrund von (vermuteten) Kausalitäten zur konkreten Tat weiterzuverarbeiten. Gescannte Dokumente, Datenbankeinträge und Informationen in staatlichen Registern liegen bei den Polizeibehörden derzeit verstreut auf ganz unterschiedlichen Servern - da kommt die Palantir-Lösung wie gerufen. Sie verdeckt aber das eigentliche Vollzugsdefizit (s. dazu unten). Ein riskanter „Quick Fix“ und das Gegenteil von digitaler Souveränität.

  • Die Verarbeitung durch Palantir soll sich nicht nur auf Personen erstrecken, die einer Straftat verdächtig sind oder von denen eine konkrete Gefahr ausgeht, sondern etwa auch auf Zeugen oder gar Opfer einer Straftat. Es kann sein, dass das bloße Auftauchen in der Datenbank ausreicht, damit Palantir die Person in einem anderen Kontext als mögliches Fahndungsziel einstuft. Aus der Sicht von Menschenrechtsorganisationen kann dies zu „einschüchternden Auswirkungen auf die Grundrechtsausübung“ führen. Opfer und marginalisierte Gruppen verzichten dann womöglich lieber auf einen Kontakt zur Polizei, aus Angst, dass die Informationen gegen sie verwendet werden.

  • Eine direkte Anbindung an staatliche Register und Internetdienste (z.B. Suchmaschinen) schließen die Entwürfe zwar aus. Sie öffnen aber eine Hintertür, indem sie regeln, dass gezielte „auch automatisierte Abfragen in sonstigen staatlichen Registern und im Einzelfall erhobene Datensätze aus Internetquellen (...) in die Weiterverarbeitung einbezogen werden“ dürfen.

  • Was die Polizei mit den Daten genau machen darf, regelt das Gesetz sehr weitreichend. So sollen, „datei- und informationssystemübergreifend Beziehungen oder Zusammenhänge zwischen Verfahren, Vorgängen, Personen, Personengruppierungen, Institutionen, Organisationen, Objekten und Sachen identifiziert und hergestellt werden, sowohl qualitativ als auch quantitativ klassifiziert, strukturell analysiert und visualisiert werden“. Wenn man diese Passage weit auslegt, wäre ein zentraler Grundsatz des europäischen Datenschutzes bedroht: Der Grundsatz der Zweckbindung verpflichtet Behörden dazu, einmal gesammelte Daten grundsätzlich zu keinem anderen Zweck weiterzuverwenden. Wenn die Polizei datenbankübergreifende Analysen erstellen und für eine riesige Bandbreite an Zwecken durchführen darf, landen im schlimmsten Fall unbeteiligte Personen im Visier der staatlichen Überwachung und von Strafverfolgungsmaßnahmen. Menschenrechtsorganisationen sprechen von der Gefahr einer „Super-Datenbank“, die zu einem „fundamentalen Eingriff in Grundrechte“ sowie einer „Gefahr für rechtsstaatliche Grundsätze wie Transparenz, Diskriminierungsfreiheit und effektiven Rechtsschutz“ führen kann. 

  • Der Gesetzentwurf will es den Polizeibehörden zudem erlauben, personenbezoge Daten aus ihren Beständen zu nutzen, um KI-Systeme zu trainieren. Dafür dürfen sie die  Daten auch an private Dienstleister übermitteln - auch im Ausland. Das Gesetz sieht zwar vor, dass Dritte die Daten geheim halten müssen und nicht weitergeben dürfen. Doch fehlen insbesondere technische Schutzmechanismen, die es verhindern, dass polizeiliche Daten bei ausländischen Sicherheitsbehörden oder im allgemeinen Datenpool von KI-Anbietern landen können. Auch die Vorschriften zur Anonymisierung der Daten und die weitreichenden Ausnahmen könnten hinter grundrechtlichen Standards zurückbleiben. Es entsteht die Gefahr, dass ein Datenleck zu weitreichenden Folgen für die Privatsphäre der betroffenen Personen führt.

Im Ergebnis ermöglichen es die neuen Ermittlungsbefugnisse, dass polizeiliche Daten in großem Umfang ausgewertet und weiterverarbeitet werden. Es besteht die Gefahr, dass sie sich in Kombination mit anderen Befugnissen – etwa der Vorratsdatenspeicherung (wir berichteten) – zu umfassenden Persönlichkeitsprofilen einzelner Bürger:innen verdichten lassen. Der Deutsche Anwaltsverein befürchtet, dass der „herkömmlich mit Akten- und weiteren Verfahrensrechten und der Kontrolle durch Staatsanwaltschaft und Gericht hergestellte Ausgleich zwischen polizeilichen Ermittlungseingriffen und den Grundrechten Betroffener (...) gänzlich aus den Fugen“ gerät.

Risikofaktor Palantir

Innenminister Alexander Dobrindt konnte sich - trotz erheblicher Zweifel vom Koalitionspartner SPD, aber auch aus den Sicherheitsbehörden selbst - noch nicht dazu durchringen, einen Einsatz von Palantir-Technologie auszuschließen. Die bisherigen Gesetzentwürfe sehen jedenfalls keine Vorschriften vor, die außereuropäische Anbieter und bestimmte Analyseformen aus dem Vergabeprozess verbannen. Dadurch bliebe der Weg offen, dass das BKA und die Bundespolizei auf der Grundlage des Gesetzes auch Palantir-Software beschaffen. In Baden-Württemberg hatte das Innenministerium bereits einen Rahmenvertrag abgeschlossen, um Palantir anzuschaffen, bevor überhaupt die rechtliche Grundlage vom Landtag verabschiedet wurde.

Was ist Palantir?

Peter Thiel und Alex Karp haben das US-Unternehmens Palantir Technologies 2003 gegründet. Die Angebote des Unternehmen sind vielfältig: die Polizei nutzt die Software als Überwachungs­tool, dem Militär liefert sie Informationen über mögliche Ziele und private Unternehmen greifen zur Prozess­optimierungen und als Entscheidungs­hilfe auf Produkte von Palantir zurück.

Laut Angaben der Gründer war die Idee, im Kampf gegen Terrorismus auch die Möglichkeiten einer Big-Data-Analyse zu nutzen. Schlagzeilen machte Palantir in jüngster Zeit aber als Hilfsmittel für die US-amerikanische Einwanderungspolizei ICE bei der Suche und Abschiebung von Migrant:innen. Das Unternehmen stellt seine Software außerdem dem israelischen und ukrainischen Militär zur Verfügung. Kritiker:innen ordnen die Gründer Karp und Thiel einer techno-faschistischen Bewegung zu, die aus dem Silicon Valley heraus enormen Einfluss auf politische Entscheidungen und die öffentliche Meinung nimmt – sowohl in den USA als auch weltweit. Diese Bewegung sieht demokratische Kontrollen als Hindernis für technologische Entwicklung und effizientes Staatshandeln.

Peter Thiel gilt als rechtslibertär und ist einer der prominenten Unterstützer Trumps aus dem Silicon Valley. Eine seiner bekanntesten Aussagen ist, dass Freiheit und Demokratie nicht miteinander vereinbar seien. Alex Karp hat Anfang 2025 ein Manifest veröffentlicht, das sich für eine moralische Überlegenheit und militärische Vorherrschaft der USA und des Westens ausspricht. Wie die Schweizer Zeitung ‚Republik‘ berichtete, habe Karp in einem Gespräch mit Investor:innen gesagt, „Palantir ist hier, um zu stören. (…) Und, wenn nötig, um unsere Feinde zu erschrecken und gelegentlich auch, um sie zu töten.» Gegen das unabhängige Medium führt der Tech-Konzern derzeit auch ein Gerichtsverfahren wegen einer Gegendarstellung zu einer Recherche über Verhandlungen des Unternehmens mit dem eidgenössischen Militär. Die Journalist:innen um Adrienne Fichter nehmen die juristischen Schritte als Versuch der Einschüchterung und Zermürbung wahr.

Digitale Grundrechte brauchen eine starke Stimme – deine Unterstützung macht sie hörbar.

Als gemeinnützige Organisation finanzieren wir uns durch Spenden. Hilf uns, Machtmissbrauch einzudämmen und digitale Souveränität zu stärken.

Wie trägt Palantir (nicht) zu digitaler Souveränität bei?

Allein die demokratiefeindliche Haltung der Gründer weckt erhebliche Zweifel daran, die Palantir-Software in deutschen Behörden einzusetzen. Nur scheint das der deutschen Regierung nicht Grund genug zu sein. Eine außereuropäische Software im Sicherheitsbereich zu nutzen, widerspricht auch dem politischen Vorhaben in Deutschland und der EU, Staat und Wirtschaft verstärkt digital souverän aufzustellen.

Erst im November fand der Europäische Gipfel für digitale Souveränität statt. Sowohl Bundeskanzler Friedrich Merz als auch der französische Präsident Emmanuel Macron versprachen Maßnahmen, um die Abhängigkeit von US-Tech-Konzernen zu reduzieren. Mit ihrem Sicherheitspaket schlägt die Regierung nun die gegenteilige Richtung ein, denn es erlaubt die „Zusammenarbeit mit Dritten, auch außerhalb der EU“.

Um ungewollte Abhängigkeiten oder Kostenfallen zu vermeiden, raten Datenschutzaufsichtsbehörden zu offenen Systemen, mit denen eine Vernetzung unterschiedlicher Systeme oder ein Wechsel möglich ist. Palantir-Systeme sind geschlossen und proprietär und nicht mit anderen Anbietern kompatibel. Erschwerend kommt hinzu, dass das US-amerikanische Unternehmen dem US Cloud Act unterliegt. Die Executive Order 12333 gibt der US-Regierung darüber hinaus weitreichende Befugnisse, auf ausländische IT-Infrastrukturen – auch über Sicherheitslücken oder Hintertüren - zuzugreifen. Damit kann die US-Regierung im Zweifel alle sensiblen Daten einsehen, die das Unternehmen gesammelt hat – unabhängig davon, aus welchem Land diese Daten stammen.

Zwar beteuert das Unternehmen selbst und Polizeibehörden der Länder, die Palantir bereits einsetzen, dass die Software in abgeschotteten Rechenzentren läuft und keinerlei Datenübertragungen in die USA stattfindet. Jedoch zeigte eine ARD-Dokumentation, dass Palantir-Mitarbeiter im LKA Hessen das System aktiv pflegen und dafür auch aus dem Ausland eingeflogen kommen.

Wo kommt Palantir-Software in Deutschland bereits zum Einsatz?

In Deutschland nutzen zurzeit drei Bundesländer die Software Gotham: Hessen, Bayern und NRW. Der baden-württembergische Landtag hat mit dem im November 2025 beschlossenen Polizeigesetz die Grundlage für einen Palantir-Einsatz geschaffen. Die Landespolizei kann die Software ab dem zweiten Quartal 2026 einsetzen. Das Innenministerium hatte den passenden Rahmenvertrag bereits abgeschlossen, bevor das Parlament überhaupt eine Rechtsgrundlage dafür geschaffen hatte.

In Hessen läuft die Software bereits seit 2017 unter dem Namen „HessenDATA“. In NRW heißt das System „DAR“ (System zur Datenbankübergreifenden Analyse und Recherche). Es ist seit 2022 flächendeckend im Einsatz. Das Bayerische Landeskriminalamt nutzt Gotham seit August 2024 unter dem Namen VeRa, kurz für „Verfahrensübergreifende Recherche- und Analyseplattform“. Gegenüber BR24 gaben bayerische Sicherheitsbehörden an, die Software helfe vor allem durch die schnelle Datenverarbeitung. Was zuvor Stunden oder gar Tage dauerte, erledige Gotham in wenigen Minuten.

Gotham soll nach Angaben der Innenministerien in erster Linie nur zur Verhinderung von schweren Straftaten wie Terroranschlägen zum Einsatz kommen. Wie Recherchen von NDR, WDR und der Süddeutschen Zeitung zeigen, wurde VeRa zwischen September 2024 und Mai 2025 fast hundertmal eingesetzt. Mehr als zwanzigmal nutzte die bayerische Polizei das System für alltägliche Delikte. "Das kann auch der bandenmäßige Fahrraddiebstahl sein oder Geldautomatensprenger", sagte der Münchner Politiker Benjamin Adjei (Die Grünen) der ARD.  Er hatte die Liste der Palantir-Einsätze als Antwort auf eine kleine Anfrage im Landtag erhalten. Circa 39 Millionen Personendatensätze wurden dafür von der bayerischen Polizei durchkämmt, teilten Datenschutzaufsichtsbehörden des Bundes und der Länder mit. In Hessen wird die Software bis zu 15.000 mal im Jahr genutzt. Für NRW gibt es bislang keine Zahlen zu den Einsätzen.

Laut dem Bayerischen Innenministerium laufe VeRa ausschließlich auf eigenen Servern im Landeskriminalamt. Ein externer Zugriff sei ausgeschlossen. Auch das Fraunhofer-Institut für Sichere Informationstechnologie fand keine versteckten Zugänge, über die Daten abfließen können. Das erstellte Gutachten ist allerdings wegen Angaben zur IT-Infrastruktur der Polizei und Geschäftsgeheimnissen von Palantir nicht einsehbar, wie unter anderem die dpa berichtete. Die Anfrage im Landtag ergab, dass „sieben externe Mitarbeiterinnen und Mitarbeiter über eine Zugangskennung zum System“ verfügen.

Palantir-Beschaffung überdeckt Vollzugsdefizit im Föderalismus

Ein zentrales Problem der deutschen Polizeibehörden ist, dass sie ihre Daten oftmals unstrukturiert und in unterschiedlichen Systemen vorhalten. Gerade dem BKA fällt es so in seiner Funktion als Zentralstelle schwer, die Datenbestände der Länder automatisiert zu analysieren und für eigene Aufgaben aufzubereiten. Wenn künftig die umstrittene Software von Palantir zum Einsatz kommen sollte, überdeckt dies, dass die föderal strukturierten Polizeibehörden ihrer Aufgabe seit Jahren nicht nachkommen.

Statt den Datenbestand zu systematisieren, maschinenlesbar zu gestalten und anhand datenschutzrechtlicher Vorgaben (z.B. Zweckbindung und Datensparsamkeit) für bestimmte Ermittlungsschritte nutzbar zu machen, droht die Palantir-Datenanalyseplattform den Status Quo weiter zu zementieren.  „Der Griff zur bürgerrechtlich höchst fragwürdigen Software von Palantir ist also Ausdruck eines Vollzugsdefizits auf Landesebene“, fasst ein heise.de Artikel das Problem treffend zusammen.

So beeindruckend die semantische Datenanalyse auch in anderen Kontexten funktioniert: Deutsche Polizeibehörden bekämen so ein Instrument, das ihre eigentlichen Rückstände überdeckt, und sie in eine Abhängigkeit zu dem Unternehmen eines Tech-Milliardärs mit anti-demokratischen Einstellungen führt.

Haben sich Polizeibehörden erst einmal an Palantir gewöhnt, wird ein späterer Ausstieg schwieriger: Ermittlungswege, Arbeitsabläufe und Analysefunktionen, die dann selbstverständlich wirken, wären plötzlich wieder weg. Das gilt auch, wenn das Bundesverfassungsgericht die gesetzliche Grundlage später für verfassungswidrig erklärt.Die (ohnehin hohen) Lizenzkosten für Tech-Konzerne wären in einer echten Modernisierung der föderalen IT-Systeme der Sicherheitsbehörden effizienter investiert.

Verfassungsrechtliche Bedenken

Das Bundesverfassungsgericht hat den Einsatz einer Datenanalyse-Software in Hamburg und Hessen bereits 2023 als mit dem Grundgesetz unvereinbar erklärt. Die dortigen Polizeigesetze erlaubten die Analyse und Auswertung von Daten mittels einer automatisierten Anwendung. Weil die Gesetze unklare Formulierungen enthielten und keine ausreichende Eingriffsschwelle definierten, verstießen sie gegen das allgemeine Persönlichkeitsrecht bzw. das Recht auf informationelle Selbstbestimmung, urteilte das BVerfG. Eine verfassungsgemäße Ausgestaltung sei aber nicht von vornherein ausgeschlossen. Damit ließ Karlsruhe offen, ob künftige Gesetze den Vorgaben entsprechen können.

Digitale Grundrechte brauchen eine starke Stimme – deine Unterstützung macht sie hörbar.

Als gemeinnützige Organisation finanzieren wir uns durch Spenden. Hilf uns, Machtmissbrauch einzudämmen und digitale Souveränität zu stärken.

Als Reaktion auf das Urteil regelten die Landesgesetzgeber den Palantir-Einsatz stärker und zogen weitere Sicherungen ein. Nach dem hessischen Polizeigesetz muss beispielsweise eine konkrete Gefahr für die körperliche Unversehrtheit oder den Bestand des Staates bestehen. Auch eine Dokumentationspflicht über den Zweck, die Dauer und die verwendeten Daten wurde ergänzt. Doch reicht das aus?

Die Gesellschaft für Freiheitsrechte hatte bereits 2023 gegen das hessische Gesetz geklagt und zog auch gegen das novellierte Gesetz vor Gericht. Auch gegen die Polizeigesetze in NRW und Bayern laufen Verfassungsbeschwerden. Ein zentraler Kritikpunkt ist, dass auch weiterhin die Daten vollkommen unbeteiligter Menschen in die Analysesoftware einfließen können und Missbrauchsgefahren nicht hinreichend eingedämmt werden. Dies könne zu falschen Verdächtigungen führen. Es fehle an wirksamen Kontrollen beim Einsatz, auch ein Schutz vor Fehlern der Software sei nicht gewährleistet. Der Grundrechtseingriff habe eine enorme Streubreite und sei mit Blick auf die verfolgten Ziele unverhältnismäßig.

Palantir hält Quellcode und Funktionsweise unter Verschluss

Eine zentrale Kritik an der Palantir-Software ist, dass ihre technischen Grundlagen nicht transparent sind. Der Quellcode, der die Grundlage für die Datenzusammenführung und -analyse bildet, steht weder der Öffentlichkeit noch den Polizeibehörden zur Verfügung. Bei den Details handele es sich um ein Unternehmensgeheimnis, heißt es von Palantir. Das führt jedoch dazu, dass weder die Funktionsweise noch die Ergebnisse der Software für Sicherheitsbehörden nachvollziehbar sind. Im Zweifel tragen sie jedoch zu der Entscheidung bei, wer als ‚verdächtig‘ oder ‚potenziell gefährlich‘ eingestuft wird. Es besteht das Risiko, dass Sicherheitsbehörden potenziell Profile von Unschuldigen oder Unbeteiligten erstellen, nur weil sie Kontakt mit einem möglichen Straftäter hatten.

Die AG KRITIS weist in ihrer Stellungnahme auf die Gefahr eines Kontrollverlustes der Ermittlungsbehörden hin: „Ohne strenge Anforderungen an Offenlegung, Auditierbarkeit und Interoperabilität können Polizeibehörden faktisch in eine Situation geraten, in der sie Entscheidungen maßgeblich auf Ergebnisse stützen müssen, deren technische Herleitung sie selbst nicht mehr vollständig verstehen oder kontrollieren.“

Diskriminierende Entscheidungen durch algorithmische Systeme

Software wie Gotham kann Diskriminierung gegen marginalisierte Gruppen verstärken. Sicherheitsbehörden stufen Personen of Color häufiger (fälschlicherweise) als verdächtig ein, was dazu führt, dass sie in vielen Datensätzen überrepräsentiert sind. Denn wenn bestimmte Gruppen häufiger einer polizeilichen Kontrolle und Datenverarbeitung ausgesetzt sind, entstehen zwangsläufig mehr Einträge zu ihnen, vonKontaktberichten, Kontrollnotizen undPlatzverweise bis hin zu ‚Gefährder‘-Marker undUmfeldverknüpfungen. Das passiert selbst dann, wenn am Ende keine Straftat vorliegt. Parallel ist belegt, dass automatisierte Treffer selbst falschen Verdacht auslösen können. Untersuchungen zeigen bei vielen Gesichtserkennungs-Algorithmen höhere False-Positive-Raten für Schwarze oder asiatische US-Amerikaner:innen als für weiße.

Kritiker:innen wie die GFF warnen außerdem, dass Analyseplattformen, die zunächst mit polizeiinternen Daten laufen, später leicht um externe Quellen erweitert werden könnten, etwa mit Daten aus sozialen Netzwerken. Auch das BVerfG stellte 2023 klar, dass die Eingriffsintensität automatisierter Datenanalyse wesentlich davon abhängt, wie weit Datenarten und Analyseformen reichen. Je mehr und je sensiblere Daten einbezogen werden und je weiter die Analysemethoden reichen, desto stärker ist laut BVerfG der Grundrechtseingriff und desto klarer müssen Gesetz und Schranken das regeln.

Ablehnung in der Bevölkerung und „chilling effects“

Auch die Mehrheit der deutsche Bevölkerung sieht die bundesweite Einführung einer Überwachungs- und Datenauswertungssoftware des US-Unternehmens Palantir kritisch. Das hat eine repräsentative Umfrage des Meinungsforschungsinstituts Verian im Auftrag von Campact ergeben. Der Palantir-Einsatz wird über Parteizugehörigkeit hinweg abgelehnt, am meisten jedoch bei Anhänger:innen von Grünen (84%) und Linken (89%).

Menschen wissen zwar, dass sie in öffentlichen Räumen stärker überwacht werden, sie haben aber kein Recht darauf zu erfahren, ob und welche Daten über sie gesammelt werden. Expert:innen zufolge kann das zu einem ‘chilling effect’ führen, also dazu, dass Menschen ihr Verhalten anpassen und sich weniger frei bewegen. Empirische Studien zeigen solche Verdrängungs- und Meidungseffekte besonders bei marginalisierten Gruppen

Es droht eine Auslagerung der staatlichen Datenverarbeitung an Private

Es mag sinnvoll und notwendig sein, dass Polizeibehörden ihre Daten softwarebasiert durchsuchen und aufbereiten können. Die Gesetzentwürfe der Bundesregierung schießen über dieses Ziel jedoch weit hinaus. Statt das Vollzugsdefizit anzugehen, und die staatliche IT zu modernisieren, interoperabl zu gestalten und in einheitliche Datenformate zu überführen, riskiert die Bundesregierung einen Ausverkauf der digitalen Souveränität.

Wenn sich Sicherheitsbehörden von der Software außereuropäischer Unternehmen abhängig machen und die damit verbundenen Risiken einer massenhaften Datenzusammenführung für digitale Grundrechte nicht durch gesetzliche Schutzvorkehrungen abmildern, gerät der demokratische Rechtsstaat ins Wanken. Die gerichtliche und öffentliche Kontrolle der polizeilichen Tätigkeit wird unterminiert. Es ist die Kernaufgabe des Staates, seine Aufgaben selbstständig wahrzunehmen und sensible Daten in eigener Verantwortung zu verarbeiten. Sollte die Bundesregierung die Gesetzentwürfe trotz der erheblichen Bedenken verabschieden, ist der Bundestag dazu aufgerufen, die neuen Befugnisse zur automatisierten Datenverarbeitung und zum KI-Training auf ein verfassungskonformes Maß zu stutzen.