KI-Governance — Rechtsvakuum & Pentagon-Standoff
Browns Kernfrage: Wer entscheidet, was KI darf?
Noam Brown, OpenAI-Forscher, formulierte am 8. und 9. Maerz 2026 in einem X/Twitter-Thread eine unbequeme Beobachtung. Die Grenzen, was Kuenstliche Intelligenz tun darf, entstehen aktuell in Beschaffungsvertraegen und Unternehmensrichtlinien — nicht in Parlamenten. Browns Schluss: "KI wird in ihren Konsequenzen nicht auf ein Unternehmen oder eine Regierung beschraenkt bleiben. Sie wird das Leben aller veraendern. Die Gesetze, die sie regeln, sollten das widerspiegeln."
Das klingt zunaechst akademisch. Was zwischen Anthropic und dem US-Verteidigungsministerium Anfang 2026 passierte, zeigt allerdings sehr konkret, was geschieht, wenn Gesetze fehlen. Und wer dann an ihrer Stelle entscheidet.
Der Anthropic-Pentagon-Standoff
Anthropic hatte zwei rote Linien aus der eigenen Unternehmens-Policy: keine Massenueberwachung, keine autonomen Waffensysteme. Das Pentagon forderte uneingeschraenkten Zugang ("any lawful use"). Als Anthropic ablehnte, stufte das Verteidigungsministerium das Unternehmen am 5. Maerz 2026 als Beschaffungsrisiko ein, im US-Sprech eine Supply Chain Risk Designation.
Diese Bezeichnung ist normalerweise auslaendischen Firmen vorbehalten, die Verbindungen zu Feindstaaten haben (typischerweise China, Russland, Iran). Es war das erste Mal ueberhaupt, dass das Etikett gegen ein US-Unternehmen verwendet wurde, und es war als Druckmittel gemeint. Einmal so eingestuft, wird ein Unternehmen praktisch komplett aus US-Behoerdenauftraegen ausgeschlossen, was im KI-Geschaeft existenzbedrohend ist.
Anthropic reichte am 9. Maerz 2026 Klage ein. Zwei Argumente trug die Klageschrift vor: Verletzung des First Amendment, weil die Designation als Strafung fuer geschuetzte Rede in Form von Policy-Statements gewertet wird, und Missbrauch des Supply-Chain-Risk-Instruments fuer einen vertragsrechtlichen Zweck, fuer den es nie gedacht war. Der Fall liegt aktuell im District of Columbia.
OpenAIs paralleler Vertrag und das Weasel-Words-Problem
Parallel unterzeichnete OpenAI einen eigenen Pentagon-Vertrag. Sam Altman erklaerte, er enthalte aehnliche Verbote zu Massenueberwachung und autonomen Waffen. Der Vertragstext ist allerdings nicht veroeffentlicht, und The Intercept wies in einer Analyse vom 8. Maerz 2026 auf das Kernproblem hin.
Die Electronic Frontier Foundation nennt diese Vertragsklauseln "Weasel Words". Konkret verbieten viele OpenAI-Klauseln "intentional" Massenueberwachung oder Waffeneinsatz. Das Wort "intentional" ist juristisch entscheidend. Wer ein KI-System fuer Zielidentifikation einsetzt und dabei beilaeufig massenhaft Buerger:innendaten verarbeitet, kann argumentieren, das sei kein "intentional surveillance" gewesen, sondern unvermeidliche Nebenwirkung. Hinzu kommt die fehlende externe Kontrolle. Ohne Auditrechte, ohne unabhaengige Aufsicht, ohne klagbare Drittparteien-Klausel bleiben solche Verbote weitgehend selbstreferenziell. Kurz nach Vertragsunterzeichnung trat OpenAIs Robotik-Chefin zurueck.
Die strukturelle Schwaeche liegt nicht im Verdacht der Luege. Sie liegt in der fehlenden Pruefbarkeit. Eine Zusicherung ohne Audit ist eine Aussage, keine Norm.
Die US-Gesetzgebungslage: ein Gesetz seit Beginn des KI-Zeitalters
Alan Rozenshtein argumentierte in Lawfare Anfang 2026, der Streit zwischen Pentagon und Anthropic sei symptomatisch. Weder ein Verteidigungsministerium noch ein einzelnes Unternehmen sollten daruber entscheiden, wofuer militaerische KI eingesetzt wird. Diese Entscheidung gehoere in den Kongress.
Genau dort passiert wenig. Seit Beginn des aktuellen KI-Zeitalters, grob ab dem ChatGPT-Launch Ende 2022, hat der US-Kongress exakt ein KI-spezifisches Gesetz verabschiedet: den TAKE IT DOWN Act vom Mai 2025 gegen nicht-einvernehmliche Deepfakes. Dutzende weiterer Entwuerfe stecken in Ausschuessen.
Besonders bemerkenswert ist der Fourth Amendment Is Not For Sale Act. Er soll eine Luecke schliessen, die das aktuelle System in der Praxis ausser Kraft setzt. Das Fourth Amendment der US-Verfassung schuetzt Buerger:innen vor staatlicher Erhebung von Daten ohne Gerichtsbeschluss. Es schuetzt sie aber nicht vor staatlichem Einkauf derselben Daten.
Behoerden wie ICE, CBP und die NSA kaufen seit Jahren legal Standortdaten, Browserverlaeufe und Mobilfunkbewegungen von Datenbrokern. Was per Gerichtsbeschluss gefordert werden muesste, wird stattdessen einfach beschafft. KI macht diese Luecke skalierbar. Massenprofilierung, die frueher manuelle Auswertung gebraucht haette, ist heute automatisierbar. Senator Ron Wyden und 70 weitere Abgeordnete forderten am 3. Maerz 2026 eine Untersuchung dieser Praxis. Der Fourth Amendment Is Not For Sale Act ist im Repraesentantenhaus durch, im Senat blockiert.
Solange diese Luecke offen bleibt, wird KI-gestuetzte Buerger:innen-Profilierung durch Behoerden praktisch nicht durch einen rechtlichen Rahmen begrenzt. Sie wird begrenzt durch Selbstbindungen einzelner Anbieter, die jede neue Regierung neu verhandeln kann.
Was bedeutet das fuer HR und Compliance?
Der Pentagon-Standoff ist ein US-Fall mit US-Rechtsfragen. Fuer deutsche und europaeische Unternehmen lohnt der Blick trotzdem, denn das Muster wiederholt sich.
Die Frage, wer KI-Grenzen setzt (Anbieter, Auftraggeber, Aufsichtsbehoerde, Gericht) stellt sich auch in HR-Software. Wenn ein KI-System Bewerber:innen-Lebenslaeufe vorsortiert oder Mitarbeiter:innen-Performance bewertet, gelten in Europa zwar Art. 22 DSGVO und der EU AI Act. In der Vertragspraxis stuetzen sich Verantwortliche allerdings haeufig auf Anbieter-Zusicherungen, ohne unabhaengige Pruefung. Genau das Muster, das die EFF im OpenAI-Vertrag kritisiert.
Konkret fuer Personalleitung und Compliance bedeutet das drei Aufgaben. AV-Vertraege mit KI-Anbietern brauchen klare Zweckbindung und Auditrechte, keine reinen "best effort"-Versprechen. Profiling-Funktionen muessen technisch abschaltbar dokumentiert sein, nicht nur policy-seitig verboten. Und der EU AI Act differenziert zwischen Hochrisiko-Anwendungen (zu denen viele HR-Use-Cases gehoeren) und der Nutzung allgemeiner KI-Modelle, was die Compliance-Pflichten beim Einkauf deutlich erhoeht.
Davids Take aus dem LinkedIn-Post bleibt bestehen. Solange Parlamente Gesetze nicht schreiben, schreiben Beschaffungsabteilungen sie. In der Personalpraxis laesst sich Verantwortung derzeit nicht delegieren. Sie muss vertraglich konkret und technisch pruefbar verankert sein.
FAQ
Was ist eine Supply Chain Risk Designation?
Ein US-Beschaffungsinstrument, das Unternehmen aus Behoerdenauftraegen ausschliesst, wenn sie als Sicherheitsrisiko gelten. Typischerweise trifft es auslaendische Firmen mit Verbindungen zu Feindstaaten. Die Anwendung gegen Anthropic im Maerz 2026 war die erste gegen ein US-Unternehmen.
Warum reichen die Verbote im OpenAI-Pentagon-Vertrag laut Kritiker:innen nicht?
Die EFF nennt sie "Weasel Words", weil Formulierungen wie "intentional" Schlupfloecher schaffen und unabhaengige Audits, klagbare Drittparteien-Klauseln sowie veroeffentlichte Vertragstexte fehlen. Das Verbot wirkt damit eher als Marketing-Zusicherung.
Was ist der "behoerdliche Datenkauf"-Loophole?
Das Fourth Amendment der US-Verfassung schuetzt vor staatlicher Datenerhebung ohne Gerichtsbeschluss, nicht vor staatlichem Datenkauf. ICE, CBP und NSA kaufen seit Jahren Standort- und Browserdaten von Datenbrokern. KI macht die Auswertung skalierbar.
Wie viele KI-Gesetze hat der US-Kongress seit 2022 verabschiedet?
Genau eines: den TAKE IT DOWN Act vom Mai 2025 gegen nicht-einvernehmliche Deepfakes. Der Fourth Amendment Is Not For Sale Act ist im Repraesentantenhaus durchgekommen, im Senat blockiert. Dutzende weitere Entwuerfe stecken in Ausschuessen.
Was hat der US-Standoff mit europaeischer HR-Compliance zu tun?
Das Muster (Anbieter-Selbstbindung anstelle extern pruefbarer Norm) taucht auch in HR-Software-Vertraegen auf. EU AI Act und DSGVO setzen den Rahmen, aber AV-Vertraege brauchen konkrete Zweckbindung, technisch abschaltbare Profiling-Funktionen und Auditrechte. Anbieter-Zusicherungen allein reichen nicht.
Was meint Brown mit "die Gesetze sollten das widerspiegeln"?
Brown argumentiert, dass eine Technologie, deren Wirkung Gesellschaft, Wirtschaft und Sicherheit gleichermassen beruehrt, nicht durch Beschaffungsklauseln einer einzelnen Regierungs-Administration geregelt werden sollte. Sie braucht demokratisch legitimierte Gesetzgebung mit Bestand jenseits eines Wahlzyklus.
Quellen
- Noam Brown (@polynoamial) — X/Twitter-Thread zu KI-Governance (8./9. März 2026): https://x.com/polynoamial/status/2031049408331284606
- Alan Rozenshtein, Lawfare — “Congress—Not the Pentagon or Anthropic—Should Set Military AI Rules” (Feb. 2026): https://www.lawfaremedia.org/article/congress-not-the-pentagon-or-anthropic-should-set-military-ai-rules
- Anthropic klagt gegen Trump-Administration (9. März 2026): https://www.axios.com/2026/03/09/anthropic-sues-pentagon-supply-chain-risk-label
- The Intercept — OpenAI on Surveillance and Autonomous Killings (8. März 2026): https://theintercept.com/2026/03/08/openai-anthropic-military-contract-ethics-surveillance/
Vertiefung: DSGVO Lohnabrechnung
Rechtsgrundlagen, AVV, TOMs und Schrems-II-Risiken kompakt erklärt →