Das Anthropic-Verbot in US-Bundesbehörden nimmt Anthropic kurzfristig aus zentralen Beschaffungs- und Nutzungswegen: Die GSA zieht Anthropic aus USAi.gov und dem Multiple Award Schedule, während das Pentagon parallel eine „Supply-Chain-Risk“-Einstufung ankündigt.
Anthropic-Verbot in US-Bundesbehörden setzt Anthropic unter Druck
In Washington eskaliert ein Streit um KI-Grenzen in der nationalen Sicherheit: US-Präsident Donald Trump ordnete am 27. Februar 2026 an, dass US-Bundesbehörden die Nutzung von Anthropic-Technologie „unverzüglich“ beenden sollen – inklusive einer Übergangsphase von bis zu sechs Monaten für Stellen, die Anthropic bereits tief in Workflows integriert haben. Der Schritt wird flankiert durch Beschaffungsmaßnahmen der General Services Administration (GSA) und eine parallel angekündigte „Supply-Chain-Risk“-Einstufung im Verteidigungsressort.
Es handelt sich nicht um eine kompromittierte Softwarekette im klassischen Sinn, sondern um eine staatliche Risiko- und Kontrollentscheidung. Trotzdem wirkt das Ergebnis ähnlich wie ein Vendor-Cut: Systeme, Verträge und Datenflüsse müssen binnen Tagen neu bewertet werden.
Was das Anthropic-Verbot in US-Bundesbehörden konkret bedeutet
Die belastbarste, öffentlich nachvollziehbare Umsetzung kommt bislang über die Beschaffungsschiene. Die GSA erklärt, sie entferne Anthropic aus USAi.gov sowie aus dem Multiple Award Schedule (MAS) – dem zentralen Vertrags- und Einkaufskanal für viele kommerzielle Produkte und Services im US-Bund. Damit wird die „Verfügbarkeit“ von Anthropic-Leistungen für Behörden faktisch massiv eingeschränkt: Neuabschlüsse, Verlängerungen und standardisierte Bestellwege werden erschwert oder unmöglich.
Parallel dazu beschreibt Reuters die Präsidenten-Anweisung als government-weiten „Phase-out“ von Anthropic-Technologie. In der Berichterstattung wird betont, dass das Verteidigungsressort (in dieser Administration als „Department of War“ bezeichnet) und andere Stellen eine bis zu sechsmonatige Umstiegsfrist erhalten sollen – verbunden mit der politischen Erwartung, Anthropic müsse den Übergang aktiv unterstützen.
Ist es Das Anthropic-Verbot in US-Bundesbehörden im juristischen Sinn oder „nur“ eine Weisung?
In der Praxis ist der Effekt für US-Bundesbehörden nahe an einem Verbot: Wenn GSA die Beschaffungs- und Plattformwege kappt und die Exekutive die Nutzung abstellt, bleibt Behörden nur der Rückbau. Gleichzeitig ist auffällig, dass in den bislang öffentlich zitierten Dokumenten und Statements keine klar benannte Executive-Order-Nummer oder ein OMB-Memo mit Aktenzeichen im Vordergrund steht – die Maßnahme wird aktuell vor allem über Ankündigungen und Procurement-Hebel sichtbar.
Ein „harte“ rechtliche Verbotsnorm ist etwas anderes als eine exekutive Weisung plus Vertrags-/Beschaffungssteuerung. Für betroffene Stellen zählt jedoch weniger die juristische Semantik als die operative Folge: Projekte, die Claude in Klassifizierungsketten, Entwicklungsprozessen, SOC-Workflows oder Wissensmanagement nutzen, müssen zügig auf Alternativen umstellen.
Was ist eine “Directive” im Rahmen des Anthropic-Verbotes?
In der GSA-Meldung ist „Directive“ kein eigener, im US-Recht abschließend definierter Dokumenttyp, sondern ein Oberbegriff für eine präsidiale Weisung an die Exekutive (US-Bundesbehörden), die je nach Form als Executive Order, Presidential Memorandum oder anderes Präsidialdokument umgesetzt wird. Ob eine solche „Directive“ über interne Steuerung hinaus als öffentlich „rechtswirksam“ gilt, hängt u. a. davon ab, ob sie als Dokument mit „general applicability and legal effect“ veröffentlicht werden muss: Der Federal Register Act verlangt die Veröffentlichung bestimmter präsidialer Dokumente im Federal Register (z. B. Executive Orders/Proklamationen und weitere Dokumente mit allgemeiner Geltung und Rechtswirkung) nach 44 U.S.C. § 1505; zudem wirkt die Veröffentlichung grundsätzlich als ausreichende Bekanntgabe („constructive notice“) nach 44 U.S.C. § 1507.
Begründung: Sicherheitsbedenken und Streit um Nutzungsgrenzen
Die US-Regierung begründet den Schritt öffentlich mit nationalen Sicherheitsinteressen und der Position, dass US-Recht und nicht private Nutzungsbedingungen definieren sollen, wie KI im Verteidigungsumfeld eingesetzt wird. Anthropic schildert den Konflikt dagegen als gescheiterte Verhandlung über zwei eng gefasste Ausnahmen, die das Unternehmen bei „lawful use“ nicht überschreiten wollte: Massenüberwachung von US-Bürgern und vollautonome Waffen.
In seinem offiziellen Statement betont Anthropic, es habe die Ausnahmen aus zwei Gründen gehalten: erstens seien heutige Frontier-Modelle nicht verlässlich genug für vollautonome Waffensysteme; zweitens verletze massenhafte inländische Überwachung Grundrechte. Das Unternehmen kündigt an, eine mögliche Einstufung als „Supply-Chain-Risk“ gerichtlich anzugreifen (Anthropic-Statement vom 27. Februar 2026).
Supply-Chain-Risk: Welche Rechtsgrundlagen beim Anthropic-Verbot in US-Bundesbehörden eine Rolle spielen
Für das Verteidigungsressort existieren im US-Beschaffungsrecht Mechanismen, um „Supply-Chain-Risk“ durch konkrete Beschaffungsmaßnahmen zu reduzieren. Zentral ist dabei 10 U.S.C. § 3252, der „covered procurement actions“ zur Reduktion von Supply-Chain-Risiken im Kontext „covered systems“/Beschaffungen ermöglicht. Praktisch kann das zu Ausschlüssen von Quellen, Einschränkungen bei Subcontracting oder zu Vertragsauflagen führen.
Der Streitpunkt – und hier wird es juristisch brisant – ist die behauptete Reichweite. Anthropic argumentiert, dass eine Supply-Chain-Risk-Einstufung nach § 3252 nur die Nutzung im Rahmen von „Department of War“-Verträgen erfassen könne, nicht aber pauschal „jegliche kommerzielle Aktivität“ eines Auftragnehmers mit Anthropic außerhalb dieses Vertragskontexts. Genau diese Frage dürfte in möglichen Klagen und in internen Umsetzungsdokumenten (Contracting Guidance, Class Deviations, ATO-Updates) konkretisiert werden.
Welche objektiven Infosec-Nachweise Anthropic vorweisen kann
Parallel zur politischen Auseinandersetzung lohnt der Blick auf auditierbare Sicherheits- und Compliance-Artefakte: Für seine kommerziellen Produkte (u. a. Claude for Work und die Anthropic API) nennt Anthropic in der öffentlich einsehbaren Zertifizierungsübersicht
- eine HIPAA-ready Konfiguration (BAA als Option),
- ISO 27001:2022,
- ISO/IEC 42001:2023 (AI-Managementsystem) sowie
- SOC 2 Type I & Type II (Details im Privacy Center unter „What Certifications has Anthropic obtained?“).
Die zugehörigen Nachweisdokumente (z. B. Zertifikate/Reports) werden über das Trust Center bereitgestellt. Für US-Government-Workloads über Drittplattformen verweist Anthropic außerdem darauf, dass Claude auf Amazon Bedrock in den AWS GovCloud (US)-Regionen für FedRAMP High sowie DoD Impact Level 4 und 5 Workloads freigegeben ist (Anthropic-Ankündigung); AWS dokumentiert dazu im GovCloud-User-Guide, dass in diesem Rahmen u. a. Claude Sonnet 4.5, Claude 3.7 Sonnet, Claude 3.5 Sonnet v1 und Claude 3 Haiku als FedRAMP- und IL4/5-autorisiert gelistet sind (AWS-Dokumentation).




