Anthropic vs Pentagon: zákaz AI, který může změnit vládní zakázky v technologiích
Pentagon označil Anthropic jako „riziko v dodavatelském řetězci" — poprvé v historii u americké firmy — poté, co Anthropic odmítl povolit použití Claude pro autonomní zbraně a masový dohled. Právní bitva míří k květnovému jednání a může změnit pravidla hry.

Anthropic vs Pentagon: zákaz AI, který může změnit vládní zakázky v technologiích
Pentagon označil Anthropic — firmu za Claude — jako „riziko v dodavatelském řetězci." Poprvé v historii to potkalo americkou firmu. Tahle nálepka se dosud dávala jen zahraničním hrozbám typu Kaspersky, Huawei nebo ZTE.
Důvod? Anthropic odmítl nechat Pentagon používat Claude pro plně autonomní zbraně a masový dohled nad americkými občany.
Nic víc, nic míň.
Jak jsme se sem dostali
V červenci 2025 Anthropic podepsal s Pentagonem dvouletou smlouvu za 200 milionů dolarů na deploy Claude do utajovaných vojenských sítí. Smlouva se dohodla ještě za Bidenovy administrativy. Problémy začaly na podzim, když Pentagon chtěl při nasazení na platformu GenAI.mil širší přístup.
V lednu 2026, poté co se Claude přes partnerství s Palantir podílel na venezuelské operaci, Pentagon chtěl víc. Konkrétně: „veškeré zákonné použití" — žádné restrikce, žádné guardrails, žádné výjimky.
Anthropic si nakreslil dvě červené linie:
- Žádné plně autonomní zbraně — systémy, které cílí a střílí bez člověka v rozhodovacím procesu. Pozice Anthropic je jasná: současné AI modely na to nejsou dost spolehlivé.
- Žádný masový dohled nad občany — žádné plošné špehování Američanů. Ani neexistuje právní rámec pro to, jak by AI měla být v tomhle použita.
- února dal ministr obrany Pete Hegseth CEO Dariovi Amodeiovi ultimátum: odstraňte restrikce, nebo přijdete o kontrakt. Amodei odmítl.
O tři dny později Hegseth napsal na X, že Anthropic je riziko v dodavatelském řetězci. Za pár hodin Trump na Truth Social nařídil všem federálním agenturám okamžitě přestat používat technologii Anthropic. Označil je za „radikálně levicovou woke firmu." Oficiální dopis přišel 3. března.
Ironie, která se píše sama
Tohle je ta část, která mě fascinuje.
Ve stejný den, kdy označení vstoupilo v platnost — 4. března — americká armáda aktivně používala Claude k identifikaci a prioritizaci cílů v Íránu. Pentagon zároveň zakazoval a závisel na stejné technologii. Claude byl tak hluboce zabudovaný v operačních systémech, že ho nebylo možné narychlo odebrat.
Vláda navíc argumentovala, že Claude je pro národní bezpečnost tak kritický, že zvažovali použít Defense Production Act a přinutit Anthropic ke spolupráci. Takže co je to — riziko v dodavatelském řetězci, nebo nenahraditelný vojenský asset? Obojí najednou to být nemůže.
OpenAI přiskočil (a pak couvl)
Pár hodin po Trumpově nařízení OpenAI oznámil vlastní deal s Pentagonem. Sam Altman řekl, že nasadí modely na utajované sítě s „technickými zárukami" — nominálně stejné restrikce jako chtěl Anthropic (žádné autonomní zbraně, žádný masový dohled), ale zabalené do interních technických kontrol místo explicitních smluvních podmínek.
Vypadalo to špatně. Backlash přišel okamžitě. Altman sám přiznal, že deal „vypadal oportunisticky a ledabyle." Do 2. března OpenAI už předělával smlouvu a přidal explicitní zákaz domácího dohledu. Takže OpenAI skončil v podstatě se stejnými guardrails, jaké chtěl Anthropic — jen za to byl odměněn místo potrestán.
Stovky zaměstnanců OpenAI a Google mezitím podepsaly petici proti vojenským AI dohodám.
Právní bitva: dva soudy, dva výsledky
Anthropic zažaloval 9. března. Případ se rozdělil mezi dva soudy a výsledky si odporují.
San Francisco (soudkyně Rita Lin, 26. března): Vydala předběžné opatření blokující označení supply chain risk. Soudkyně našla jasné důkazy odplaty za využití prvního dodatku ústavy. Ukázala na Hegsethovy veřejné výroky, kde Anthropic nazval „arogantním" a obvinil z „korporátního virtue-signalingu" a „defektního altruismu." Označení prý bylo trestem, ne bezpečnostním opatřením.
D.C. Circuit (8. dubna): Zamítl žádost Anthropic o nouzový odklad, takže zákaz platí. Ale soud případ urychlil a nařídil ústní jednání na 19. května.
Právní experti z Lawfare tvrdí, že pozice vlády je „téměř neudržitelná." Zákony, o které se opírá (FASCSA a 10 U.S.C. § 3252), byly napsané proti zahraničním protivníkům infiltrujícím dodavatelské řetězce backdoory a sabotáží — ne proti americkým firmám kvůli smluvním sporům.
Streisand Effect v plné parádě
Zákaz se vrátil jako bumerang. Veřejnost to milovala.
Claude se dostal na první místo v americkém App Store během pár dní. Anthropic hlásil přes milion nových uživatelů denně, každý den nový rekord. Registrace se ztrojnásobily. Firma, kterou mimo tech svět skoro nikdo neznal, se stala známou prakticky přes noc.
Ukázalo se, že říct Američanům „tahle firma byla potrestaná, protože odmítla stavět autonomní zbraně" je docela účinná marketingová kampaň.
Co se stane 19. května
Ústní jednání u D.C. Circuit se bude zabývat třemi základními otázkami, včetně toho, jestli soud vůbec má jurisdikci. Výsledek může nastavit zásadní precedent:
- Může vláda použít zákony o dodavatelském řetězci proti domácím firmám kvůli smluvním sporům? Pokud ano, každá AI firma, která odmítne vládní podmínky, čelí stejnému riziku.
- Zničily veřejné výroky úředníků argument národní bezpečnosti? Hegseth tím, že důvody vytruboval na X, možná nechtěně otevřel dveře soudnímu přezkumu.
- Kde končí procurement a začíná odplata? Vlastní kroky vlády — současné používání a zakazování stejné technologie — podkopávají narativ o „bezpečnostním riziku."
Můj pohled
Tohle přesahuje Anthropic. Případ definuje, jestli americká vláda může efektivně trestat AI firmy za to, že trvají na safety omezeních. Pokud označení přežije, každá AI firma, co jde po vládní zakázce, bude vědět, jaká je cena za odmítnutí. Pokud padne, existuje reálná brzda proti zneužívání obskurních procurement zákonů jako politických zbraní.
Ironie je skvělá: Pentagon potrestal firmu, která trvala na guardrails, odměnil tu, co netrvala, a vítěz nakonec stejně přijal stejné guardrails. Technologie, kterou vláda označila za „riziko," se současně používala v ostrých bojových operacích.
Ať už jsou vaše politické názory jakékoliv, právní otázka je čistá: můžou se zákony z doby studené války, navržené proti Huawei v státních sítích, přeúčelovat na blacklistování amerických firem, které nechtějí odebrat safety featury? 19. května se možná dozvíme.
Další články
Claude Mythos Preview od Anthropic umí sám najít zero-day zranitelnosti — a proto kolem něj postavili koalici

Atlassian přidává Lovable, Replit a Gamma agenty přímo do Confluence
