OpenAI VD Sam Altman meddelade sent i fredags att företaget har nått en överenskommelse som gör att företaget kan använda sina AI-modeller inom försvarsdepartementets hemliga nätverk.
Detta följer på en högprofilerad konflikt mellan avdelningen, även känd som Armédepartementet under Trump-administrationen, och OpenAI-konkurrenten Anthropic. Pentagon har pressat AI-företag, inklusive Anthropic, att låta deras modeller användas för ”vilket som helst lagligt ändamål”, men Anthropic har försökt dra gränsen för inhemsk massövervakning och helt autonoma vapen.
I ett långt uttalande som släpptes på torsdagen sa Anthropics vd Dario Amodi att företaget ”aldrig har protesterat mot specifika militära operationer, och inte heller har vi någonsin försökt begränsa användningen av vår teknologi på ett ad hoc sätt”, men hävdade att ”vi tror att i begränsade fall kan AI undergräva snarare än skydda demokratiska värden.”
Den här veckan undertecknade mer än 60 OpenAI-anställda och 300 Google-anställda ett öppet brev där de uppmanade sina arbetsgivare att stödja Anthropics position.
Efter att Anthropic och försvarsdepartementet misslyckats med att nå en överenskommelse kritiserade president Donald Trump ”Anthropics vänstergalna arbete” i ett inlägg på sociala medier och uppmanade federala myndigheter att sluta använda företagets produkter efter en sexmånaders utfasningsperiod.
I ett annat inlägg hävdade försvarsminister Pete Hegseth att Anthropic försökte ”ta vetorätt över amerikanska militära operativa beslut”. Hegseth sa också att han utsåg Anthropic som en risk för leveranskedjan, och sa: ”Entreprenörer, leverantörer och partners som gör affärer med den amerikanska militären får inte engagera sig i någon kommersiell aktivitet med Anthropic.”
Anthropic sa på fredagen att de ”ännu inte hade fått någon direkt kommunikation från arméns avdelning eller Vita huset angående statusen för förhandlingarna”, men insisterade på att de ”kommer att utmana riskbeteckningen för leveranskedjan i domstol.”
tech crunch event
boston, massachusetts
|
9 juni 2026
Överraskande nog hävdade Altman i sitt inlägg till X att OpenAI:s nya försvarskontrakt innehåller skydd som tar upp samma problem som blev en flampunkt för Anthropic.
”Två av våra viktigaste säkerhetsprinciper är förbudet mot inhemsk massövervakning och mänskligt ansvar för användning av våld, inklusive autonoma vapensystem”, sa Altman. ”DoW håller med om dessa principer och har återspeglat dem i våra lagar och policyer, och vi förankrar dem i vårt avtal.”
Altman sa att OpenAI ”har byggt tekniska skydd för att säkerställa att våra modeller fungerar som förväntat, vilket utrikesdepartementet också ville ha”, och planerar att skicka ingenjörer till försvarsdepartementet ”för att stödja våra modeller och säkerställa deras säkerhet.”
”Vi ber DoW att erbjuda liknande villkor för alla AI-företag, och enligt vår åsikt borde alla vara villiga att acceptera dem,” tillade Altman. ”Vi har uttryckt en stark önskan att se situationen eskalera från rättsliga och statliga åtgärder och gå mot en rimlig överenskommelse.”
Fortunes Sharon Goldman rapporterar att Altman sa till OpenAI-anställda under ett möte med alla händer att regeringen skulle tillåta företaget att bygga sin egen ”säkerhetsstack” för att förhindra missbruk, och att ”om en modell vägrar att utföra en uppgift, kommer regeringen inte att tvinga OpenAI att göra den uppgiften.”
Altmans inlägg kom strax innan nyheten kom att president Trump hade krävt störtandet av den iranska regeringen och att USA:s och israeliska regeringar hade börjat bomba Iran.
