De senaste två veckorna har definierats av en sammandrabbning mellan Antropisk VD Dario Amodei och försvarsminister Pete Hegseth som de två slåss om militärens användning av AI.
Anthropic vägrar att låta sina AI-modeller användas för massövervakning av den amerikanska allmänheten eller för helt autonoma vapen som utför attacker utan mänsklig inblandning. Samtidigt hävdade Hegseth att Pentagon inte borde begränsas av leverantörsregler och att all ”laglig användning” av tekniken borde tillåtas.
På torsdagen signalerade Amodei offentligt att Anthropic inte skulle backa trots hot om att hans företag skulle kunna utses som en risk för leveranskedjan som ett resultat. Men när nyhetscykeln går framåt är det värt att se över exakt vad som står på spel i den här kampen.
Kärnan i denna kamp är vem som kontrollerar kraftfulla AI-system: företagen som bygger dem eller regeringarna som vill distribuera dem.
Vad är Antropics oroliga för?
Som nämnts ovan vill Anthropic inte att deras AI-modeller ska användas för massövervakning av den amerikanska befolkningen eller för autonoma vapen som inte involverar människor i att fastställa mål eller avfyra skott. Medan traditionella försvarsentreprenörer vanligtvis har lite att säga till om i hur deras produkter används, har Anthropic sedan starten hävdat att AI-teknik har unika risker och därför kräver sina egna skyddsåtgärder. Ur företagets perspektiv är frågan hur man upprätthåller dessa skyddsåtgärder när tekniken används inom det militära.
Den amerikanska militären förlitar sig redan på högautomatiserade system, av vilka några är dödliga. Även om beslutet att använda dödligt våld historiskt sett har lämnats till människor, finns det få lagliga restriktioner för militär användning av autonoma vapen. Pentagon förbjuder inte uttryckligen helt autonoma vapensystem. Enligt ett Pentagon-direktiv från 2023 kan AI-system välja och attackera mål utan mänsklig inblandning så länge de uppfyller vissa standarder och klarar granskning av högre försvarstjänstemän.
Det är just det som gör Anthropic så orolig. Militär teknologi är i sig hemlig, så även om den amerikanska militären vidtar åtgärder för att automatisera dödligt beslutsfattande kanske vi inte vet om det förrän det är operativt. Och om du använder Anthropics modeller kan det räknas som ”laglig användning”.
tech crunch event
boston, massachusetts
|
9 juni 2026
Anthropics ståndpunkt är inte att sådana användningar ska vara permanent borta från bordet. Det är bara det att modellen ännu inte är tillräckligt kraftfull för att säkert stödja dem. Föreställ dig ett autonomt system som felidentifierar ett mål, eskalerar en konflikt utan mänskligt tillstånd eller tar dödliga beslut på ett ögonblick som ingen kan vända på. När du sätter en svag AI som ansvarar för dina vapen får du en väldigt snabb och självsäker maskin som inte är bra på att fatta beslut med höga insatser.
AI har också makten att öka legitim övervakning av amerikanska medborgare i en alarmerande grad. Enligt gällande amerikansk lag är övervakning av amerikanska medborgare redan möjlig genom insamling av textmeddelanden, e-postmeddelanden och annan kommunikation. AI ändrar ekvationen genom att möjliggöra automatisk storskalig mönsterdetektering, enhetsupplösning över datauppsättningar, prediktiv riskpoängning och kontinuerlig beteendeanalys.
Vad vill Pentagon?
Pentagons argument är att det borde kunna distribuera Anthropics teknologi för vilken laglig användning som helst som den anser vara nödvändig, snarare än att begränsas av Anthropics interna policy gällande saker som autonoma vapen och övervakning.
Mer specifikt hävdade sekreterare Hegseth att försvarsdepartementet inte borde begränsas av leverantörsregler och skulle vara engagerad i ”laglig användning” av teknik.
Sean Parnell, Pentagons chefstalesman, sa i ett inlägg på torsdagen i X att Pentagon inte är intresserade av att genomföra storskalig inhemsk övervakning eller använda autonoma vapen.
”Vad vi frågar är att försvarsdepartementet tillåts använda Anthropics modell för alla lagliga syften”, sa Parnell. ”Detta är en enkel, sunt förnuftsförfrågan för att förhindra Anthropic från att potentiellt äventyra kritiska militära operationer och äventyra vår nations krigskämpar. Vi kommer inte att tillåta något företag att diktera villkoren för hur vi fattar operativa beslut.”
Han tillade att Anthropic måste fatta ett beslut senast 17:01. ET på fredag. ”Annars kommer vi att avsluta vårt partnerskap med Anthropic och se det som en risk för Dow i leveranskedjan”, sa han.
Trots Pentagons ståndpunkt att den inte bör begränsas av företagens användningspolicy, verkade sekreterare Hegseths oro för Anthropic ibland vara relaterade till kulturella missförhållanden. Hegseth beklagade ”vaknade AI” i ett tal han höll på SpaceX- och xAI-kontoren i januari som vissa såg som ett förspel till en fejd med Anthropic.
”Krigsdepartementets AI kommer inte att vakna”, sa Hegseth. ”Vi bygger vapen och system för krig, inte chatbots för Ivy Leagues fakultetslounger.”
Så vad nu?
Pentagon har hotat med att förklara Anthropic en ”försörjningskedjarisk”, vilket effektivt svartlistar Anthropic från att göra affärer med regeringen, eller åberopar Defence Production Act (DPA) för att tvinga företaget att anpassa sina modeller till militärens behov. Hegseth gav Anthropic tid att svara senast fredag klockan 17:01. Men med tidsfristen närmar sig vet ingen om Pentagon kommer att följa sitt hot.
Det här är inte en kamp som någon sida lätt kan gå ifrån. Sachin Seth, en VC på Trousdale Ventures som fokuserar på försvarsteknologi, sa att risketiketten för leveranskedjan för Anthropic kan betyda ”släckt” för företaget.
Men om Anthropic togs bort från försvarsdepartementet kan det bli en nationell säkerhetsfråga, sa han.
”[Avdelningen]kommer att behöva vänta sex till 12 månader för att antingen OpenAI eller xAI ska komma ikapp,” sa Seth till TechCrunch. ”Så du kan ha upp till ett år och de kan sluta använda den näst eller tredje bästa modellen istället för den bästa modellen.”
xAI förbereder sig för att avklassificera och ersätta Anthropic, och med tanke på ägaren Elon Musks retorik i ämnet skulle företaget inte ha några problem att ge försvarsdepartementet fullständig kontroll över sin teknologi. Enligt de senaste rapporterna kan OpenAI hålla sig till samma röda linjer som Anthropic.
