På drygt en vecka har förhandlingarna om Pentagons användning av Anthropics Claude-teknik kollapsat, med Trump-administrationen som utpekade Anthropic som en risk för leveranskedjan och sa att AI-företaget kommer att utmana utnämningen i domstol.
Under tiden tillkännagav OpenAI snabbt sin egen affär, vilket utlöste en motreaktion som fick användare att avinstallera ChatGPT och driva Anthropics Claude till toppen av App Store-listorna. Och åtminstone en OpenAI-chef avgick på grund av oro för att tillkännagivandet skyndade sig utan ordentliga skyddsräcken på plats.
I det senaste avsnittet av TechCrunchs Equity-podcast diskuterade Kirsten Kolosek, Sean O’Kane och jag vad detta betyder för andra startups som vill arbeta med den federala regeringen, särskilt försvarsdepartementet. Kirsten undrade om saker och ting skulle förändras lite.
Sean påpekade att detta är en ovanlig situation på många sätt. En anledning är att OpenAI och Claude bygger produkter som ”ingen kan hålla käften om.” Och viktigare, eftersom detta är en kontrovers om hur deras teknik används eller inte används för att döda människor, kommer det naturligtvis att komma under mer granskning.
Ändå hävdade Kirsten att detta är en situation som borde ”ge varje startpaus.”
Läs en förhandstitt av konversationen nedan, redigerad för längd och tydlighet.
Kirsten: Jag undrar om andra startups börjar lägga märke till vad som hände med den federala regeringen, specifikt Department of Defense and Anthropic, och den diskussionen och brottningsmatchen. Och pausa om man ska gå efter federala fonder. Kommer melodin att förändras lite?
tech crunch event
San Francisco, Kalifornien
|
13-15 oktober 2026
Sean: Jag är också nyfiken på det. På kort sikt tror jag till viss del nej, för om man verkligen tänker på de olika företagen, oavsett om de är startups eller mer etablerade Fortune 500-företag som samarbetar med regeringen, särskilt försvarsdepartementet och försvarsdepartementet, så är många av dem under radarn i sitt arbete.
General Motors tillverkar försvarsfordon åt armén och har gjort det under mycket lång tid, och arbetar med alla elektriska och automatiska versioner av dessa fordon. Sådant pågår hela tiden, men det är aldrig en del av tidsandan. Jag tror att problemet som OpenAI och Anthropic har stött på under den senaste veckan är att det här är företag som gör produkter som många använder, och ännu viktigare, ingen kan hålla käften.
Så det har funnits ett sådant strålkastarljus på dem, och det har naturligtvis belyst deras engagemang till en nivå som de flesta andra företag som kontrakterar med den federala regeringen, särskilt någon av de krigskämpande elementen i den federala regeringen, inte nödvändigtvis behöver hantera.
Den enda varningen jag vill tillägga är att mycket av hettan i diskussionen som pågår mellan Anthropic och OpenAI och försvarsdepartementet handlar mycket specifikt om hur deras teknik används för att döda människor, eller hur den används i några av uppdragen som dödar människor. Det är inte bara uppmärksamheten de får och förtrogenhet vi har med deras varumärke, utan det finns ytterligare ett element som jag känner är mer abstrakt när man tänker på General Motors som en försvarsentreprenör eller något.
Jag tror inte att Applied Intuition eller något av de andra företagen som annonserar dual use kommer att göra en stor exit. Det beror på att jag inte belyser det och det finns ingen gemensam förståelse för vad dess inverkan är.
Anthony: Den här historien är väldigt unik och på många sätt unik för dessa företag och dessa människor. Så det finns mycket intressanta funderingar om ”Vad är teknikens roll i regeringen?” AI i regeringen? Och jag tycker att det är bra frågor och frågor som är värda att ställa och överväga.
Men jag tycker också att detta är ett mycket intressant objektiv att titta på några av dessa saker eftersom Anthropic och OpenAI inte är så olika på många sätt eller i de ställningstaganden de tar. Det är inte som ett företag säger ”Vi vill inte arbeta med regeringen” och det andra företaget säger ”Ja, det kommer vi att göra.” Eller en del människor säger: ”Du kan göra vad du vill.” Och (den andra personen) säger, ”Nej, jag vill sätta gränser.” Båda företagen har sagt, åtminstone offentligt, att de skulle vilja se gränser för hur AI används. Anthropic verkar gräva djupare i ”du kan inte ändra termer på det här sättet”.
Och så tillkommer Emil Michael, VD för Anthropic och som många TechCrunch-läsare kanske minns från sina Uber-dagar, som nu är Chief Technology Officer på försvarsdepartementet. Tydligen gillar de inte varandra riktigt. Enligt uppgift.
Sean: Ja, det finns ett väldigt stort ”tjejer som slåss” här som inte bör förbises.
Kirsten: Ja, lite. Det är det, men klangen är lite starkare än så. Återigen, för att backa lite, vad vi pratar om här är att Pentagon och Anthropic hamnade i en konflikt och det ser ut som att Anthropic förlorade, men det ska sägas att de fortfarande används väldigt mycket av militären. Dessa anses vara viktiga teknologier, men OpenAI kliver in och detta utvecklas och kan komma att förändras när det här avsnittet publiceras.
Denna motvind är intressant för OpenAI, och jag tror att ChatGPT-avinstallationerna ökade med 295 % efter att OpenAI undertecknade avtalet med försvarsdepartementet.
För mig är allt detta buller om något riktigt viktigt och farligt: försvarsdepartementet försökte ändra de befintliga villkoren i ett befintligt kontrakt. Och detta är väldigt viktigt och borde ge varje startpaus eftersom det politiska maskineriet som händer nu, speciellt Pentagons politiska maskineri, ser annorlunda ut. Detta är inte normalt. Problemet ligger i det faktum att kontraktet tar evigheter innan det blir förankrat på regeringsnivå, och regeringen försöker ändra sina villkor.
