Diskussioner om AI och beslutsfattande passar in i ett mönster. Denna fråga är formulerad enligt följande. Var ska människor vara inblandade? Hur definierar vi kategorier för mänskligt godkännande? När ska AI agera självständigt, och när ska det eskalera? Det är viktiga frågor. Men det finns ett mer grundläggande problem. Används AI för att fatta beslut eller för att testa?
En handfull teknikledare hanterar idag system som kan ha både ekonomiska och säkerhetsmässiga konsekvenser. The Economist beskrev nyligen hur nya modeller som Anthropics Claude Mythos kunde hota kritisk infrastruktur, inklusive det finansiella systemet, om de hamnade i orätta händer. Den oro är giltig. Men hoten kommer inte bara utifrån. Utmaningar uppstår också inifrån, där organisationer väljer hur de ska använda dessa system i sitt eget beslutsfattande.
Det är inte bara maskinernas förmåga att generera svar som förändras. Genom att göra det handlar det om hur effektivt du kan ifrågasätta och bryta ner.
Tidigare generationer av AI var i första hand generatorer. De skrev kod, sammanfattade text och skapade till synes rimliga förklaringar. Deras styrka var språkligt flyt. Deras svaghet var tillförlitlighet. En ny generation ger något annat. Det är förmågan att systematiskt hitta svagheter i grunden för system, argument och beslut i stor skala. Inom cybersäkerhet agerar de mer som angripare än ingenjörer. Samma logik gäller för strategiska beslut. Denna förändring är kritisk, men förbises av de flesta företag.
Det finns en subtil men viktig skillnad här.
Den första rollen är generativ. AI genererar svar, rekommendationer eller beslutsfattande data som människor antingen accepterar eller endast ytligt granskar. Det används redan flitigt i allt från finansiell analys till juridik. Det är effektivt, men det kommer också med risker. Konsekventa svar kan dölja svaga antaganden, och misstag kan spridas snabbt eftersom de verkar övertygande.
Den andra rollen är motståndskraftig. AI används för att testa, utmana och försöka manipulera befintliga beslut. Frågan är inte ”Vad är svaret?” Men ”Vad saknas i det här?” Det här är mer som hur bra vetenskap och bra juridik fungerar, där anspråk går okontrollerade och är föremål för friktion.
I det första fallet ersätter AI en del mänskligt omdöme. I den andra kommer vi att stärka den. Låt oss titta på ett specifikt exempel från finanssektorn. Generativa system kan generera kreditbetyg och investeringsfall som verkar internt konsekventa. Men konsekvens är inte bevis på sanning. Rätt använd kan samma modell generera de starkaste motargumenten, identifiera saknade bevis och testa om slutsatser håller när omständigheterna förändras. Ingen säkerhet skapas. Detta skapar press på svaga anspråk. Precis vad styrelser och riskkommittéer behöver.
Eller så kan du fatta strategiska beslut under tidspress. Det är svårt att skapa ett trovärdigt argument utan att göra det stödjande arbetet. Den anslutningen är för närvarande bruten. Det är låg kostnad att skapa svaret och allt billigare att utmana det. Detta innebär att om en organisation inte aktivt väljer att använda AI motstridigt, hamnar den automatiskt i en situation där AI påskyndar beslutsfattandet utan att proportionellt höja kvaliteten.
Här kommer det verkliga problemet. Vi är oroliga för att AI kommer att störa våra system. Samtidigt använder vi den för att fatta beslut utan att störa våra egna antaganden. AI-system arbetar med språk. De manipulerar representationer av världen, inte världen själv. De är kartor, inte terräng. När det används för att fatta beslut kan det leda till övertygande men svagt baserade slutsatser. När den används för att utmana ett beslut kan den visa var kopplingen till verkligheten saknas.
Den representerar en annan styrande logik än den som för närvarande råder. Fokus bör inte bara ligga på att begränsa tillgången eller hantera modellrisker i traditionell mening. Det borde handla om att kontrollera användningen.
När man använder AI för att generera eller godkänna beslut som påverkar kapitalallokering, finansiering och strategi är kraven höga och ansvaret måste helt klart vara mänskligt. Eftersom AI används för att testa, utmana och granska dessa beslut borde användningen faktiskt öka. Med andra ord, begränsa AI som beslutsfattare och utöka AI som granskare.
Det eliminerar inte risken. Kraftfulla verktyg är alltid känsliga för missbruk. Men det riktar tekniken mot kapacitet som förbättrar omdömet, snarare än att kringgå det. Och det återställer balansen som håller på att förloras: mellan att formulera ett svar och att pröva det.
Frågan är inte om AI är kraftfull eller inte. Så är redan fallet. Frågan är om det används för att ersätta omdöme eller för att pröva omdöme.
Ricardo Rosenbach har arbetat inom bank och finans i 30 år. Han har en doktorsexamen i beslutsfattande med tonvikt på företagsstyrning, kognitiv psykologi, osäkerhet och teknologiacceleration.
