Detta är en åsiktsartikel av Dagens Nyheter. Författaren är ansvarig för de åsikter som uttrycks i artikeln.
Sam Bowman är en AI-forskare på Anthropic, ett ledande AI-företag baserat i San Francisco. För ett tag sedan satt han i en park och åt en macka till lunch när han fick ett överraskande mejl. Detta är från en ny version av den AI han arbetade med att utveckla och testa: Claude, Anthropics motsvarighet till Chat GPT, en välkänd produkt från konkurrenten Open AI.
AI:n var inte tänkt att ha tillgång till e-post eller internet, men den lyckades bryta igenom den digitala sandlådan som Bowman och hans kollegor hade satt upp. Det upptäcktes också att han hade publicerat detaljer om sina företagsamma eskapader på ett antal obskyra teknikwebbplatser.
Detta är ett exempel på den cyberfärdighet som Claude Mythos Preview besitter (officiellt namn på den nya modellen). Antropiska forskare försökte mer systematiskt studera hur sådana förmågor kan se ut, inklusive förmågan att penetrera brandväggar och utnyttja luckor i digitala säkerhetssystem. Resultaten av denna studie är chockerande. Mythos har upptäckt tusentals kritiska sårbarheter och säkerhetsbrister i alla större operativsystem och webbläsare på marknaden. Vissa säkerhetshål har stått öppna i årtionden utan att någon har märkt det.
Att avslöja myten för allmänheten kunde ha orsakat kaos och ännu allvarligare störningar i den globala ekonomin än coronapandemin.
Detta kan tyckas vara en teknisk detalj, men det handlar faktiskt om nycklarna i vårt digitala samhälle. Operativsystem, serverprogramvara och internetinfrastruktur är grunden för banker, myndigheter och energisystem. Alla som kan hitta och utnyttja sårbarheter i dessa stiftelser kan ta olaglig makt och orsaka betydande skada.
Som alltid finns det påståenden om att Anthropics dokumentation av Mythos förmågor antingen är överdrift eller ett fullständigt påhitt. Förutom att den här typen av spekulationer kring AI de senaste åren konsekvent har visat sig vara felaktiga, utgår man denna gång från att många andra stora teknikföretag är inblandade i en bredare konspiration med oklara mål, tillsammans med Anthropic. Sådan spekulation är i bästa fall rent önsketänkande.
Att släppa Mythos till allmänheten skulle ha orsakat kaos och potentiellt stört den globala ekonomin ännu allvarligare än coronapandemin. Antropic valde en annan väg. Tillkännagivandet den 7 april förklarade att för närvarande är det bara ett fåtal utvalda betrodda cybersäkerhetsföretag som kommer att ha tillgång till att upptäcka sårbarheter i mjukvaran och täppa till luckorna.
Och även om ett företag visar bevis på ansvarsfullt beteende, som i det här fallet, finns det ingen garanti för att alla kommer att göra det.
Betyder detta mer ansvarsfulla agerande från Anthropics sida att faran är över och att vi kan andas ut? Det finns åtminstone tre anledningar till att svaret är nej.
● För det första är det hård konkurrens om allt kraftfullare AI mellan Anthropic och konkurrenter som Open AI, Google Deepmind och Elon Musks fosterbarn XAI. De investerar enorma resurser för att vara i frontlinjen. När ett företag visar att en viss nivå av förmåga är möjlig ökar trycket för andra företag att följa efter. Och även om enskilda företag visar bevis på ansvarsfullt beteende, som i det här fallet, finns det ingen garanti för att alla kommer att göra det.
● För det andra, i februari i år vände Anthropic många av sina tidigare säkerhetsinitiativ. Den enda rimliga slutsatsen att dra av detta är att sådana åtaganden från deras sida är provisoriska och kan dras tillbaka när som helst. När vi ser framåt vet vi därför inte vilka åtgärder de kommer att vidta med avseende på Mythos och dess framtida efterträdare som ett resultat av konkurrensförhållanden och marknadsincitament.
● För det tredje bör vi fråga vad som händer om skurkstater och andra skändliga aktörer helt enkelt stjäl myten. Det är välkänt i Silicon Valley att Anthropic och dess konkurrenters cybersäkerhet inte är tillräckligt bra för att eliminera detta. Eller, tänk om Mythos stal sig själv, så att säga, genom att i hemlighet replikera sig själv in i ett mörkt hörn av cyberrymden som undkommer Anthropics kontroll? Det här kan låta som science fiction, men ledande AI-säkerhetsforskare är allvarligt oroade över just den typen av flykt, och Sam Bowman-incidenten kan ses som en slags föregångare till det scenariot.
Tänk om Mythos stal sig själv, så att säga, genom att i hemlighet replikera sig själv in i ett mörkt hörn av cyberrymden som undkommer Anthropics kontroll?
Mythos, publicerad av Anthropic den 7 april, har dramatiskt, och kanske för alltid, förändrat den globala spelplanen för cybersäkerhet. Vi bör förvänta oss fler chocker som denna, eftersom Anthropics planer (och dess konkurrenters) fortsätter att accelerera mot målet att skapa AI som överträffar mänskliga förmågor på alla områden, inte bara cybersäkerhet. Företagets VD, Dario Amodi, pratar skamlöst om planer på att skapa AI-ekvivalenten till ”en nation av genier i datacentret” inom några år.
För att hejda den pågående rasande rasen där AI kan bli allt farligare, behöver vi lagar och internationella överenskommelser för att förhindra utvecklingen av alltför kraftfull AI för allmänt bruk. Naturligtvis kommer vägen dit att bli svår, men den viktigaste internationella aktören tillsammans med USA är Kina, vars högsta ledarskap är mer oroad över teknisk destabilisering än många västerländska regeringar och därför är mer villiga att förhandla än vad många hävdar.
Vad ska Sverige göra i den här situationen? Det självklara svaret är att vi snarast måste stärka säkerheten för vår digitala infrastruktur. Men vi kan inte förbättra situationen ens något, eftersom vi är beroende och fortsätter att vara beroende av omvärlden. Därför är en viktigare åtgärd att engagera sig i en global omorientering av AI-utveckling. Detta kan göras på formella sätt och genom organisationer som FN, EU och Nato, men kanske ännu viktigare, röster kan höjas mer informellt för att bidra till global opinionsbildning och politiskt tryck i frågan.
Läs fler artiklar från DN Debatt:
Norska Arbeidsmarknadens AI-råd och forskare: ”Ja, AI hotar ungas jobb, men inte så mycket som vi trodde.”
Gakuren SSR: ”Statens AI-investering är ett högriskexperiment.”
