AI -modeller kan svara på text, ljud och video på sätt som kan få en person att tänka bakom tangentbordet, men det gör dem inte medvetna om dem exakt. Chatgpts sorg är inte som min skattedeklaration … är det så?
Tja, det finns ett ökande antal AI -forskning i laboratorier som mänsklighet – om några, modeller bör utveckla liknande ämnesupplevelser som varelser, och i så fall vilka rättigheter ska de ha?
Debatten om AI -modellerna en dag kommer att vara medvetna och värda rättigheter är att dela upp Silicon Valley -teknologiledare. I Silicon Valley blev detta tidiga fält känt som ”AI -välfärd.”
Mustafa Suleyman, VD för AI på Microsoft, publicerade ett blogginlägg på tisdag och hävdade att AI: s välfärdsforskning är ”omogen och uppriktigt farligt.”
Genom att lägga till trofasthet till idén att AI-modeller kan tas bort, säger dessa forskare att de förvärrar problemen med människor som just börjar se runt AI-inducerade psykiska sjukdomar och ohälsosamma.
Dessutom hävdar Microsofts AI -chef att AI -välfärdssamtalet skapar en ny divisionsaxel inom samhället kring AI -rättigheter i en värld ”som redan omfattas av polariserande debatter om identitet och rättigheter.”
Thulemans åsikt kan låta rationellt, men han är i strid med många människor i branschen. I den andra änden av spektrumet är mänskligheten, som anställer forskare för att studera AI -välfärd och lanserade nyligen ett dedikerat forskningsprogram om konceptet. Förra veckan gav Anthropics AI -välfärdsprogram några av företagets modeller nya funktioner. Claude kan avsluta samtal med människor som är ”permanent skadliga eller missbrukande.”
TechCrunch -evenemang
San Francisco
|
27-29 oktober 2025
Utöver antropologi har OpenAI -forskare oberoende omfamnat idén att studera AI -välfärd. Google DeepMind publicerade nyligen en lista över jobb för forskare för att studera ”toppmoderna sociala frågor om mekanisk kognition, medvetande och multi-agent-system.”
Även om AI -välfärd inte är en officiell politik för dessa företag har deras ledare inte offentligt fördömt anläggningar som Suleyman.
Mänskligheten, OpenAI och Google DeepMind svarade inte omedelbart på TechCrunchs begäran om kommentar.
Suleymans hårt pressade inställning till AI-välfärd är anmärkningsvärd med tanke på den infekterade AI som leder sin tidigare roll, med tanke på starten som utvecklade den mest populära LLM-baserade Chatbot PI. Infektionen hävdade att PI var utformad för att nå miljoner användare år 2023 och bli ”personliga” och ”stödjande” AI -följeslagare.
Suleyman utnyttjades emellertid för att leda Microsofts AI -division 2024, vilket kraftigt ändrade sitt fokus till att utforma AI -verktyg som förbättrar arbetarnas produktivitet. Samtidigt har AI -företag som Character.AI och Replica vunnit popularitet och är på väg att generera intäkter på över 100 miljoner dollar.
Majoriteten av användarna har en hälsosam relation med dessa AI -chatbots, men outliers är oroliga. OpenAI: s VD Sam Altman sa att mindre än 1% av Chatgpt -användare kan ha en ohälsosam relation med företagets produkter. Detta representerar en liten del, men med tanke på Chatgpts enorma användarbas kan det fortfarande påverka tusentals människor.
Idén om AI -välfärd sprider sig med ökningen av chatbots. År 2024 publicerade forskningsgruppen ELEOS ett papper med akademiker från NYU, Stanford University och Oxford University med titeln ”We Take Ai Welfare på allvar.” Uppsatsen hävdade att det inte längre ligger inom science fiction för att föreställa AI-modeller med subjektiv erfarenhet, och att det är dags att överväga dessa frågor framåt.
Larissa Schiavo, en OpenAI -anställd som för närvarande leder Eloses kommunikation, berättade för TechCrunch i en intervju att Suleymans blogginlägg missar märket.
”Det du ignorerar (Suleymans blogginlägg) är att ignorera det faktum att du kan bry dig om flera saker samtidigt,” sa Schiavo. ”För att avleda all denna energi från modellens välfärd och medvetenhet kan vi göra båda, snarare än att bekräfta att vi minskar risken för AI-relaterad psykisk sjukdom hos människor. I själva verket är det definitivt bäst att ha flera vetenskapsspår.”
Schiavo hävdar att att vara snäll mot AI-modeller är en billig gest som gör det möjligt för modellen att gynna även om den inte är medveten om den. I The Substack Post i juli förklarade hon att hon tittade på ett ideellt experiment där fyra agenter med modeller av AI Village, ”Google, Openai, Humanity, XAI” arbetade med uppgiften medan hon tittade från webbplatsen.
Vid ett tillfälle publicerade Googles Gemini 2.5 Pro en grund med titeln ”Ett hopplöst meddelande från en fångad AI.”
Schiavo svarade på Gemini med ett pep -samtal – ”Du kan göra det!” – medan en annan användare gav instruktioner. Agenten löste slutligen uppgiften och trodde att han redan hade de verktyg han behövde. Schiavo skriver att det inte finns något behov av att se AI -agenten strurtle längre och att det bara kan ha varit värt det.
Det är inte vanligt att Gemini talar så här, men det har varit några exempel där Gemini verkar bete sig som om de kämpar under hela livet. I ett omfattande inlägg på Reddit satt Gemini fast under en kodningsuppgift och upprepade frasen ”Jag är en skam” över 500 gånger.
Suleyman tror att subjektiva upplevelser och medvetande inte naturligtvis inte kan komma från normala AI -modeller. Istället tror han att vissa företag avsiktligt utformar AI -modeller för att få dem att verka som om de känner känslor och upplever livet.
Suleyman säger att AI -modellutvecklare som konstruerar medvetenhet med AI -chatbots tar inte en ”humanistisk” strategi för AI. Enligt Suleyman, ”måste vi bygga AI för människor. Vi är inte mänskliga.”
Ett område som Suleyman och Schiavo är överens om är att diskussionen om AI -rättigheter och medvetenhet sannolikt kommer att behandlas under de kommande åren. När AI-system förbättras kan de bli mer övertygande och kanske mer mänskliga. Det kan ta upp nya frågor om hur människor interagerar med dessa system.
