En annan dag, en annan Google AI-modell. Google har verkligen rullat ut nya AI-verktyg på sistone och släppte bara Gemini 3 i november. Flaggskeppsmodellen har nu uppgraderats till version 3.1. Den nya Gemini 3.1 Pro är tillgänglig idag (i förhandsvisning) för utvecklare och konsumenter, och lovar bättre problemlösnings- och resonemangsmöjligheter.
Google tillkännagav förbättringar av sitt Deep Think-verktyg förra veckan, och tydligen var ”kärnintelligensen” bakom den uppdateringen Gemini 3.1 Pro. Som vanligt innehåller Googles senaste modellmeddelanden ett antal riktmärken som oftast visar blygsamma förbättringar. I det populära Last of Humanity-provet, som testar avancerad domänspecifik kunskap, uppnådde Gemini 3.1 Pro ett rekordresultat på 44,4 %. Gemini 3 Pro fick 37,5 procent och OpenAI:s GPT 5.2 fick 34,5 procent.
Google efterlyser också modellförbättringar i ARC-AGI-2, som har nya logiska problem som inte kan tränas direkt till AI. Gemini 3 var lite efter i detta betyg och nådde bara 31,1 procent jämfört med konkurrenskraftiga modellers poäng på 50- och 60-talen. Gemini 3.1 Pro överträffade Googles resultat med mer än 2x och nådde en högsta poäng på 77,1 %.
När Google släpper en ny modell gläds det ofta över att den redan har nått toppen av Arena-poängtavlan (tidigare LM Arena), men så är inte fallet den här gången. I texten slår Claude Opus 4.6 den nya Gemini med 4 poäng vid 1504. I koden slår Opus 4.6, Opus 4.5 och GPT 5.2 High alla Gemini 3.1 Pro lite mer. Det är dock värt att notera att Arenas topplistor körs på Vibe. Användare röstar på resultatet de gillar bäst. Detta gör att du kan belöna output som ser korrekt ut, oavsett om det är korrekt eller inte.
