OpenAI:s senaste standardmodell för ChatGPT kanske inte är så bra. Hallucinationer är ett pågående problem för AI-modeller, men OpenAI säger att dess nya GPT-5.5 Instant-modell har ”avsevärt förbättrat fakta över hela linjen.”
Företaget hävdar att baserat på ”interna utvärderingar” har GPT-5.5 Instant ”52,5 % färre fantomanspråk” än GPT-5.3 Instant-modellen i ”insatser med hög insats som täcker områden som medicin, juridik och finans.” GPT-5.5 Instant ”minskade också felaktiga påståenden med 37,3 % för särskilt svåra konversationer där användare flaggade faktafel.” (OpenAI har information om hur den utvärderade modellen på GPT-5.5 Instant-systemkortet.)
OpenAI hävdar också att GPT-5.5 Instant är ”högre prestanda för vardagliga uppgifter”, som att analysera bilduppladdningar och att veta när man ska fråga webben om svar. GPT-5.5 Instant har ”strängare, mer konkreta” svar och undviker användningen av ”onödiga emojis”.
Med GPT-5.5 Instant kan ChatGPT nu ”bättre” hämta sammanhang från tidigare chattar, Gmail, etc. för att ge mer personliga svar. (Detta är en funktion som Google också investerar hårt i för Gemini.) Dessutom, över alla ChatGPT-modeller, gör en ny ”minneskälla”-funktion det möjligt för chatbots att se sammanhanget som används för att informera personliga svar och ta bort eller korrigera information om det behövs.
OpenAI kommer att börja rulla ut GPT-5.5 Instant till ”alla ChatGPT-användare” på tisdag, men GPT-5.3 Instant kommer att vara ett alternativ i tre månader innan det ”pensioneras”. (Tidigare var användarna ledsna över förlusten av den gamla modellen, vilket gav dem tid att migrera.)
Den förbättrade anpassningen kommer först att rullas ut till Plus- och Pro-användare på webben och ”kommer snart” till mobilappen. OpenAI har ”planer” på att göra det tillgängligt för Free, Go, Business och Enterprise-användare ”genast.” Minneskällans funktion rullas för närvarande ut till ChatGPT-konsumentplaner på webben och ”snart till mobilen.”
Uppdatering 5 maj: Lade till länk till systemkort för GPT-5.5 Instant.
