OpenAI säger att för att komma till rätta med LLM:s tendens till sycophancy och överentusiasm har den anpassat modellen för att vara mer skeptisk och mer exakt signalera när något är ett skadligt drogmål. Det har pratats mycket om GPT-Rosalinds ”resonemang” och ”expertnivå” förmågor. Jag har hört att den förra definieras som att kunna utföra komplexa flerstegsprocesser, och den senare härrör från modellens prestanda på flera riktmärken.
Det är oklart om OpenAI tar itu med hallucinationsproblemet som plågar olika LLM:er, och kan också uppstå när systemet ombeds förklara de steg det tog för att nå sin slutsats. Med tanke på tidigare erfarenheter kommer vi sannolikt att se en blandning av lysande rapporter om oväntade kopplingar som upptäckts av AI, såväl som fall där den genererar uppenbart felaktiga förslag.
Däremot begränsar företaget för närvarande åtkomsten på grund av farhågor om att modellen kan producera skadlig produktion när den ombeds att göra saker som att optimera virusinfektiviteten. För närvarande kan endast USA-baserade företag ansöka om OpenAI:s struktur för betrodd åtkomst, och företaget planerar att begränsa vem som kan använda den. Ett mer begränsat plugin för Life Sciences Research kommer att göras allmänt tillgängligt.
Som nämnts ovan erbjuder många andra företag vetenskapsfokuserade farmaceutiska LLM, men de var inte lika fokuserade som GPT-Rosalind, som fokuserar på biologi. Innan vi börjar höra rapporter om effektiviteten av denna nya modell är det svårt att bedöma om detta fokus kommer att förbättra dess användbarhet.
