I takt med att AI-modeller blir allt mer kommodifierade, tävlar startups om att bygga ett mjukvarulager ovanpå dem. En intressant deltagare i detta utrymme är Osaurus, en Apple-specifik LLM-server med öppen källkod. Detta gör att användare kan flytta mellan olika lokala AI-modeller lokalt eller i molnet samtidigt som de behåller alla sina filer och verktyg på sin egen hårdvara.
Osaurus utvecklades från idén om Dinoki, en dator AI-kompanjon. Osaurus medgrundare Terence Pae beskrev det som ett slags ”AI-driven Clippy.” Dinokis kunder frågade honom varför de skulle köpa appen om de fortfarande var tvungna att betala tokens (användningsenheter som AI-företag tar ut för att bearbeta uppmaningar och generera svar).
Detta fick Pae att tänka djupare på att köra AI lokalt.
”Detta är början på Osaurus,” berättade Peh, som tidigare arbetat som mjukvaruingenjör på Tesla och Netflix, till TechCrunch per telefon. Tanken, förklarade han, var att köra AI-assistenten lokalt. ”Du kan göra nästan allt lokalt på din Mac, inklusive att visa filer, komma åt webbläsaren och komma åt systeminställningar. Vi tyckte att detta var ett bra sätt att positionera Osaurus som en personlig AI för individer.”
Pae började bygga det offentliga verktyget som ett projekt med öppen källkod, lägga till funktioner och fixa buggar längs vägen.
För närvarande har Osaurus flexibiliteten att ansluta till lokalt värdade AI-modeller såväl som molnleverantörer som OpenAI och Anthropic. Användare har friheten att välja vilka AI-modeller de ska använda och behålla andra aspekter av AI-upplevelsen, såsom modellens eget minne och filer och verktyg, på sin egen hårdvara.
Med tanke på att olika AI-modeller har olika styrkor är fördelen med detta system att användare kan byta till den AI-modell som bäst passar deras behov.
Denna struktur ger Osaurus vad som kallas en ”sele”. Det är ett kontrolllager som kopplar samman olika AI-modeller, verktyg och arbetsflöden genom ett enda gränssnitt, liknande verktyg som OpenClaw och Hermes. Skillnaden är dock att sådana verktyg ofta riktar sig till utvecklare som är bekanta med att använda terminalen. Andra gånger, som i fallet med OpenClaw, kan det finnas säkerhetsproblem eller hål som borde vara oroande.
Osaurus, å andra sidan, tillhandahåller ett lättanvänt gränssnitt för konsumenter att använda och åtgärdar säkerhetsproblem genom att köra i en virtuell sandlåda isolerad från hårdvara. Detta begränsar AI till ett visst intervall och håller din dator och data säker.

Att köra AI-modeller på maskiner är naturligtvis fortfarande i sin linda, eftersom det är resurskrävande och hårdvaruberoende. För att köra lokala modeller måste ditt system ha minst 64 GB RAM. När du kör större modeller som DeepSeek v4 rekommenderar Pae ett system med cirka 128 GB RAM.
Men Pe tror att behovet av lokal AI kommer att minska med tiden.
”Vi kan se potentialen eftersom intelligensen per watthastighet, som är ett mått för lokal AI, går upp avsevärt. Det är på sin egen innovationskurva. Förra året kunde lokal AI knappt avsluta en mening, men nu kan den faktiskt köra verktyg, skriva kod, komma åt webbläsare, beställa saker från Amazon (…) Det blir bättre och bättre”, sa han.

Nuvarande Osaurus kan köra modeller som MiniMax M2.5, Gemma 4, Qwen3.6, GPT-OSS, Llama och DeepSeek V4. Den stöder också Apples grundmodell på enheten, Liquid AI:s enhetsmodell LFM-familj, och kan ansluta till OpenAI, Anthropic, Gemini, xAI/Grok, Venice AI, OpenRouter, Ollama och LM Studio i molnet.
Som en MCP-server (full Model Context Protocol) kan den också ge MCP-kompatibla klienter tillgång till verktyg. Dessutom kommer den med över 20 inbyggda plugins för Mail, Calendar, Vision, macOS-användning, XLSX, PPTX, Browser, Music, Git, Filesystem, Search, Fetch och mer.
Nyligen har Osaurus uppdaterats för att inkludera ljudfunktioner.
Enligt dess hemsida har projektet laddats ner mer än 112 000 gånger sedan det gick live för ungefär ett år sedan.
Nu är Osaurus grundare (inklusive medgrundaren Sam Yoo) en del av den New York-baserade Startup Accelerator Alliance. De överväger också nästa steg, med Osaurus potentiellt erbjudas till företag inom rätts- och hälsovårdssektorerna, där de kan driva lokala LLM för att ta itu med integritetsproblem.
Teamet tror att när kraften hos lokala AI-modeller ökar, kan efterfrågan på AI-datacenter minska.
”Vi ser en explosiv tillväxt i AI-området, och[moln AI-leverantörer]måste skala upp med datacenter och infrastruktur, men jag känner att folk fortfarande inte riktigt förstår värdet av lokal AI,” sa Peh. ”Istället för att förlita sig på molnet kan du faktiskt distribuera Mac Studio lokalt och strömförbrukningen borde vara betydligt lägre. Du har fortfarande molnets möjligheter, men du behöver inte förlita dig på ett datacenter för att köra AI”, tillade han.
Om du köper via länkar i våra artiklar kan vi tjäna en liten provision. Detta påverkar inte det redaktionella oberoendet.
