Teknologi

Ollama 0.22.1 kjører Gemma 4 tool calling på laptopen din uten API-nøkkel

Susan Hill

Ollama 0.22.1 leverer en oppdatert Gemma 4-renderer som endelig støtter de to evnene som betydde noe for seriøst arbeid med lokal AI: eksplisitt tankemodus og funksjonskall, altså tool calling. Tool calling lar modellen selv bestemme når den skal kalle en ekstern funksjon — hente en nettside, slå opp i en database, kjøre en utregning — og fletter deretter resultatet inn i sitt eget resonnement. Tankemodus blottlegger modellens mellomledd slik at et program kan plukke dem opp og handle på dem. Begge har vært funksjoner som de store sky-API-ene tok betalt for. Begge kjører nå lokalt mot Gemma 4 uten noen ekstern tjeneste involvert.

Grunnen til at denne nyheten veier tyngre enn nok en modellansering, er regnestykket på maskinvare. Gemma 4-familien som Google ga ut under Apache-2.0-lisens dekker fire størrelser: E2B, E4B, 26B A4B og 31B. De mindre variantene kjører på en nyere laptop med integrert grafikk og tolv til seksten gigabyte RAM. Versjonene 26B A4B og 31B krever en stasjonær GPU, men holder seg likevel godt innenfor forbrukerlandskapet. Den samme arkitekturen som tidligere krevde en betalt API-avtale eller en hjemmeserver i firesifret prisklasse blir dermed en installasjon på en lørdag ettermiddag for hvem som helst med en noenlunde moderne maskin.

Den praktiske følgen for dem som ikke programmerer er at en hel klasse agentapper — de som leser e-posten din, setter opp svar, henter dokumenter, fyller ut skjemaer, oppsummerer møter — ikke lenger trenger å sende disse dataene til en tredjepartsserver. En personvernbevisst bruker som ville ha ekte agentautomatisering hadde til nå to alternativer: stole på en skyleverandørs datapolicy, eller kjøre en langt svakere modell lokalt uten tool calling. Mellomveien var et hull, og Ollama 0.22.1 tetter dette hullet for Gemma 4-klassen.

Den skeptiske lesningen er at Ollama og Gemma 4 ikke er sidestilte med skyfronten. En lokalt hostet 31B-modell når ikke opp til Anthropics Claude eller OpenAIs GPT-5 på kompleks resonnering. Treffsikkerheten i verktøykall over lange kjeder er merkbart dårligere på de små variantene. Multimodale input fungerer, bare langsommere. Og integrasjonsbyrden faller på brukeren: ingen har enda bygget en Gemma 4 pluss Ollama-agentapp som er polert nok til å konkurrere med en ferdig SaaS-flyt. Maskinvaretaket og programvarefinishen er fortsatt reelle hull.

Versjonen er tilgjengelig nå via Ollamas standardinstallasjonsprogram for macOS, Linux og Windows. Gemma 4-vektene ligger i Ollamas modellbibliotek under navnerommet gemma4, og runtime-endringen i 0.22.1 slår automatisk inn for enhver størrelse så snart den er lastet ned.

Diskusjon

Det er 0 kommentarer.