Teknologi

DeepSeek V4 koster en femtedel av GPT-5 og kjører uten Nvidia-brikker

Det kinesiske laboratoriet som med R1 fikk Nvidia-aksjene til å stupe, kommer tilbake med en større, betydelig billigere og kinesisk maskinvare-optimert versjon. V4-Pro er den største åpne AI-modellen som noen gang er bygget; begge variantene ligger allerede på Hugging Face under MIT-lisens, og prisene er vesentlig lavere enn hos OpenAI og Anthropic.
Susan Hill

DeepSeek har sluppet forhåndsversjonen av V4-Pro og V4-Flash — to åpen kildekode-språkmodeller som fremmer en tydelig tese: å håndtere en million tokens kontekst er ikke lenger et kapasitetsproblem, kun et effektivitetsproblem. V4-Pro samler 1,6 billioner parametere totalt, hvorav 49 milliarder er aktive per forespørsel — nok til å behandle en hel kodebase eller en fullstendig bok i én eneste prompt. For første gang konkurrerer en åpen modell seriøst med de beste lukkede modellene innen matematikk, programmering og agentoppgaver — og den gjør det til en brøkdel av prisen.

Begge modellene kommer under MIT-lisens, og vektene er allerede offentliggjort på Hugging Face. V4-Flash er den effektive varianten med 284 milliarder parametere totalt og 13 milliarder aktive — kompakt nok til at en kvantisert versjon kan kjøre på en bærbar PC i det øvre sjiktet. V4-Pro er flaggskipet: 865 gigabyte på disk, konstruert for skyutrulling og forskningslaboratorier. Begge deler samme kontekstvindu på én million tokens — et sprang som matcher Googles Gemini og dobler det de fleste konkurrerende åpne modellene tilbyr.

YouTube video

Det arkitektoniske kjerngrepet heter Hybrid Attention: DeepSeek kombinerer to komprimeringsteknikker og presser minnekostnadene så aggressivt ned at V4-Pro ved samme kontekstlengde bare bruker 27 prosent av regnekraften og 10 prosent av mellomlageret som V3.2 krevde. V4-Flash går enda lenger. Konkret betyr det: å kjøre en prompt på én million tokens med V4-Pro koster i dag mindre enn å kjøre en på 100 000 med forrige generasjon. Dette er ikke et teknisk sidepoeng — det er den økonomiske forutsetningen for at langkontekstmodeller skal slutte å være laboratoriedemonstrasjoner og bli kommersielt anvendelige produkter.

Prisgjennombruddet er der lanseringen treffer hardest. V4-Flash er priset til 0,14 dollar per million input-tokens — under selv OpenAIs GPT-5.4 Nano. V4-Pro koster 1,74 dollar per million input-tokens og 3,48 dollar per million output-tokens — en tredjedel av det Anthropic tar for Claude Opus 4.7, og en femtedel av det OpenAI tar for GPT-5.5. I programmeringstester når V4-Pro en Codeforces-rangering på 3 206 — ifølge DeepSeek en verdi som ville plassert modellen på 23. plass blant menneskelige konkurranseprogrammerere i verden.

Den geopolitiske lesningen veier minst like tungt som referansetallene. DeepSeek har optimert V4 for Huaweis Ascend 950-brikker og for silisium fra den kinesiske AI-produsenten Cambricon, og har ikke gitt Nvidia eller AMD tilgang på forhånd til å finslipe ytelsen — en motsatt vei av bransjens vanlige praksis. Lanseringen fungerer som en kommersiell stresstest for hele den kinesiske teknologikjeden, som i årevis har operert under Washingtons eksportrestriksjoner. For Europa blir spørsmålet mer ubehagelig: mens Beijing bygger en komplett suveren kjede — åpne vekter, innenlandske brikker, egen inferensprogramvare — og Washington stenger sin gjennom lovgivning, forblir europeisk digital suverenitet strukturelt avhengig av infrastrukturen i begge blokker.

Flere forbehold er på sin plass. V4 er en forhåndsversjon, ikke en produksjonsversjon, og uavhengige tredjeparts referansetester er ennå ikke gjennomført. DeepSeeks egen tekniske rapport innrømmer at modellen ligger mellom tre og seks måneder bak GPT-5.4 og Gemini 3.1 Pro i frontkapasitet. Forgjengeren R1 ble få uker etter lanseringen forbudt eller begrenset i flere amerikanske delstater, Australia, Taiwan, Sør-Korea, Danmark og Italia — V4 arver den samme regulatoriske eksponeringen intakt i disse markedene. Pentagon-leverandører har dessuten forbud mot å bruke DeepSeek-modeller under den amerikanske NDAA-loven fra 2026, med mindre det foreligger særskilt unntak.

Utenfor disse begrensede sonene er tilgangen umiddelbar. DeepSeeks nettbaserte chatbot gir tilgang til V4-Pro via Expert-modus og V4-Flash via Instant-modus uten kostnad, og utviklere kan kalle API-et ved rett og slett å endre modellnavnet til deepseek-v4-pro eller deepseek-v4-flash.

Lanseringen falt nøyaktig ett år etter at DeepSeek-R1 rystet de globale AI-markedene 20. januar 2025 — tidspunktet er bevisst valgt. Den endelige API-prissettingen etter forhåndsfasen er fortsatt uklar, og de gamle endepunktene deepseek-chat og deepseek-reasoner legges ned 24. juli 2026, da all trafikk automatisk rutes videre til V4. Det som står på spill her rekker langt utover den enkelte referansetesten: det er det første offentlige beviset på at en konkurrerende stormakt kan levere en komplett, konkurransedyktig og rimelig AI-stakk uten amerikanske leverandører — og bare det beviset tegner kartet på nytt for enhver suveren AI-strategi fremover.

Diskusjon

Det er 0 kommentarer.