Suncatcher-gambiten: Innsikt i Googles plan for å erobre KI-fremtiden

Med en ny, ultrapotent brikke utfordrer Google NVIDIA, fyrer opp under et korporativt våpenkappløp og konfronterer den uholdbare energikostnaden ved intelligensen selv. Løsningen? Den er bokstavelig talt ikke av denne verden.

Pictured: Third-generation Cooling Distribution Units, providing liquid cooling to an Ironwood superpod. Source: Google
Susan Hill
Susan Hill
Susan Hill er redaktør i teknologiseksjonen. Hun er opptatt av vitenskap, programmering og, som alle i dette magasinet, lidenskapelig opptatt av film, underholdning og kunst.

Språket vi bruker for teknologi er ofte villedende, designet for å temme og domestisere. Vi blir fortalt at Google har en ny «brikke». Det er et betryggende, kjent ord. En brikke er en liten, livløs firkant av silisium, noe man kan holde i hånden.

Denne superdatamaskinen er bygget modulært. En enkelt fysisk vert inneholder fire Ironwood-brikker, og et rack med disse vertene danner en «kube» med 64 brikker. For å skalere ytterligere, kobles disse kubene sammen med et dynamisk optisk kretskoblingsnettverk (Optical Circuit Switch – OCS), som lar systemet koble sammen opptil 144 kuber til «superpoden» med 9 216 brikker. Denne pod-skalaarkitekturen handler ikke bare om størrelse; den leverer 42,5 FP8 ExaFLOPS med datakraft og tilgang til 1,77 Petabyte delt høyhastighetsminne.

For å forstå hva Google har bygget, må man først forkaste ideen om et separat, individuelt produkt. Den sanne beregningsenheten er ikke lenger prosessoren; det er datasenteret i seg selv. Ironwood, Googles syvende generasjons Tensor Processing Unit (TPU), eksisterer som en «superpod» – en enkelt, sammenhengende superdatamaskin som kobler sammen 9 216 av disse nye brikkene. Denne kolossale arkitekturen kjøles ikke av enkle vifter, men av en «avansert væskekjølingsløsning» i industriell skala, et sirkulasjonssystem som er avgjørende for å avlede den enorme spillvarmen som genereres av dens strømtrekk på 10 megawatt.

For kontekst er 10 megawatt det omtrentlige strømforbruket til en liten by eller en stor industrifabrikk. Dette er den rene «rå kraft»-skalaen til moderne kunstig intelligens. KI er ikke en eterisk, abstrakt «sky». Det er en fysisk tungindustri som forbruker råvarer (i dette tilfellet energi på planetarisk skala) for å produsere en ny, usynlig vare: syntetisk intelligens. Ironwood-poden, med sin konfigurasjon på 9 216 brikker, er den nye motoren i denne industrien, en væskekjølt koloss designet for ett formål: å tenke i en skala som inntil nå var utenkelig.

Dette presenterer umiddelbart den sentrale konflikten i det 21. århundres definerende teknologi. Dette nivået av strømforbruk, skalert på tvers av en hel industri, er fundamentalt uholdbart. Denne 10-megawatts poden er et teknologisk vidunder, men den er også en dyptgripende miljøbelastning. Resten av historien om KI er et forsøk på å hanskes med dette ene, grunnleggende faktum.

Inferensens tidsalder

Det siste tiåret har den primære utfordringen for KI vært «trening». Dette er den kostbare, tidkrevende prosessen med å lære opp en modell, mate den med hele internett for å «lære» språk, logikk og resonnement. Men den æraen er i ferd med å ta slutt. Den nye frontlinjen er «inferensens tidsalder» – den konstante tenkningen i høyt volum og sanntid som modellen utfører etter at den er trent.

Hver gang en KI besvarer et spørsmål, genererer et bilde, eller «proaktivt henter og genererer data», utfører den inferens. Ironwood er, etter Googles eget sigende, deres «første akselerator designet spesifikt for inferens». Dette signaliserer et kritisk markedsskifte. Kampen står ikke lenger bare om å bygge de største modellene, men om å effektivt kjøre «høyvolums, lav-latens KI-inferens og modell-serving» som vil drive den kommende bølgen av «KI-agenter», som Googles egen Gemini.

Det er her Googles sanne strategi avsløres. Ironwood er ikke et produkt som selges; det er en grunnleggende komponent i Googles «AI Hypercomputer». Dette er ikke bare maskinvare, men et vertikalt integrert system der maskinvaren (Ironwood TPU-er og de nye Arm-baserte Axion CPU-ene) er «samdesignet» med en proprietær programvarestabel (stack).

Denne samdesignede programvarestabelen er Googles strategiske vollgrav. Selv om den tilbyr «ut av boksen»-støtte for åpen kildekode-rammeverk som PyTorch for å lokke til seg utviklere, er stabelen i realiteten optimalisert for Googles eget JAX-økosystem.

  • XLA-kompilatoren (Accelerated Linear Algebra) fungerer som den avgjørende oversetteren, og konverterer høynivåkode til hypereffektive instruksjoner som kjører direkte på TPU-silisiumet. Dette gir bred, «ferdig» optimalisering, og oversetter kode fra rammeverk som JAX og PyTorch.
  • Den nye «Cluster Director» for Google Kubernetes Engine (GKE) er orkestreringsverktøyet, en programvare som kan administrere superpoden med 9 216 brikker som én enkelt, robust enhet. Denne programvaren gir topologibevissthet for intelligent planlegging, forenkler administrasjonen av massive klynger og muliggjør robust, selvhelbredende drift.
  • Og innebygd støtte for vLLM maksimerer inferens-gjennomstrømningen, en kritisk komponent for å betjene modeller i «inferensens tidsalder». Denne støtten er avgjørende, ettersom vLLM bruker høyeffektive minnehåndteringsteknikker for å maksimere ytelsen og lar team bytte arbeidsmengder mellom GPU-er og TPU-er med minimale endringer.

Det siste tiåret har NVIDIAs dominans vært bygget ikke bare på deres GPU-er, men på deres proprietære CUDA-programvareplattform – en «vollgrav» som utviklere er låst inne i. Googles AI Hypercomputer er et direkte forsøk på å bygge en rivaliserende, lukket hage. Ved å tilby overlegen ytelse-per-krone kun til de som forplikter seg til deres stabel, posisjonerer Google seg for å bli den fundamentale nyttetjenesten (utility) for KI-økonomien. De selger ikke bilene (som NVIDIA); de tar sikte på å selge elektrisiteten som driver dem.

Kongemakeren og multicloud-krigen

Den ultimate valideringen av denne strategien kom sent i 2025. Anthropic, et ledende KI-laboratorium og hovedrival til OpenAI, annonserte en skjellsettende utvidelse av sitt partnerskap med Google, og forpliktet seg til å bruke deres TPU-infrastruktur, inkludert nye Ironwood, i en svimlende skala: «opptil én million TPU-er».

Dette er ingen tilfeldig investering. Det er en avtale verdt «titusenvis av milliarder av dollar» som vil bringe «langt over en gigawatt kapasitet» på nett for Anthropic innen 2026. Denne ene avtalen tjener som den ultimate rettferdiggjørelsen for Googles tiår lange, multimilliard-satsing på spesialdesignet silisium. Anthropics uttalte begrunnelse for denne massive forpliktelsen var «pris-ytelse og effektivitet», et klart signal om at Googles samdesignede, vertikalt integrerte stabel kan tilby et overbevisende økonomisk alternativ til NVIDIAs dominans.

Men denne historien har en kritisk vending – en som avslører de sanne maktdynamikkene i KI-industrien. Anthropic er ikke eksklusivt Googles. I sin egen kunngjøring var Anthropic nøye med å påpeke at Amazon Web Services (AWS) forblir deres «primære treningspartner og skyleverandør». Dette AWS-partnerskapet er bygget rundt «Project Rainier», en massiv klynge som utnytter hundretusenvis av Amazons egne Trainium2-akseleratorer. Selskapet følger en «diversifisert tilnærming», og spiller strategisk Googles TPU-er, Amazons Trainium-brikker og NVIDIAs GPU-er mot hverandre.

Dette er ikke ubesluttsomhet; det er en briljant overlevelseshandling. Lekkede data viser at Anthropics databehandlingskostnader bare hos AWS slukte så mye som 88,9 % av inntektene deres. Selve eksistensen til KI-laboratoriene avhenger av å få ned denne astronomiske kostnaden. Ved å tvinge frem denne budkrigen, anslår analytikere at Anthropic sannsynligvis sikrer seg sin datakraft – den desidert dyreste delen av virksomheten – med en massiv rabatt på 30–50 %. Ved å offentlig inngå partnerskap med både Google og Amazon, har Anthropic gjort seg selv til «kongemakeren». De tvinger skygigantene inn i en budkrig, og utnytter sin status som et «trofé»-KI-laboratorium for å få gigantene til å effektivt subsidiere deres enorme regninger for datakraft.

Denne dynamikken har fundamentalt endret markedet. Den endelige vinneren vil ikke være den med den raskeste brikken, men den med det beste forholdet mellom beregning, kraft og kostnad. «Ytelse per watt» er ikke lenger et enkelt miljøslagord; det er hele industriens primære strategiske og økonomiske slagmark.

De nye silisiumtitanene: Et anspent oligarki

Lanseringen av Ironwood er et direkte skudd mot NVIDIA, men slagmarken er overfylt. KI-kappløpet utkjempes av et nytt oligarki av silisiumtitaner, en liten håndfull selskaper med kapitalen og den tekniske ekspertisen til å bygge «spadene» til denne nye gullrushet.

  • Den sittende kongen (NVIDIA): NVIDIAs Blackwell-generasjons GPU-er, B100 og B200, og deres forgjenger, H100, forblir industristandarden. Deres dominans er beskyttet av den dype programvare-vollgraven CUDA, som de fleste KI-forskere og -utviklere er trent i.
  • Utfordrerne (Hyperskalererne og AMD):
    • Amazon (AWS): Den mest modne spesialkiselsatsingen blant skyleverandørene. AWS bruker en dobbel-brikke-strategi: «Trainium» for kostnadseffektiv trening og «Inferentia» for høyhastighets, lavkost-inferens. Denne strategien er bundet sammen av AWS Neuron SDK, programvarelaget designet for å optimalisere PyTorch- og TensorFlow-arbeidsmengder for deres spesialtilpassede silisium.
    • Microsoft (Azure): For å betjene de massive behovene til sin nøkkelpartner, OpenAI, har Microsoft utviklet sin egen «Maia 100» KI-akselerator, samdesignet for arbeidsmengdene til ChatGPT og GPT-4. Som en av de største prosessorene bygget på TSMCs 5nm-node, er Maia 100 en 500W-700W brikke som, i likhet med sine rivaler, er samdesignet med sin egen programvarestabel for å portere modeller fra rammeverk som PyTorch.
    • AMD: NVIDIAs tradisjonelle rival, AMD, konkurrerer direkte på ytelse med sin Instinct MI300X-akselerator, som matcher nygenerasjonsbrikker på nøkkelmålinger som minnekapasitet (192 GB).

Dette korporative våpenkappløpet er drevet av tre enkle faktorer:

  1. Kostnad: Å designe din egen brikke er den eneste måten å unnslippe NVIDIAs fortjenestemarginer på «midten av 70 %» og deres premium prising.
  2. Forsyning: Det gir strategisk uavhengighet fra den kroniske mangelen på NVIDIA GPU-er som har vært en flaskehals for hele industrien.
  3. Optimalisering: Det tillater den typen «ytelse per watt»-fordel som Google jakter på – en brikke som er perfekt «samdesignet» for deres spesifikke programvare og sky-arbeidsmengder.

Skygigantene trenger ikke å drepe NVIDIA. De trenger bare å skape et levedyktig, internt alternativ som er godt nok. Dette gjør markedet til en råvare, gir kundene et valg, og tvinger NVIDIA til å senke prisene sine, noe som sparer hyperskalererne for milliarder i deres egne kapitalutgifter.

Skalaen på denne konsolideringen er vanskelig å fatte. De store teknologigigantene, inkludert Google, Meta, Amazon og Microsoft, er satt til å bruke så mye som 375 milliarder dollar på ett enkelt år på bygging av disse datasentrene og KI-maskinvaren for å fylle dem. Inngangsbarrieren til dette nye markedet er svimlende. KI-revolusjonen vil ikke bli avgjort av en smart algoritme i en garasje; den vil bli avgjort av de fem selskapene som har råd til å bygge disse 10-megawatts hjernene.

Oppgjøret mellom KI-akseleratorer i 2025

Google Ironwood (TPU v7): Type: ASIC. Maks HBM (Minne): 192 GB HBM3e. Maks Minnebåndbredde: 7,4 TB/s. Sentral Skaleringsarkitektur: 9 216-brikkers Superpod (9,6 Tb/s ICI). Primært Bruksområde: Inferens & Trening.

NVIDIA Blackwell B200: Type: GPU. Maks HBM (Minne): 192 GB HBM3e. Maks Minnebåndbredde: 8 TB/s. Sentral Skaleringsarkitektur: NVLink 5 (1,8 TB/s). Primært Bruksområde: Generell Trening & Inferens.

AMD Instinct MI300X: Type: GPU. Maks HBM (Minne): 192 GB HBM3. Maks Minnebåndbredde: 5,3 TB/s. Sentral Skaleringsarkitektur: 8-GPU Ring. Primært Bruksområde: Generell Trening & Inferens.

AWS Trainium / Inferentia 2: Type: ASIC. Maks HBM (Minne): (Trn) N/A / (Inf2) 32 GB HBM. Maks Minnebåndbredde: (Inf2) N/A. Sentral Skaleringsarkitektur: AWS Neuron SDK / Klynge. Primært Bruksområde: Delt: Trening (Trn) / Inferens (Inf).

Microsoft Maia 100: Type: ASIC. Maks HBM (Minne): 64 GB HBM2E. Maks Minnebåndbredde: N/A. Sentral Skaleringsarkitektur: Ethernet-basert nettverk. Primært Bruksområde: Intern (OpenAI) Trening & Inferens.

I skyggen av brikkekrigen

Den korporative kampen mellom Google, NVIDIA og Amazon utkjempes i skyggen av en mye større, mer skjebnesvanger konflikt: den geopolitiske «brikkekrigen» mellom USA og Kina.

Hele den moderne verden, fra våre smarttelefoner til våre mest avanserte militærsystemer, er bygget på en skremmende skjør forsyningskjede. Taiwans «silisiumskjold», hjemmet til TSMC, produserer «omtrent 90 % av verdens mest avanserte halvledere». Denne konsentrasjonen av produksjon i Taiwanstredet, et «kritisk geopolitisk brennpunkt», er den enkeltstående største sårbarheten i den globale økonomien.

De siste årene har USA brukt denne avhengigheten som et våpen, og implementert «omfattende eksportkontroller» for å «frata Kina… avanserte brikker» i et forsøk på å bremse landets teknologiske og militære fremvekst. Som svar «pøser Kina milliarder inn i sine ambisjoner om brikkebygging», og akselererer sin «militær-sivile fusjonsstrategi» i en desperat jakt på «selvforsyning med halvledere».

Denne jakten personifiseres av statsstøttede selskaper som Huawei. Deres arbeid med å utvikle egne KI-brikker, som Ascend 910C, utgjør en direkte utfordring mot NVIDIAs dominans i Kina. Denne vertikale integrasjonen, kombinert med Kinas «militær-sivile fusjonsstrategi», gjør det stadig vanskeligere for vestallierte nasjoner å identifisere hvilke deler av den kinesiske forsyningskjeden det er trygt å engasjere seg i.

Denne globale ustabiliteten skaper en eksistensiell risiko for de store teknologiselskapene. En militær konflikt i Taiwan kan stanse KI-industrien over natten. Den kroniske mangelen på NVIDIA-brikker er en mindre ulempe sammenlignet med en katastrofe i forsyningskjeden.

Sett gjennom denne linsen er Googles Ironwood mer enn et konkurrerende produkt; det er en handling av «korporativ suverenitet». Ved å designe sitt eget spesialtilpassede silisium, «reduserer» selskaper som Google, Amazon og Microsoft «risikoen i forsyningskjeden» og «reduserer avhengigheten av tredjepartsleverandører». De eier den intellektuelle eiendommen. De er ikke lenger avhengige av ett enkelt selskap (NVIDIA) eller én enkelt, sårbar region (Taiwan). De kan diversifisere sine produksjonspartnere, og sikre at deres forretningsmodell overlever et geopolitisk sjokk.

Det korporative våpenkappløpet og det geopolitiske er nå to sider av samme sak. De massive investeringene fra Google og Amazon implementerer i praksis amerikansk industripolitikk. De skaper den industrielle ryggraden for en vestlig-alliert teknologisfære («Chip 4»-alliansen) og etablerer en «teknologisk avstand» som Kinas egne løsninger, som Huaweis Ascend 910C, kjemper for å tette.

Beregningens uutholdelige byrde

Dette bringer oss tilbake til 10-megawatts poden. KI-kappløpet, drevet av korporative og geopolitiske ambisjoner, konfronterer nå sine egne fysiske grenser. Miljøprisen for «rå kraft»-skalering er svimlende.

Anthropics avtale for Googles TPU-er er på «over en gigawatt» med strøm. Det tilsvarer 100 Ironwood-poder som kjører samtidig, eller hele produksjonen fra et fullskala kjernekraftverk, dedikert til ett enkelt selskap. Og det selskapet er bare ett av mange.

Karbonavtrykket fra en enkelt «tanke» blir alarmerende tydelig.

  • Å trene én enkelt stor KI-modell kan slippe ut over 284 000 kg (626 000 pund) CO2, «omtrent tilsvarende de samlede livstidsutslippene fra fem amerikanske biler».
  • Én enkelt forespørsel til en KI som ChatGPT bruker «omtrent 100 ganger mer energi enn et vanlig Google-søk».
  • Det totale energiavtrykket til den generative KI-industrien «vokser eksponentielt» og er allerede «likeverdig med det til et lavinntektsland».

Det er ikke bare energi. Datasentre «sluker» også en mer begrenset ressurs: vann. De krever «enorme mengder vann for kjøling», noe som legger et enormt press på lokale ressurser, ofte i regioner som allerede har vannmangel. Industrianslag antyder at det gjennomsnittlige datasenteret allerede bruker 1,7 liter vann for hver kilowattime med energi som forbrukes.

Industrien, inkludert Google, forsøker å avlede denne krisen ved å skryte av «effektivitetsgevinster». Google hevder at Ironwood er «nesten 30 ganger mer energieffektiv enn vår første Cloud TPU fra 2018». Dette er imidlertid en avsporing. Det er et klart eksempel på Jevons paradoks: teknologiske effektivitetsgevinster, når de anvendes på en ettertraktet ressurs, reduserer ikke forbruket. De øker det ved å gjøre ressursen billigere og mer tilgjengelig.

Ironwoods effektivitet løser ikke miljøproblemet; den akselererer det. Det gjør det økonomisk og teknisk mulig å bygge enda større modeller og håndtere enda flere forespørsler, noe som presser det totale energiforbruket stadig høyere. Industriens kappløp om å «prioritere hastighet over sikkerhet og etikk» – et hastverk som har ført til dokumenterte feil som Googles egne partiske Gemini-resultater – skaper en etisk krise på planetarisk nivå, med miljøskadene som en massiv, eksternalitet utenfor balansen.

Denne etiske krisen stammer fra KI-systemers potensial til å bygge inn og forsterke menneskelige skjevheter, true menneskerettigheter og manipulere opinionen gjennom feilinformasjon. Den amerikanske riksrevisjonen (GAO) har bemerket at selv med overvåking, forblir disse systemene, når de hastes ut på markedet, sårbare for angrep som genererer faktisk ukorrekte eller partiske resultater. Denne «våpenkappløp»-dynamikken, der selskapenes mål om rask utrulling overstyrer sikkerhetsprotokoller, skaper en grunnleggende spenning mellom innovasjon og ansvar.

Koda: Suncatcher på himmelen

Googles ingeniører er ikke blinde for dette paradokset. De ser energiforbruksgrafene. De forstår at «rå kraft»-skaleringen til KI har et jordisk tak. Løsningen de foreslår er den perfekte, surrealistiske metaforen for hele industrien.

Det er et langsiktig, visjonært forskningsprosjekt («moonshot») kalt «Project Suncatcher».

Planen er å skyte opp KI-datasentre i verdensrommet. Disse «kompakte konstellasjonene av solcelledrevne satellitter», utstyrt med Googles TPU-er og koblet sammen med «optiske lenker i fritt rom» (free-space optical links), vil bli plassert i en «sol-synkron lav jordbane som følger skumringssonen» (dawn-dusk). Der vil de motta «nesten kontinuerlig sollys», noe som løser energiproblemet, mens vakuumet i rommet vil tilby en løsning for kjøling uten vann.

Dette er ikke fantasi. Google har allerede testet sine Trillium-generasjons TPU-er i en partikkelakselerator for å simulere strålingsnivåene i lav jordbane, og brikkene «overlevde uten skade». En prototype-oppskytning i samarbeid med Planet Labs er planlagt tidlig i 2027.

Prosjekt Suncatcher er en stilltiende innrømmelse av jordisk fiasko. Det er en bekjennelse av at veien industrien har valgt – veien drevet av 10-megawatts hjerner som Ironwood – er uholdbar på planeten Jorden. Prosjektets mål er, med Googles egne ord, å «minimere innvirkningen på jordens ressurser» fordi «miljøbelastningen» fra deres eget veikart er i ferd med å bli for tung å bære.

Dette er det ultimate uttrykket for det teknologisk sublime. KI-kappløpet, i sin jakt på en gudeaktig intelligens, skaper en fremtid der beregningskostnaden for vår egen nysgjerrighet er så stor at vi bokstavelig talt må rømme fra vår egen planet for å opprettholde den. Ironwood-brikken er motoren. Hypercomputer er fabrikken. Brikkekrigen er skyggen. Og Prosjekt Suncatcher er fluktluken – et desperat, briljant og skremmende logisk sprang ut i tomrommet.

Denne logikken er imidlertid ikke uten sine egne dype tekniske og økonomiske utfordringer. Skeptikere er raske til å påpeke at verdensrommet ikke er en magisk løsning for kjøling; det er «den beste varmeisolatoren som finnes». Et rombasert datasenter vil ikke kjøles passivt, men vil kreve massive, komplekse radiatorer av sammenlignbar størrelse med solcellepanelene. Disse systemene må også hanskes med de ekstreme kostnadene ved vedlikehold og det konstante bombardementet av stråling som ødelegger prosessorer – hindringer som gjør denne «fluktluken» til et vågespill av sannelig astronomiske proporsjoner.

Del denne artikkelen
Ingen kommentarer

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *