Intelligensens nye fysikk: Termodynamisk databehandling og slutten på det digitale deterministiske paradigmet

Den energetiske begivenhetshorisonten: Krisen i moderne databehandling

Intelligensens nye fysikk: Termodynamisk databehandling og slutten på det digitale deterministiske paradigmet
Susan Hill
Susan Hill
Susan Hill er redaktør i teknologiseksjonen. Hun er opptatt av vitenskap, programmering og, som alle i dette magasinet, lidenskapelig opptatt av film, underholdning og kunst.

Den teknologiske sivilisasjonen står overfor et eksistensielt paradoks. Mens etterspørselen etter kunstig intelligens (KI) vokser eksponentielt, drevet av utbredelsen av store språkmodeller (LLM-er) og generative systemer, nærmer den fysiske infrastrukturen som understøtter disse fremskrittene seg raskt uoverstigelige termodynamiske grenser. Den rådende fortellingen om Moores lov – den konstante doblingen av transistorer og effektivitet – har begynt å slå sprekker. Dette skyldes ikke en manglende evne til ytterligere miniatyrisering, men snarere de fundamentale begrensningene knyttet til varmeavledning og energiforbruk. I denne kritiske konteksten fremtrer termodynamisk databehandling (thermodynamic computing), et paradigmeskifte som ikke bare lover å dempe energikrisen, men også å redefinere selve naturen av informasjonsbehandling.

Wattens tyranni i den generative KIs tidsalder

Dagens dataarkitektur, basert på von Neumann-modellen og deterministisk boolsk logikk, møter det ekspertene kaller «Energimuren». Trening og inferens av avanserte KI-modeller avhenger nesten utelukkende av grafikkprosesseringsenheter (GPU-er), som den allestedsnærværende NVIDIA H100. En enkelt av disse enhetene har et termisk designforbruk (TDP) på 700 watt, og når de grupperes i HGX H100-systemer, overstiger forbruket 2000 watt per rack. Denne effekttettheten forvandler moderne datasentre til digitale smelteovner som krever massiv kjøleinfrastruktur og forbruker vann og elektrisitet i industriell skala.

Makroøkonomiske data bekrefter at krisen er umiddelbart forestående. Goldman Sachs anslår at den globale etterspørselen etter energi fra datasentre vil øke med 165 % innen utgangen av dette tiåret. Samtidig estimerer Det internasjonale energibyrået (IEA) at datasentrenes strømforbruk kan dobles innen 2026 og nå 1000 TWh – et tall som tilsvarer Japans totale strømforbruk. Denne veksten er ikke lineær, men følger den eksponentielle kurven for KI-modellenes kompleksitet, noe som skaper en uholdbar situasjon der 92 % av datasenterledere allerede identifiserer strømnettets begrensninger som det største hinderet for skalering.

Determinismens iboende ineffektivitet

Det grunnleggende problemet ligger ikke bare i mengden beregninger, men i deres fysiske kvalitet. Moderne digital databehandling opererer under et regime av støyundertrykking. For å garantere at en bit utvetydig er en 0 eller en 1, må transistorer arbeide ved spenninger som langt overstiger elektronenes naturlige «termiske støy». Denne konstante kampen mot entropien – anstrengelsen for å opprettholde perfekt orden i et kaotisk fysisk medium – medfører en enorm energikostnad.

Enhver logisk operasjon i en digital prosessor innebærer lading og utlading av kondensatorer samt bevegelse av elektroner gjennom motstander, noe som genererer spillvarme. Denne varmen bidrar ikke til beregningen, men representerer energi som går tapt i den «friksjonen» som er nødvendig for å påtvinge determinisme. Som forskere påpeker, «betaler» konvensjonelle systemer med energi for å undertrykke stokastisitet (tilfeldighet). Dessuten betyr det fysiske skillet mellom minne og prosesseringsenhet (von Neumann-flaskehalsen) at en stor del av energien brukes bare på å flytte data fra et sted til et annet, fremfor å behandle dem.

Det termodynamiske alternativet

I møte med dette scenarioet foreslår termodynamisk databehandling en radikal omveltning av de operasjonelle prinsippene. I stedet for å bruke energi på å bekjempe termisk støy, søker denne disiplinen å utnytte den som en beregningsressurs. Den bygger på premisset om at naturen regner effektivt gjennom relaksasjonsprosesser mot termisk likevekt. Ved å justere dataarkitekturen etter informasjonens underliggende fysikk, blir det mulig å utføre komplekse oppgaver – spesifikt den probabilistiske samplingen som generativ KI krever – med en effektivitet som er flere størrelsesordener høyere enn hos digitale transistorer.

Denne tilnærmingen er ikke bare teoretisk. Selskaper som Extropic og Normal Computing har begynt å produsere maskinvare som materialiserer disse prinsippene, og lover effektiviteter opptil 10 000 ganger høyere enn dagens teknologier. Denne rapporten analyserer status for denne teknologien, dens fysiske fundament, nøkkelaktørene samt de geopolitiske og økonomiske implikasjonene av en overgang til fysikkbasert databehandling.

Fysiske fundamenter: Fra den deterministiske biten til den stokastiske p-biten

For å forstå omfanget av innovasjonen som termodynamisk databehandling representerer, er det nødvendig å dykke ned på det fysiske nivået for kretsenes funksjon. Forskjellen mellom en konvensjonell brikke og en termodynamisk sampling-enhet (TSU) er ikke en gradsforskjell, men en ontologisk forskjell.

Ikke-likevektstermodynamikk og beregning

Den generelle teorien som underbygger disse fremskrittene er statistisk fysikk utenfor likevekt, ofte kalt stokastisk termodynamikk. Dette feltet gir verktøyene for å analysere systemer som er langt fra termisk likevekt, slik som datamaskiner. I klassisk databehandling følger man Landauers prinsipp, som fastsetter en teoretisk nedre grense for energien som kreves for å slette en bit informasjon, noe som avgir varme til omgivelsene. Termodynamisk databehandling opererer imidlertid under andre dynamikker.

Termodynamiske enheter er designet for å utvikle seg under Langevin-dynamikk (dempet eller underdempet). Dette betyr at det fysiske systemet naturlig «søker» sin tilstand av minimal energi. Hvis man koder et matematisk problem inn i enhetens energilandskap, løser systemet problemet simpelthen ved å slappe av mot sin termiske likevektstilstand. I dette paradigmet er beregning ikke en serie tvungne logiske trinn, men en naturlig fysisk prosess, analogt med hvordan en vanndråpe finner den raskeste veien ned et fjell, eller hvordan et protein folder seg til sin optimale konfigurasjon.

Den probabilistiske biten (p-bit)

Den fundamentale enheten i denne nye arkitekturen er p-biten (probabilistisk bit). I motsetning til en digital bit, som er statisk til den får beskjed om å endre seg, fluktuerer en p-bit kontinuerlig mellom 0 og 1 på nanosekund-skalaer, drevet av den omgivende termiske støyen. Denne fluktuasjonen er imidlertid ikke helt tilfeldig; den kan påvirkes (vektes) via styrespenninger slik at p-biten for eksempel tilbringer 80 % av tiden i tilstand 1 og 20 % i tilstand 0.

Denne oppførselen etterligner sannsynlighetsfordelinger. Ved å koble sammen flere p-biter skaper man en krets som representerer en kompleks felles sannsynlighetsfordeling. Når man «leser» kretsens tilstand på et gitt tidspunkt, får man en gyldig prøve (sample) av denne fordelingen. Dette er avgjørende fordi moderne generativ KI fundamentalt sett handler om sannsynligheter: å forutsi det mest sannsynlige neste ordet eller generere den mest plausible pikselen i et bilde.

Nativ sampling kontra digital simulering

Effektivitetsfordelen på «10 000x» som Extropic proklamerer, stammer fra denne strukturelle forskjellen. I en digital (deterministisk) GPU krever generering av en tilfeldig stikkprøve fra en kompleks fordeling kjøring av pseudo-tilfeldige algoritmer (PRNG) som forbruker tusenvis av klokkesykluser og millioner av transistoroperasjoner. GPU-en er nødt til å simulere tilfeldighet gjennom kompleks deterministisk aritmetikk.

I motsetning til dette genererer den termodynamiske brikken stikkprøven nativt. Den simulerer ikke støy; støjen er motoren i beregningen. Fysikken gjør grovjobben med å generere tilfeldigheten, noe som eliminerer behovet for komplekse aritmetiske logiske enheter (ALU) for denne spesifikke oppgaven. Det er i bunn og grunn støyassistert analog databehandling, hvor det fysiske mediet utfører den matematiske operasjonen øyeblikkelig.

Operasjonell egenskapDigital databehandling (GPU/CPU)Termodynamisk databehandling (TSU)
BasisenhetCMOS-transistor (Deterministisk bryter)p-bit (Stokastisk oscillator)
Forhold til støyUndertrykking (Støy = Feil)Utnyttelse (Støy = Ressurs/Drivstoff)
BeregningsmekanismeSekvensiell boolsk aritmetikkFysisk relaksasjon til minimal energitilstand
EnergiforbrukHøyt (Kjemper mot termodynamikken)Minimalt (Flyter med termodynamikken)
Ideell anvendelsePresise beregninger, eksakt logikkProbabilistisk inferens, Optimering, Generativ KI

Extropic: Arkitektur og usikkerhetens strategi

Extropic, med base i USA, har posisjonert seg som den kommersielle spydspissen for denne teknologien. Grunnlagt av Guillaume Verdon (tidligere fysiker hos Google og kjent i den digitale sfæren som «Beff Jezos», leder av bevegelsen for effektiv akselerasjonisme eller e/acc) og Trevor McCourt, har selskapet gått fra teori til fremstilling av håndfast silisium.

X0-brikken: Validering av probabilistisk silisium

Extropics første konkrete milepæl er X0-brikken. Denne enheten er en testprototype designet for å validere at probabilistiske kretser kan fremstilles ved hjelp av standard halvlederprosesser og fungere ved romtemperatur. I motsetning til kvantedatamaskiner som krever temperaturer nær det absolutte nullpunkt, bruker X0 omgivelsesvarmen som kilde til entropi.

X0 huser en familie av kretser designet for å generere stikkprøver fra primitive sannsynlighetsfordelinger. Dens primære funksjon har vært å bekrefte presisjonen i Extropics støymodeller: å demonstrere at man kan designe en transistor til å være «støyende» på en forutsigbar og kontrollerbar måte. Denne bragden er betydelig, ettersom halvlederindustrien har brukt 60 år på å optimalisere prosesser for å eliminere støy; å gjeninnføre den kontrollert krever en dyp beherskelse av materialfysikk.

Utviklingsplattformen XTR-0

For å gi forskere og utviklere mulighet til å samhandle med denne nye fysikken, har Extropic lansert plattformen XTR-0. Dette systemet er ikke en frittstående datamaskin, men en hybridarkitektur. Fysisk består den av et trapesformet hovedkort som huser en konvensjonell CPU og en FPGA, koblet til to datterkort som inneholder de termodynamiske X0-brikkene.

Funksjonen til XTR-0 er å fungere som en bro. CPU-en styrer den generelle arbeidsflyten og den deterministiske logikken, mens FPGA-en fungerer som en høyhastighetsoversetter som sender instruksjoner og parametere til X0-brikkene og mottar de genererte probabilistiske stikkprøvene. Denne arkitekturen anerkjenner en pragmatisk virkelighet: Termodynamiske datamaskiner vil ikke erstatte digitale for oppgaver som å kjøre et operativsystem eller behandle et regneark. Deres rolle er som spesialiserte akseleratorer, analogt med hvordan GPU-er akselererer grafikk, men dedikert utelukkende til KIs probabilistiske arbeidsbelastning.

Z1-brikken og visjonen om skala

Extropics endelige mål er ikke X0, men den fremtidige Z1-brikken. Det anslås at denne enheten vil huse hundretusener eller millioner av sammenkoblede p-biter, noe som gjør det mulig å kjøre dype generative KI-modeller fullstendig på det termodynamiske substratet. Simuleringer utført av selskapet antyder at denne brikken vil kunne utføre bilde- eller tekstgenereringsoppgaver med et energiforbruk som er 10 000 ganger lavere enn en tilsvarende GPU.

Z1s arkitektur er basert på massiv lokal konnektivitet. I motsetning til GPU-er, hvor data reiser over lange avstander gjennom brikken (noe som forbruker energi), er minne og beregning i Extropics design sammenflettet. P-biter samhandler kun med sine umiddelbare naboer, noe som skaper et nettverk av lokale interaksjoner som til sammen løser globale problemer. Dette eliminerer en stor del av energikostnadene ved dataflytting.

Native algoritmer: Den termodynamiske støyreduksjonsmodellen (DTM)

Revolusjonerende maskinvare krever revolusjonerende programvare. Å forsøke å kjøre standard dyplæringsalgoritmer (basert på deterministisk matrisemultiplikasjon) på en termodynamisk brikke ville være ineffektivt. Derfor har Extropic utviklet en ny klasse av native algoritmer.

Energibaserte modeller (EBM-er)

Det teoretiske grunnlaget for Extropics programvare er energibaserte modeller (Energy-Based Models eller EBM-er). I maskinlæring lærer en EBM å assosiere lav «energi» med data som virker realistiske (som bildet av en katt), og høy energi med støy eller ukorrekte data. Å generere data med en EBM innebærer å finne lavenergikonfigurasjoner.

EBM-er har eksistert teoretisk i flere tiår, men falt i unåde sammenlignet med dype nevrale nettverk fordi det er ekstremt tregt å trene og bruke dem på digitale datamaskiner. De krever en prosess kalt Gibbs-sampling, som er beregningsmessig prohibitiv på en CPU eller GPU. Extropics brikke utfører imidlertid Gibbs-sampling nativt og nesten øyeblikkelig. Det som er en svakhet for digitalt silisium, blir den fundamentale styrken for termodynamisk silisium.

Denoising Thermodynamic Model (DTM)

Extropics flaggskipsalgoritme er den termodynamiske støyreduksjonsmodellen (DTM). Denne modellen fungerer på samme måte som moderne diffusjonsmodeller (som de som driver Midjourney eller Stable Diffusion), som starter med ren støy og gradvis foredler den til et klart bilde oppnås.

Men mens en diffusjonsmodell på en GPU matematisk må beregne hvordan støyen fjernes trinn for trinn, bruker DTM brikkens fysikk til å utføre transformasjonen. Den termodynamiske maskinvaren tillater den «støyende» tilstanden å utvikle seg fysisk mot den «ordnede» tilstanden (det endelige bildet) ved å følge termodynamikkens lover. Simuleringer indikerer at denne tilnærmingen ikke bare er raskere, men krever størrelsesordener mindre energi, fordi prosessen med «støyreduksjon» utføres av systemets naturlige tendens mot likevekt, ikke av billioner av flyttallsmultiplikasjoner.

Det konkurrerende økosystemet: Divergerende tilnærminger til fysisk databehandling

Selv om Extropic har fanget medienes oppmerksomhet med sine dristige påstander og cyberpunk-estetikk, er det ikke den eneste aktøren på dette området. Kappløpet om termodynamisk og probabilistisk databehandling inkluderer andre sofistikerte konkurrenter som Normal Computing, hver med ulike tekniske og markedsmessige filosofier.

Normal Computing: Pålitelighet gjennom stokastisitet

Normal Computing, med base i New York og grunnlagt av tidligere ingeniører fra Google Brain og Alphabet X, angriper problemet fra en litt annen vinkel. Mens Extropic fokuserer på hastighet og rå effektivitet for generering (akselerasjonisme), legger Normal vesentlig vekt på pålitelighet, sikkerhet og kvantifisering av usikkerhet i kritiske systemer.

Deres teknologi er basert på den Stokastiske Prosesseringsenheten (SPU). I likhet med Extropic bruker de termisk støy, men deres matematiske rammeverk fokuserer på spesifikke stokastiske prosesser som Ornstein-Uhlenbeck-prosessen (OU). OU-prosessen er en stokastisk prosess med tilbakevending til gjennomsnittet (mean-reverting), nyttig for modellering av systemer som fluktuerer, men har en tendens til å vende tilbake til et stabilt sentrum.

Normal Computing har nådd betydelige milepæler, som «tape-out» (ferdigstillelse av design for produksjon) av deres brikke CN101. Denne brikken er designet for å demonstrere levedyktigheten til den termodynamiske arkitekturen på ekte silisium. Deres veikart inkluderer de fremtidige brikkene CN201 og CN301, som er beregnet på å skalere høyoppløselige diffusjonsmodeller og video innen 2027–2028.

Nøkkelforskjell: Extropic ser ut til å optimalisere for maksimal entropi og generativ kreativitet til lave energikostnader (ideelt for kunst, tekst, idéutvikling). Normal Computing ser ut til å optimalisere for «forklarbar KI» og pålitelighet, ved å bruke probabilistisk maskinvare for å la KI-en «vite hva den ikke vet» og styre risiko i forretnings- eller industriapplikasjoner.

Neuromorfisk kontra termodynamisk databehandling

Det er avgjørende å skille termodynamisk databehandling fra neuromorfisk databehandling (representert ved brikker som IBMs TrueNorth eller Intels Loihi). Neuromorfisk databehandling forsøker å etterligne hjernens biologiske arkitektur (nevroner, synapser, spenningstopper), ofte ved hjelp av deterministiske digitale eller analoge kretser.

Termodynamisk databehandling etterligner derimot hjernens fysikk. Den biologiske hjernen opererer i et vått og støyende miljø ved 37 °C og bruker termisk støy til å fasilitere kjemiske reaksjoner og signaloverføring. Den kjemper ikke mot støyen; den bruker den. Extropic og Normal Computing argumenterer for at etterligning av fysikken (termodynamikk) er en mer direkte vei til effektivitet enn bare å etterligne strukturen (neuromorfikk).

Dybdeanalyse av effektiviteten: Dekonstruksjon av «10 000x»

Påstanden om en effektivitetsforbedring på 10 000 ganger er ekstraordinær og krever en streng teknisk gjennomgang. Hvor nøyaktig kommer dette tallet fra, og er det realistisk i produksjonsmiljøer?

Besparelsens fysikk

Energibesparelsen stammer fra tre hovedkilder:

  1. Eliminering av dataflytting: I en GPU forbruker lesing av en models vekter fra VRAM-minnet mer energi enn selve beregningen. I Extropics TSU er modellens vekter fysisk innkodet i koblingene mellom p-biter. Beregningen skjer der dataene er.
  2. Passiv beregning: I en digital krets tvinger klokken frem tilstandsoverganger millioner av ganger i sekundet, noe som forbruker aktiv energi i hver syklus. I en termodynamisk krets utvikler systemet seg passivt mot løsningen. Energien leveres i stor grad av omgivelsesvarmen (termisk støy), som er «gratis».
  3. Sampling-effektivitet: Som diskutert krever generering av en statistisk stikkprøve digitalt tusenvis av operasjoner. Termodynamisk er det en enkelt operasjon. Hvis en oppgave krever å ta millioner av prøver (som i videogenerering), akkumuleres fordelen lineært til den når størrelsesordener.

Sammenligning av reelt forbruk

For å sette dette i perspektiv, la oss vurdere trening og inferens av modeller som LLaMA. Meta trente LLaMA 3 ved hjelp av 16 000 H100 GPU-er. Hvis vi antar et konservativt gjennomsnittsforbruk, løper energikostnadene opp i hundrevis av gigawattimer. I inferensfasen (daglig bruk), hvis millioner av brukere spør modellen, overstiger det akkumulerte forbruket treningens.

Hvis en termodynamisk brikke kan utføre den samme inferensen ved å forbruke milliwatt i stedet for hundrevis av watt, endres KIs økonomiske levedyktighet radikalt. Det ville gjøre det mulig å kjøre modeller på GPT-4-nivå på en smarttelefon uten å tømme batteriet på få minutter, eller å rulle ut smarte sensorer i landbruket som fungerer i årevis på et lite batteri.

Begrensninger og forbehold

Tallet på 10 000x stammer imidlertid fra simuleringer av spesifikke benchmarks optimalisert for denne maskinvaren. I blandede arbeidsbelastninger, der deterministisk logikk, dataforbehandling og kommunikasjon med CPU-en er påkrevd, vil den globale systemeffektiviteten (Amdahls lov) være lavere. I tillegg er analog presisjon i sin natur begrenset. For finansielle beregninger som krever nøyaktig 64-bits presisjon, er termodynamisk databehandling uegnet. Dens nisje er probabilistisk inferens, ikke nøyaktig bokføring.

EffektivitetsmetrikkDigital GPU (H100)Termodynamisk TSU (Projektert)Teoretisk forbedringsfaktor
Operasjoner per JouleBegrenset av Landauer-barrieren og CMOS-arkitekturKun begrenset av termisk bakgrunnsstøy~10^3 – 10^5
Sampling-latensHøy (krever sekvensielle PRNG-iterasjoner)Svært lav (fysisk øyeblikkelig)~100x – 1000x
KretskompleksitetHøy (millioner av transistorer for styringslogikk)Lav (enkle p-biter og koblinger)Høy arealtetthet

Utfordringer ved produksjon og skalering: Maskinvarens dødsdal

Datahistorien er fylt med lovende teknologier (memristorer, optisk databehandling, spintronikk) som feilet i forsøket på å skalere. Termodynamisk databehandling står overfor betydelige barrierer for å komme ut av laboratoriet.

Prosessvariabilitet og kalibrering

Den største utfordringen for Extropic og Normal Computing er homogenitet. I moderne brikkeproduksjon (5nm eller 3nm noder) finnes det mikroskopiske variasjoner mellom transistorer. Digitalt håndteres dette med sikkerhetsmarginer. I det analoge/termodynamiske, hvor «støyen» er signalet, endrer en variasjon i transistorstørrelse dens sannsynlighetsprofil.

Hvis hver p-bit har en litt forskjellig bias på grunn av produksjonsfeil, vil brikken ikke representere den korrekte sannsynlighetsfordelingen. Å kalibrere millioner av individuelle p-biter for å kompensere for disse variasjonene kunne kreve massive digitale styringskretser, noe som ville spise opp en del av energi- og plassbesparelsene. Extropic hevder å ha løst dette med robuste kretsdesign, men den virkelige testen kommer med masseproduksjonen av Z1-brikken.

Integrasjon i programvareøkosystemet

Maskinvare er ubrukelig uten et økosystem. NVIDIA dominerer KI ikke bare på grunn av sine brikker, men på grunn av CUDA, deres programvarelag. For at utviklere skal ta i bruk TSU-er, må den fysiske kompleksiteten abstraheres bort. Extropic har lansert Thrml, et Python-bibliotek som lar utviklere definere energimodeller og kjøre dem i backend (enten simulert på GPU eller ekte på XTR-0). Suksessen vil avhenge av hvor transparent denne integrasjonen er med PyTorch og TensorFlow. Hvis ML-ingeniører må lære statistisk fysikk for å programmere brikken, vil adopsjonen være null.

Konkurransen fra Moores lov

Digital teknologi står ikke stille. NVIDIA, AMD og Intel fortsetter å optimalisere sine arkitekturer for KI (f.eks. FP8-presisjon, Blackwell-arkitekturer). Termodynamisk databehandling jager et bevegelig mål. Når Z1-brikken når det kommersielle markedet, vil konvensjonelle GPU-er ha forbedret sin effektivitet. Fordelen på «10 000x» er en stor buffer, men gjennomføringen må være rask for ikke å miste mulighetsvinduet.

Geopolitiske og økonomiske implikasjoner

Fremveksten av denne teknologien har forgreninger som strekker seg utover serverrommet og påvirker nasjonal strategi og den globale KI-økonomien.

KI-suverenitet og desentralisering

For tiden er avansert KI et oligopol kontrollert av enheter som er i stand til å finansiere datasentre til milliarder av dollar og få tilgang til begrensede forsyninger av GPU-er. Ettersom termodynamisk databehandling drastisk reduserer energi- og maskinvarekostnader (ved å bruke eldre og billigere silisiumproduksjonsprosesser, da de ikke krever den nyeste 3nm-litografien for å fungere), kan det demokratisere tilgangen til «superintelligens».

Dette vil gi mindre nasjoner eller mellomstore selskaper mulighet til å drive sine egne grunnmodeller uten å være avhengige av amerikanske skygiganters (Microsoft, Google, Amazon) infrastruktur. Det er en potensiell vektor for større teknologisk suverenitet.

Innvirkning på strømnettet og bærekraft

IEA og regjeringer er bekymret over datasentrenes forbruk. Steder som Irland eller det nordlige Virginia forbruker datasentre tosifrede prosentandeler av det totale nettet. Termodynamisk databehandling tilbyr en «sikkerhetsventil» for dette presset. Hvis industrien migrerer en del av sine inferensbelastninger til termodynamisk maskinvare, kan man koble KIs vekst fra veksten i karbonavtrykket, noe som gjør det mulig å oppfylle klimamål uten å bremse teknologiske fremskritt.

Akselerasjonismens filosofi (e/acc)

Man kan ikke ignorere den ideologiske komponenten. Guillaume Verdon, CEO for Extropic, er en sentral figur i e/acc-bevegelsen, som tar til orde for ubegrenset og raskt teknologisk fremskritt som et moralsk og termodynamisk imperativ for universet. Extropic er ikke bare et selskap; det er den fysiske manifestasjonen av denne ideologien. De søker å maksimere universets produksjon av entropi og intelligens. Dette står i kontrast til visjoner om «Deselerasjon» eller «KI-sikkerhet» (Safetyism). Extropics suksess ville være en kulturell og teknisk seier for den akselerasjonistiske fløyen i Silicon Valley.

Den naturlige intelligensens daggry

Termodynamisk databehandling representerer det hittil mest seriøse forsøket på å lukke gapet mellom kunstig og naturlig beregning. I sytti år har vi bygget datamaskiner som fungerer som rigide byråkratier: De følger nøyaktige regler, arkiverer data på presise steder og bruker enorm energi på å sikre at intet avviker fra normen. I mellomtiden har den menneskelige hjernen – og naturen selv – operert som en jazzmusiker: improvisert, brukt støy og kaos som en del av melodien og oppnådd briljante resultater med en forbløffende energieffektivitet.

De teknologier som presenteres av Extropic og Normal Computing, gjennom enheter som X0 og CN101, antyder at vi er klare til å vedta denne andre tilnærmingen. Løftet om en energieffektivitet på 10 000x er ikke bare en inkrementell forbedring; det er et faseskifte som vil muliggjøre kunstig intelligens overalt.

Veien er imidlertid brolagt med tekniske risikoer. Overgangen fra digital determinisme til termodynamisk probabilisme vil kreve ikke bare nye brikker, men en komplett gjenopplæring i hvordan vi tenker om algoritmer, presisjon og beregningens natur. Hvis det lykkes Extropic å skalere sine p-biter, og Normal Computing klarer å sertifisere sikkerheten til sine stokastiske prosesser, er det mulig at vi om et tiår vil se på de nåværende GPU-ene – disse 700-watts silisiumovnene – med samme nostalgi og undring som vi i dag betrakter 1940-tallets vakuumrør med. Æraen med å kjempe mot termodynamikken er over; æraen med å regne med den har begynt.

Det post-digitale databehandlingslandskapet

DimensjonKlassisk digital tilnærmingTermodynamisk tilnærming (Extropic/Normal)
FilosofiTotal kontroll, feilundertrykkingAksept av kaos, bruk av støy
Fysisk grenseVarmeavledning, Moores lovFundamentale entropiske grenser
KI-modellDype nevrale nettverk (DNN)Energibaserte modeller (EBM), Diffusjon
MaskinvareGPU, TPU (Høy effekt)TSU, SPU (Lav effekt, Passiv)
FremtidsvisjonDatasentre på størrelse med byerAllestedsnærværende, desentralisert og ambient intelligens
Del denne artikkelen
Ingen kommentarer

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *