Hvordan vi driver og utvikler kunstig intelligens har fått en ny dimensjon. De siste årene har energiforbruket til store språkmodeller (LLM) skapt betydelig bekymring. Nå kan en spansk teknologibedrift ha funnet en løsning: kraftig komprimerte KI-modeller som bevarer ytelse og intelligens, samtidig som energibehovet stuper.
En ny vei for grønn KI
Multiverse Computing har nettopp hentet inn hele 189 millioner euro for å rulle ut CompactifAI, en metode som komprimerer språkmodeller med opptil 95 prosent. Samtidig melder selskapet om potensielle strømbesparelser på 80 til 90 prosent, avhengig av brukstilfelle.
Dette er store påstander. Hvis de stemmer, har vi med en mulig teknologisk snuoperasjon å gjøre: i stedet for stadig større og mer energikrevende modeller, kan fremtiden ligge i smartere, mindre og grønnere algoritmer.
Hva betyr egentlig komprimering?
CompactifAI bygger på såkalte tensor networks, en kvanteinspirert teknologi som reduserer størrelsen på en modell dramatisk, uten å miste det som gjør den nyttig. Den forstår fortsatt språk, gir gode svar og bevarer relevant kontekst. Men den bruker langt mindre datakraft og dermed også mindre strøm.
Multiverse hevder dette muliggjør avansert generativ KI på alt fra mobiltelefoner til PC-er, og kutter både infrastrukturkostnader og karbonavtrykk.
Hvorfor snakkes det ikke mer om dette?
Her må jeg være ærlig, jeg er mildt sjokkert over at ikke flere medier har plukket opp denne nyheten fra energivinkelen. Hvis vi faktisk kan redusere det globale strømbehovet til KI med 80 prosent, så burde dette få massiv dekning.
Det er her jeg kommer med en viktig forbehold: det er mulig jeg har misforstått tallene. Energibesparelse er nevnt, men ofte i sammenheng med ytelse og kostnad, ikke alltid eksplisitt strømforbruk i kilowattimer. Likevel virker det som flere kilder antyder det samme: mindre modeller betyr dramatisk lavere energibruk.
Om jeg faktisk har forstått dette riktig, så fortjener teknologien langt større oppmerksomhet enn den har fått til nå.
Patenter og potensial
Multiverse har sikret seg over 160 patenter innen optimalisering, tensor-nettverk og distribusjon av KI-modeller. Det kan vise seg avgjørende når teknologien skal rulles ut internasjonalt. Med patentene kan selskapet lisensiere teknologien og samtidig beskytte innovasjonen sin, noe som igjen kan hjelpe med bred adopsjon, og gjøre grønn KI tilgjengelig for flere.
Mine tanker
Jeg liker å være forsiktig med superlativer, men her står vi kanskje foran et paradigmeskifte innen kunstig intelligens. Dette føles stort! (Ok, kanskje jeg bare liker å tro at jeg er forsiktig med superlativer, for det er ikke første gang. Kanskje første gang jeg bruker «paradigmeskifte», men jeg har vel brukt ord som «banebrytende» og «revolusjonerende» i andre sammenhenger også. Men hva skal jeg gjøre da, når jeg mener nyheten er så stor! 😄) Komprimert KI kan gjøre generativ teknologi mer tilgjengelig, billigere å drifte, og ikke minst langt mer miljøvennlig. Det gjenstår selvsagt å se hvordan dette fungerer i praksis, i datasentre og hverdagsapplikasjoner, men jeg følger spent med.
Dersom denne teknologien faktisk kan levere slike strømbesparelser som antydet, er det på tide at energibruken får like mye fokus som intelligensen. Fremtidens KI må være både smart og bærekraftig. Kanskje CompactifAI er et viktig skritt på veien dit.
Kilde:
Spain’s Multiverse raises $217 million for compressing AI models – Reuters
CompactifAI – Multiverse Computing