Table of Contents
Det å kjøre ChatGPT lokalt er nå en realitet med Microsoft Foundry Local. Du kan installere og kjøre KI-modeller direkte på din egen PC, helt uten at data sendes til eksterne servere. Dette betyr at du beholder full kontroll over informasjonen din, samtidig som du får raskere svar og kan jobbe selv når du ikke er koblet til internett. Med støtte for både lettvektsmodeller og kraftigere alternativer som OpenAI sine gpt-oss-modeller, åpner Foundry Local for spennende muligheter både for privatpersoner og utviklere.
Hva er Microsoft Foundry Local?
Microsoft Foundry Local er en lokal variant av Azure AI Foundry, utviklet for å kjøre modeller som ChatGPT direkte på brukerens maskin. I stedet for at prompten sendes til en skytjeneste, blir alt behandlet lokalt. Dette gir deg fordelen av å jobbe helt uavhengig av nettet, samtidig som det reduserer risikoen for datalekkasje til null, forutsatt at du ikke kobler til eksterne API-er. Løsningen passer perfekt for utviklere som ønsker å teste KI-applikasjoner i et trygt miljø, eller for deg som bare vil utforske ChatGPT lokalt hjemme.
Fordelene med å kjøre ChatGPT lokalt
Å kjøre ChatGPT lokalt gir en unik kombinasjon av sikkerhet, ytelse og fleksibilitet som skytjenester vanskelig kan matche. Når hele modellen kjører på din egen maskin, får du ikke bare bedre kontroll over dataene dine, men også en mer direkte og effektiv brukeropplevelse. Etter at modellen er lastet ned, kan du fortsette å bruke den uten nett, noe som åpner for bruk i alt fra private prosjekter til miljøer med strenge sikkerhetskrav. Her er fem av de viktigste fordelene:
- Maksimalt personvern – all databehandling skjer lokalt, så ingenting sendes til eksterne servere.
- Offline-funksjonalitet – bruk ChatGPT lokalt selv uten internettforbindelse.
- Lynrask respons – unngå nettverksforsinkelser fordi alt prosesseres direkte på maskinen.
- Kostnadseffektiv drift – ingen løpende skykostnader, perfekt for hyppig testing og utvikling.
- Fleksibilitet i modellvalg – fra lettvektsmodeller som krever lite maskinvare til kraftige alternativer for avanserte behov.
Disse fordelene legger grunnlaget for en tryggere, mer effektiv og mer tilpasset KI-opplevelse. Og nettopp dette leder oss videre til et naturlig spørsmål: hvilke modeller kan du faktisk bruke når du kjører ChatGPT lokalt? Svaret spenner fra små, energieffektive løsninger til rene kraftpakker for de mest krevende oppgavene.
Støtter modeller fra lettvekts til kraftpakker
En av de store styrkene med Foundry Local er fleksibiliteten. Du kan velge mellom små, lettkjørte modeller som phi-3.5-mini, eller kraftigere alternativer som gtp-oss-20b, en åpen modell med 20 milliarder parametere fra OpenAI. For de som har tilgang til kraftig maskinvare, er det til og med mulig å jobbe med gtp-oss-120b, som leverer topp ytelse for avanserte oppgaver. Det betyr at du kan starte med noe enkelt og oppgradere etter hvert som behovene og maskinvaren din vokser.
Kombiner ChatGPT lokalt med komprimerte modeller for maksimal effektivitet
En spennende tanke er å kombinere fordelene ved ChatGPT lokalt med prinsippene for komprimerte KI-modeller, slik jeg har beskrevet i innlegget om 80 % lavere strømforbruk. Ved å bruke teknikker som kvantisering, pruning og modell-destillering kan OpenAI og de andre leverandørene redusere både lagringsbehov, minnebruk og energiforbruk uten å ofre merkbart på kvaliteten. Dette vil gjøre det mulig å kjøre kraftigere modeller på mer beskjeden maskinvare, samtidig som vi får lengre batteritid på bærbare enheter og lavere strømforbruk i stasjonære oppsett. For lokal kjøring av KI, der man ofte ønsker ytelse og personvern uten store investeringer i maskinvare, er dette en kombinasjon med stort potensial!
Slik kommer du i gang med ChatGPT lokalt
Å komme i gang med ChatGPT lokalt via Foundry Local er enklere enn mange tror. Først må du sørge for at maskinen din oppfyller minimumskravene: Windows 10 eller nyere, eller macOS, minst 8 GB RAM (helst 16 GB for bedre ytelse) og tilstrekkelig diskplass til å lagre modellene. Har du en nyere GPU fra NVIDIA, AMD eller Apple Silicon, vil du få en ekstra ytelsesboost.
Når kravene er på plass, laster du ned Foundry Local. På Windows kan du åpne en kommandolinje og skrive:
winget install Microsoft.FoundryLocal
På macOS bruker du:
brew tap microsoft/foundrylocal
brew install foundrylocal
Etter installasjon kan du sjekke hvilke modeller som er tilgjengelige med:
foundry model list
For å starte en enkel modell som phi-3.5-mini, skriver du:
foundry model run phi-3.5-mini
Vil du prøve ChatGPT lokalt med gpt-oss-20b, bruker du:
foundry model run gpt-oss-20b
Når modellen er lastet ned, kan du faktisk slå av internett og fortsette å bruke den uten problemer.
Kan ChatGPT lokalt virkelig kjøres helt offline?
Ja, og det er nettopp dette som gjør løsningen så attraktiv! Når modellen er installert, er det ingenting som hindrer deg i å bruke ChatGPT lokalt på en PC som aldri er koblet til nettet. All prosessering skjer på din maskin, og det er ingen skjulte datastrømmer ut. Dette gjør det mulig å bruke KI i miljøer med høye sikkerhetskrav, eller ganske enkelt for deg som vil være helt trygg på at dine data forblir private.
Mine tanker
Jeg tror at muligheten til å kjøre ChatGPT lokalt kommer til å endre hvordan mange jobber med KI, etter hvert som dette blir mer kjent. For privatpersoner åpner det for kreative prosjekter og personlig assistanse som aldri deler informasjon med omverdenen. For utviklere gir det en trygg og kostnadseffektiv måte å teste applikasjoner før de eventuelt flyttes til skyen. Med Foundry Local og de åpne gpt-oss-modellene har vi nå verktøyet som kombinerer ytelse, sikkerhet og fleksibilitet, rett på skrivebordet vårt.
Kilder
- Microsoft Foundry Local – “Get started” dokumentasjon (Microsoft Learn)
- OpenAI gpt‑oss‑modeller og integrasjon i Foundry (news.aibase.com)