Storbritannias AI Security Institute (AISI) har kunngjort en dramatisk kursendring i sin KI-politikk. Etter at Brexit frigjorde landet fra EUs reguleringer, ser vi nå tydelige tegn på at Storbritannia i økende grad orienterer seg mot USA i sin teknologipolitikk. Den siste beslutningen fra AISI understreker denne dreiningen. Instituttet, som tidligere hadde et bredt mandat med fokus på etikk og samfunnsansvar, skal nå utelukkende prioritere sikkerhet og kriminalitetsbekjempelse innen kunstig intelligens.
Vi så tydelige indikasjoner på dette tidligere denne uken, da Storbritannia sammen med USA valgte å stå utenfor slutterklæringen fra AI Action Summit i Paris. Dette markerer et betydelig skifte i landets KI-strategi og reiser viktige spørsmål om hvordan balansen mellom sikkerhet, etikk og samfunnsansvar vil utvikle seg i den fremtidige reguleringen og bruken av KI-teknologi.
For både teknologiinteresserte og de som følger geopolitikk, understreker denne utviklingen hvordan Brexit fortsatt former Storbritannias posisjon i det globale kappløpet om kunstig intelligens og digital sikkerhet.
Fra helhetlig tilnærming til snevert sikkerhetsfokus
Det som startet som et ambisiøst prosjekt under Rishi Sunak for å «fremme verdens kunnskap om KI-sikkerhet», inkludert håndtering av samfunnsmessige utfordringer som skjevheter og feilinformasjon, har nå fått et markant snevrere mandat. Teknologiminister Peter Kyles kunngjøring om at instituttet ikke lenger vil fokusere på skjevheter eller ytringsfrihet, representerer en bekymringsfull dreining bort fra viktige etiske hensyn.
Sikkerhet på bekostning av etikk?
Mens fokus på kriminalitet, nasjonal sikkerhet og internasjonal uro utvilsomt er viktig – særlig når det gjelder trusler som cyberangrep og misbruk av KI til utvikling av biologiske våpen – er det problematisk å behandle dette isolert fra bredere etiske hensyn. Skjevheter i KI-systemer og påvirkning på ytringsfrihet er ikke bare «myke» problemstillinger – de er fundamentale for et velfungerende demokrati og rettferdig teknologiutvikling.
Den amerikanske innflytelsen
Storbritannias nye tilnærming gjenspeiler en økende tilpasning til amerikansk KI-politikk, hvor konkurranseevne og sikkerhet ofte prioriteres over etiske hensyn. Dette ser vi også i den nye partnerskapsavtalen med Anthropic, som fokuserer på effektivisering av offentlige tjenester uten at de nevner noe om etiske retningslinjer. (Anthropic står bak Claude, en av de første konkurrentene til ChatGPT)
Konsekvenser for Norge og Europa
For norske virksomheter og beslutningstakere har denne utviklingen flere implikasjoner:
- Det oppstår et større gap mellom britisk og europeisk tilnærming til KI-regulering
- Norske selskaper som opererer i Storbritannia må potensielt forholde seg til ulike regulatoriske regimer
- Viktigheten av å opprettholde fokus på etisk KI-utvikling blir enda tydeligere
Lærdommer for norsk næringsliv
I denne konteksten blir det særlig viktig for norske virksomheter å:
- Utvikle robuste interne retningslinjer som ivaretar både sikkerhet og etikk
- Være proaktive i å adressere skjevheter og rettferdighet i KI-systemer
- Bygge systemer som er transparente og ansvarlige, uavhengig av regulatoriske minimumskrav
Veien videre: Behov for helhetlig tilnærming
Det er forståelig at myndigheter prioriterer sikkerhet i en tid med økende cybertrusler og sofistikert kriminalitet, og ikke minst internasjonal uro og krig. Men å nedprioritere etiske hensyn er kortsiktig og potensielt farlig. Erfaringer fra tidligere teknologiske revolusjoner viser at manglende fokus på etikk og samfunnsansvar ofte fører til utilsiktede negative konsekvenser som er vanskelige å korrigere i etterkant.
For å lykkes med KI-utvikling som tjener hele samfunnet, trenger vi en balansert tilnærming som ivaretar både sikkerhet og etikk. Norske virksomheter har en unik mulighet til å vise lederskap her, ved å bygge på vår sterke tradisjon for åpenhet, demokrati og samfunnsansvar.
For videre diskusjon om hvordan vi kan sikre en ansvarlig og etisk KI-utvikling, kontakt meg gjerne på LinkedIn: https://www.linkedin.com/in/kmyhre/