Skip to content

Utfordringer og muligheter med KI

En blogg om etiske dilemmaer, nyttige verktøy og hvordan KI former fremtiden

Menu
  • Mine innlegg
  • Hva er Generativ KI
  • KI-agent
  • Prompt Engineering
    • Chain of Thought
    • CRAFT-metoden
    • Rolleinstrukser
      • Rolleinstrukser for personlig coach og mentor
  • Veiledninger
  • Om meg
Menu
Bilde av to AI roboter som analyserer hverandre, med fokus på både ytelse og etikk.

KI-målinger forteller ikke hele historien: Etiske utfordringer havner i skyggen av ytelsesmålinger

Posted on 30. januar 202530. januar 2025 by Kjetil

En verden fasineret av tall

De siste ukene har teknologiverdenen blitt oversvømmet av benchmark-resultater for de nyeste kunstige intelligensmodellene. Ikke før har Deepseek scoret bedre enn ChatGPT, så kommer Qwen inn og viser til en bedre score, bare for å bli skjøvet til side av Kimi som siste tilskudd. Fra rekordhøy presisjon til raske responstider – det er lett å bli fascinert av tallene. Men hva skjer når vi blir så opptatt av disse benchmarkene at vi glemmer å stille de virkelig viktige spørsmålene? Hva skjer når modellene våre scorer toppkarakterer på ytelsestester, men samtidig viser alvorlige svakheter i moralsk resonans, kulturell sensitivitet eller sikkerhetsrisikoer?

Jeg ser nærmere på KI-benchmarks som ikke forteller hele historien – og hvorfor vi trenger å snu blikket mot de etiske utfordringene som ligger i skyggen.


Er benchmark-hysterien en fare for teknologiens fremtid?

Det er lett å se tiltrekningen ved benchmarking. Standardiserte tester gir oss et tydelig mål på hvor godt en modell presterer innenfor gitte parametere. Men hva slags parametere er det egentlig vi måler?

En modell kan score utmerket på en benchmark som måler matematiske evner, men samtidig produsere sterkt partiske eller potensielt farlige svar når den møter mer komplekse, menneskelige situasjoner. Dette illustrerer et sentralt problem: Benchmarking fokuserer ofte på hva modellen kan gjøre, men ikke nødvendigvis hvordan den gjør det. Hvordan påvirker det resultatene vi får fra KI, og i neste runde, hvordan påvirker det oss?


De glemte dimensjonene: Moral, etikk, kultur og sikkerhet

Når vi blir for opptatt av benchmark-resultater, risikerer vi å overse andre kritiske dimensjoner av KI-utvikling. Her er noen elementer som ofte utelates fra målingene som publiseres:

  1. Moralsk Resonans : Hvordan håndterer en modell etiske dilemmaer? Kan den forstå konteksten rundt vanskelige beslutninger, eller reduserer den alt til statistikk?
  2. Kulturell Sensitivitet : Er modellen designet for å forstå og respektere ulike kulturer og verdier? Eller risikerer den å forsterke eksisterende stereotyper?
  3. Sikkerhetsrisikoer : Hvilken risiko representerer modellen hvis den misbrukes? Kan den generere skadelig informasjon eller brukes til ondsinnet formål?

Stanford sin rapport fra 2024, AI Index Report , understreker nettopp disse utfordringene. Rapporten peker på at det mangler robuste og standardiserte evalueringer for LLM-ansvarlighet. Ledende utviklere tester primært modellene sine mot ulike ansvarlige KI-benchmarks, noe som gjør det vanskelig å sammenligne risiko og begrensninger systematisk. Rapporten viser også eksempler på hvordan manglende fokus på etikk og personvern kan føre til reelle konsekvenser for samfunnet. Tilsvarende understreker forskningen i denne studien på Research Square (Evaluating Privacy Compliance in Commercial Large Language Models – ChatGPT, Claude, and Gemini ) blant annet viktigheten av skreddersydde personvernstrategier og kontinuerlig overvåking for å sikre overholdelse av regelverk.


Hva kan vi gjøre annerledes?

Jeg skrev om testen Humanity’s Last Exam for en uke siden, en test som måler hvor intelligent KI faktisk er. Den fokuserer primært på å evaluere KI-systemers ekspertnivå innen resonnering og kunnskap på tvers av ulike akademiske fagområder. For å unngå at vi blir fanget i en spiral av overdrevet ytelsesfokus, mener jeg vi må utvide vår evaluering av KI-modeller. Her er noen forslag:

  • Bruk flere målinger: I tillegg til tradisjonelle benchmarks, bør vi inkludere rammeverk som TruthfulQA og RealToxicityPrompts for å få et mer helhetlig bilde.
  • Prioriter etikk: Invester i forskning og utvikling som fokuserer på moralsk resonans og kulturell sensitivitet. Dette kan hjelpe til med å minimere bias og forbedre brukeropplevelsen.
  • Involver brukere: Ta hensyn til hvordan modellene faktisk oppfattes og brukes av mennesker i ulike sammenhenger. Feedback fra brukere vil gi verdifull innsikt.

Mine tanker: La oss ikke glemme det som virkelig betyr noe

Selv om benchmark-resultater kan være imponerende, må vi huske at KI-teknologi til syvende og sist skal hjelpe oss mennesker. Overdreven fokus på tall kan føre til at vi ignorerer de reelle utfordringene som KI-teknologi møter – fra moralske dilemmaer til sikkerhetsrisikoer. Vi må innføre målinger på moral og etikk, og stille krav til utviklerne av KI at dette må være en del av produktene de leverer!

Ønsker du å følge med på flere tanker rundt KI og dens rolle i samfunnet? Følg meg på LinkedIn.

facebookDel på Facebook
TwitterPost på X
FollowFølg meg

Arkiv

  • mai 2025
  • april 2025
  • mars 2025
  • februar 2025
  • januar 2025

Kategorier

  • anvendelser
  • energi
  • etikk og samfunn
  • forskning og innovasjon
  • fremtiden for KI
  • grunnleggende
  • helse
  • historie og milepæler
  • nyheter og trender
  • økonomi
  • produktivitet
  • testing og evaluering
  • Ukategorisert
  • verktøy og plattformer
Personvernerklæring
©2025 Utfordringer og muligheter med KI | Design: Newspaperly WordPress Theme