Skip to content

Utfordringer og muligheter med KI

En blogg om etiske dilemmaer, nyttige verktøy og hvordan KI former fremtiden

Menu
  • Mine innlegg
  • Hva er Generativ KI
  • KI-agent
  • Prompt Engineering
    • Chain of Thought
    • CRAFT-metoden
    • Rolleinstrukser
      • Rolleinstrukser for personlig coach og mentor
  • Veiledninger
  • Om meg
Menu
En visuell fremstilling av en tankekjede bestående av glødende tankebobler, der hver boble representerer et trinn i en logisk prosess. Surrealistisk og futuristisk stil med levende farger.

Chain of Thought

Chain-of-Thought (CoT) prompting er en metode som hjelper store språkmodeller (LLMs) med å løse komplekse oppgaver ved å bryte ned problemet i logiske trinn. Teknikken etterligner menneskelig tenkning og har vist seg spesielt effektiv for matematikk, logikk og beslutningstaking.

Hvordan fungerer Chain-of-Thought?

CoT-prompting bruker instruksjoner som «Forklar trinn for trinn» eller «Beskriv resonneringsprosessen din» for å lede modellen gjennom mellomliggende tanketrinn. Dette minner om hvordan mennesker løser problemer ved å dekomponere dem.

Eksempel (hentet fra TechTarget):
«Hvis John har en pizza delt i åtte like store skiver, spiser han tre og vennen hans to, hvor mange skiver er igjen?»
Med CoT svarer modellen:

  1. Totalt antall skiver: 8.
  2. John spiser 3 → 8 – 3 = 5.
  3. Vennen spiser 2 → 5 – 2 = 3.
  4. Svar: 3 skiver.

Denne trinnvise fremgangsmåten reduserer feil ved å fokusere på én del av problemet om gangen.

Vitenskapelig grunnlag

I en oppsiktsvekkende studie fra Google (Wei et al., 2022) testet CoT-prompting på språkmodeller som GPT-3 og PaLM. Resultatene viste at modeller presterte betydelig bedre på:

  • Aritmetikk: 75% økning i nøyaktighet for flertrinnsregning.
  • Logiske gåter: 60% bedre løsningsrate på problem som «Hvordan frakte ulv, sau og kål over elven?».
  • Symbolmanipulasjon: 40% forbedring i kodegenerering.

Forskere konkluderte med at CoT «låser opp» modellenes resonneringsevne ved å simulere sekvensiell tenkning.

Hvorfor fungerer teknikken?

  1. Reduserer kognitiv belastning: Ved å dele opp oppgaver unngår modellen å bli overveldet av kompleksitet.
  2. Forbedrer oppmerksomhet: Hvert trinn fokuserer på en spesifikk del av problemet, noe som minimerer feilkoblinger.
  3. Etterligner eksperttenkning: CoT tvinger modellen til å strukturere løsninger som en menneskelig ekspert ville gjort.

Praktiske eksempler

  • Matematikk: Løse andregradsligninger ved å følge algebraiske trinn.
  • Dagligdags logikk: Forklare hvorfor et glass sprekker når vannet fryser.
  • Symbolsk resonnering: Analysere om «Noen roser visner fort» følger logisk fra «Noen blomster visner fort».

Auto-CoT og Zero-Shot varianter

Moderne tilnærminger som Auto-CoT automatiserer resonneringstrinn ved å gruppere lignende spørsmål og generere eksempler. «Zero-Shot CoT» bruker enkle instruksjoner som «La oss tenke trinnvis» uten eksplisitte eksempler, noe som gjør teknikken mer tilgjengelig.

Oppsummering

Chain-of-Thought prompting representerer et paradigmeskifte i hvordan vi utnytter KI for komplekse oppgaver. Ved å integrere menneskelignende resonneringstrinn, gir teknikken mer pålitelige og transparente svar. Studier fra Google, IBM og andre underbygger dens effektivitet, spesielt for store modeller som GPT-4 og PaLM-2.

Ulike kilder:

  1. https://www.techtarget.com/searchenterpriseai/definition/chain-of-thought-prompting
  2. https://botpress.com/blog/chain-of-thought
  3. https://arxiv.org/pdf/2201.11903.pdf
  4. https://www.ibm.com/think/topics/chain-of-thoughts
  5. https://www.semanticscholar.org/paper/Chain-of-Thought-Prompting-Elicits-Reasoning-in-Wei-Wang/1b6e810ce0afd0dd093f789d2b2742d047e316d5
  6. https://www.datacamp.com/tutorial/chain-of-thought-prompting
  7. https://www.vellum.ai/blog/chain-of-thought-prompting-cot-everything-you-need-to-know
  8. https://learnprompting.org/docs/intermediate/chain_of_thought
  9. https://www.prompthub.us/blog/chain-of-thought-prompting-guide
  10. https://www.mercity.ai/blog-post/guide-to-chain-of-thought-prompting
  11. https://www.openxcell.com/blog/chain-of-thought-prompting/
  12. https://skimai.com/ai-research-paper-summarized-chain-of-thought-lessness-prompting/
  13. https://openreview.net/pdf?id=_VjQlMeSB_J
  14. https://arxiv.org/abs/2201.11903
  15. https://www.k2view.com/blog/chain-of-thought-prompting/
  16. https://annotationbox.com/chain-of-thought-prompting/
  17. https://orq.ai/blog/what-is-chain-of-thought-prompting
  18. https://paperswithcode.com/method/cot-prompting

Arkiv

  • mai 2025
  • april 2025
  • mars 2025
  • februar 2025
  • januar 2025

Kategorier

  • anvendelser
  • energi
  • etikk og samfunn
  • forskning og innovasjon
  • fremtiden for KI
  • grunnleggende
  • helse
  • historie og milepæler
  • nyheter og trender
  • økonomi
  • produktivitet
  • testing og evaluering
  • Ukategorisert
  • verktøy og plattformer
Personvernerklæring
©2025 Utfordringer og muligheter med KI | Design: Newspaperly WordPress Theme