Forskere ved Meta AI har utviklet ‘DeepConf’ (Deep Think with Confidence) for å skalere resonneringsoppgaver uten å bruke enorme mengder beregning.
DeepConf adresserer selv-konsistensproblemet ved majoritetsavstemning i store språkmodeller ved å bruke modellens interne usikkerhetssignaler. Generering av mange resonneringsspor (for eksempel 512) kan øke nøyaktighet — Qwen3–8B oppnår om lag 68% ved ett pass (pass@1) og 82% ved conf@512 — men krever nesten 100 millioner ekstra tokens og gir ikke alltid forbedring når lave kvalitetssvar dominerer. DeepConf beregner token-entropi, token-konfidens og gjennomsnittlig trace-konfidens, samt lokale mål som gruppekonfidens, bottom 10% gruppe-skjønn og tail-konfidens, for å filtrere svake spor enten online eller offline. I offline-modus kan systemet kaste lavkonfidens-spor før avstemning eller bruke konfidensvekting. Testresultater på AIME 2025 viser at DeepConf@512 med GPT-OSS-120B nådde 99.9% nøyaktighet, mot 97.0% for vanlig majoritetsvoting og 91.8% for pass@1, samtidig som token-generering ble redusert med opptil 84.7%. Metoden er en tilnærming innen kunstlig intelligens (KI) som i AI-nyheter pekes på som relevant for norske utviklere og forskningsmiljøer fordi den kan redusere tokenbruk og øke nøyaktighet i krevende resonneringsoppgaver.
Kilde: https://towardsdatascience.com/smarter-not-harder-how-ais-self-doubt-unlocks-peak-performance | Sammendraget er KI-generert med OpenAI API av Ainy.no