Forskere ved MIT presenterer SEAL, et rammeverk som lar store språkmodeller generere egne selvredigeringer og oppdatere vektparametre gjennom forsterkningslæring.
SEAL lar en LLM generere egne selvredigeringer (SE) i konteksten, oppdatere parametrene via supervised fine-tuning og bruke en ytre forsterkningslæringssløyfe der belønningen er forbedret ytelse på målt oppgave. Forskerne viste forbedringer i få-skudd-tilpasning med Llama-3.2-1B-Instruct (72,5% vs 20% uten RL og 0% uten adaptasjon) og bedre kunnskapsintegrering med Qwen2.5-7B, hvor RL raskt økte nøyaktighet og ofte overgikk oppsett som brukte GPT-4.1-genererte data etter to iterasjoner.
Artikkelen nevner også utfordringer som katastrofal glemme, beregningskostnader og kontekstavhengig evaluering. Dette er relevante AI-nyheter for Norge: norske forskningsmiljøer og teknologibedrifter følger internasjonal utvikling innen kunstlig intelligens (KI).
Kilde: https://syncedreview.com/2025/06/16/mit-researchers-unveil-seal-a-new-step-towards-self-improving-ai | Sammendraget er KI-generert med OpenAI API av Ainy.no
