MIT introduserer SEAL for selvforbedrende språkmodeller

Forskere ved MIT presenterer SEAL, et rammeverk som lar store språkmodeller generere egne selvredigeringer og oppdatere vektparametre gjennom forsterkningslæring.

SEAL lar en LLM generere egne selvredigeringer (SE) i konteksten, oppdatere parametrene via supervised fine-tuning og bruke en ytre forsterkningslæringssløyfe der belønningen er forbedret ytelse på målt oppgave. Forskerne viste forbedringer i få-skudd-tilpasning med Llama-3.2-1B-Instruct (72,5% vs 20% uten RL og 0% uten adaptasjon) og bedre kunnskapsintegrering med Qwen2.5-7B, hvor RL raskt økte nøyaktighet og ofte overgikk oppsett som brukte GPT-4.1-genererte data etter to iterasjoner.

Artikkelen nevner også utfordringer som katastrofal glemme, beregningskostnader og kontekstavhengig evaluering. Dette er relevante AI-nyheter for Norge: norske forskningsmiljøer og teknologibedrifter følger internasjonal utvikling innen kunstlig intelligens (KI).

Kilde: https://syncedreview.com/2025/06/16/mit-researchers-unveil-seal-a-new-step-towards-self-improving-ai | Sammendraget er KI-generert med OpenAI API av Ainy.no