Gemma 3 270M: kompakt, svært energieffektiv KI-modell

Google lanserer Gemma 3 270M, en 270 millioner parametermodell bygget for oppgave-spesifikk finjustering og svært lavt energiforbruk.

Modellen har 270 millioner parametere — 170 millioner embedding-parametre grunnet et stort vokabular og 100 millioner for transformer-blokker. Vokabularet på 256k tokens gjør den egnet som basis for finjustering i spesifikke domener og språk. En instruksjonstunet versjon slippes sammen med en pre-trent sjekkpunkt, og Quantization-Aware Trained (QAT) sjekkpunkter lar den kjøre i INT4 med minimal ytelsesnedgang. IFEval-benchmarken viser ny ytelse for modellens størrelse. Interne tester på en Pixel 9 Pro SoC viste at INT4-quantisert modell brukte 0,75% batteri for 25 samtaler. Modellen er ikke laget for komplekse samtaler, men følger generelle instruksjoner rett ut av boksen og er egnet for on-device og forskningsbruk. Eksempler i lanseringsmeldingen inkluderer en Bedtime Story Generator drevet av Gemma 3 270M via Transformers.js (kredit: Joshua) og et case der Adaptive ML finslipt en Gemma 3 4B for SK Telecom og overgikk større proprietære modeller på en spesifikk oppgave. For norske utviklere kan denne kompakte tilnærmingen bidra til lavere strømforbruk, lokal behandling og personvern i apper som bruker kunstlig intelligens (KI). Dette er AI-nyheter av interesse for utviklere og forskere.

Kilde: https://deepmind.google/discover/blog/introducing-gemma-3-270m-the-compact-model-for-hyper-efficient-ai | Sammendraget er KI-generert med OpenAI API av Ainy.no