En ny MIT-studie viser at kunstlig intelligens (KI) i stor grad blir bedre fordi utviklere legger inn mer regnekraft, ikke primært på grunn av smartere algoritmer.
Forskere ledet av Matthias Mertens analyserte 809 store språkmodeller og fant at økt treningstimeverk forklarer mer av forbedringene på tester enn firmaers spesielle «secret sauce» eller felles algoritmeforbedringer. Studien peker på at en tidobling av regnekraft gir merkbar effekt, og at modeller i 95.-percentilen bruker 1 321 ganger mer regnekraft enn de i 5.-percentilen. Forholdet mellom åpne modeller som Llama og lukkede som GPT-4.5 ble delvis forklart av forskjeller i brukt regnekraft. For lukkede systemer brukte forskerne tredjepartsestimater. Rapporten ligger på arXiv under tittelen «Is there a ‘Secret Sauce’ in large language model development?». Studien understreker også at kostnadene stiger: 2025 var gjennomsnittlige chippriser 70 % høyere enn i 2019, med prisøkninger for Nvidia-GPUer og dobbeltsifret økning for DRAM.
Dette er relevant for norske virksomheter og offentlige aktører som kjøper eller drifter KI-tjenester, fordi økt behov for regnekraft og stigende chippriser påvirker kostnader og valg av infrastruktur, noe også AI-nyheter vil følge.
Kilde: https://zdnet.com/article/ai-isnt-getting-smarter-its-getting-more-expensive-mit-report-finds | Sammendraget er KI-generert med OpenAI API og kvalitetssikret av redaksjonen i Ainy.no
