En ny rapport fra Stanford HAI viser at kinesiske åpne vektmodeller nå er i et dødt løp med ledende amerikanske LLM-er.
I rapporten «Beyond DeepSeek: China’s Diverse Open-Weight AI Ecosystem and its Policy Implications», ledet av Caroline Meinhardt ved Stanford HAI, konkluderes det med at kinesiske åpne vektmodeller nå yter på nivå med amerikanske konkurrenter. Rapporten peker på at Alibaba’s Qwen-familie har passert Metas Llama som den mest nedlastede LLM-familien på Hugging Face, og at kinesiske modeller ligger i statistisk dødt løp med Anthropic’s Claude og er nær nivået til OpenAI og Googles beste modeller. HAI skriver videre at kinesiske åpne modeller presterer nær state-of-the-art på flere benchmarker, at de 22 beste kinesiske åpne modellene er bedre enn OpenAIs åpne vektmodell GPT-oss, og at kinesiske finjusterte eller derivatmodeller sto for 63 % av nye slike modeller på Hugging Face i september 2025. Rapporten nevner også at Qwen3 og DeepSeek R1 ble utgitt med mer permissive lisenser (Apache 2.0 og MIT), og at den amerikanske eksportbegrensningen har bidratt til økt effektivitet i kinesiske laboratorier i utviklingen av kunstlig intelligens (KI).
HAI beskriver en global diffusjon der mange land, særlig i utviklingsland, forventes å ta i bruk kinesiske åpne modeller; dette gjør funnene relevante for norske utviklere og beslutningstakere som følger markedstilbudet. Saken er sentral i AI-nyheter om åpenhet og global adopsjon.
Kilde: https://zdnet.com/article/china-open-ai-models-versus-us-llms-power-performance-compared | Sammendraget er KI-generert med OpenAI API og kvalitetssikret av redaksjonen i Ainy.no
