AI-nyheter: En ny arXiv-studie viser at ti moderne språkmodeller ofte ikke klarer å kjenne igjen tekst de selv har generert.
Forskerne Xiaoyan Bai, Aryan Shrivastava, Ari Holtzman og Chenhao Tan (innsendt 3. oktober 2025) presenterer en systematisk evalueringsramme som måler hvor godt ti samtidige, store språkmodeller kan identifisere egen tekst versus tekst fra andre modeller. To oppgaver ble brukt: binær selvgjenkjennelse og eksakt modellprediksjon. Resultatene viser en konsekvent svikt i selvgjenkjennelse: bare fire av ti modeller identifiserte seg selv som generator, og ytelsen var sjelden bedre enn tilfeldig. Modellene viste dessuten en sterk skjevhet mot å predikere GPT- og Claude-familiene. Forfatterne evaluerer også modellers bevissthet om egen og andres eksistens og begrunnelsene for valgene; modellene viser noe kunnskap om eksistens, men resonneringene avdekker en hierarkisk skjevhet som ofte plasserer GPT, Claude og noen ganger Gemini i toppen og knytter høy kvalitet til disse. Resultatene har betydning for kunstlig intelligens (KI)-sikkerhet, og forfatterne diskuterer implikasjoner og veien videre; koden er gjort tilgjengelig.
Dette er relevant for Norge fordi forskningsmiljøer og beslutningstakere følger teknologiens sikkerhetsimplikasjoner for nasjonale anvendelser.
Kilde: https://arxiv.org/abs/2510.03399 | Sammendraget er KI-generert med OpenAI API av Ainy.no
