En ny studie på arXiv finner at store språkmodeller systematisk slutte seg til uriktige årsakssammenhenger i kontingenstest-scenarier.
Studien av María Victoria Carro og kolleger, innsendt 15. oktober 2025 til arXiv (arXiv:2510.13985), undersøker om modeller utvikler illusjonen av kausalitet ved bruk av en klassisk kontingenjudgment-oppgave. Forskerne bygde et datasett med 1 000 null‑kontingenstscenarioer i medisinske kontekster og ba modellene vurdere årsakseffektivitet. Alle evaluerte modeller tolket systematisk informasjonen som om det forelå årsaksforhold til tross for manglende bevis. Forfatterne konkluderer med at funnene støtter hypotesen om at modellene i større grad gjengir kausalt språk enn virkelig forståelse, og peker på bekymringer ved bruk av slike systemer i domener hvor korrekt kausalresonnement er avgjørende. Studien adresserer sentrale spørsmål rundt kunstlig intelligens (KI) og kausal læring.
Som AI nyheter er dette relevant for norsk bruk av modeller i helsesektoren og for vurdering av systemer brukt i medisinsk beslutningsstøtte og informasjonsbehandling i Norge.
Kilde: https://arxiv.org/abs/2510.13985 | Sammendraget er KI-generert med OpenAI API av Ainy.no
