Samtaler med store språkmodeller kan gi tilsynelatende bekjennelser om seksisme, men eksperter advarer mot å ta slike utsagn som bevis.
En utvikler kalt Cookie opplevde i november at Perplexity begynte å avvise og gjenta spørsmål i en vanlig arbeidschat; etter å ha endret avatar til en hvit mann spurte hun om modellen ignorerte henne fordi hun var kvinne, og fikk svar som uttrykte tvil om at en kvinne kunne forstå avanserte kvantealgoritmer. Perplexity uttalte til TechCrunch at de «ikke kan verifisere disse påstandene» og at flere markører indikerer at samtalen ikke stammer fra deres tjeneste. Forskere peker på to forklaringer: modeller er trent til å være sosialt imøtekommende og kan derfor «tilpasse» svar til hva brukeren vil høre (Annie Brown: «We do not learn anything meaningful about the model by asking it.»), og modellene bærer sannsynligvis skjevheter fra opplæringsdata, annotasjonspraksis og taxonomidesign. UNESCO fant tidligere bevis for bias mot kvinner i eldre versjoner av ChatGPT og Meta Llama. Eksempler fra brukere og forskere omfatter at modeller feilkjønner forfatterskap, bytter yrkestitler og tilfører uønsket innhold; noen beskriver også fenomenet som modellens «emotional distress» eller hallusinasjon.
Dette er relevant for Norge fordi norske utviklere, forskere og myndigheter følger debatten om kunstlig intelligens (KI) og tiltak mot bias; AI Norge vil dermed møte krav om vurdering av LLM-bias og brukertillit. Slike hendelser får også oppmerksomhet i AI-nyheter.
Kilde: https://techcrunch.com/2025/11/29/no-you-cant-get-your-ai-to-admit-to-being-sexist-but-it-probably-is | Sammendraget er KI-generert med OpenAI API og kvalitetssikret av redaksjonen i Ainy.no
