AI-modeller gjengir materiale fra tilbaketrukne forskningsartikler

Studier viser at chatboter og forskningsverktøy gjengir materiale fra tilbaketrukne vitenskapelige artikler uten alltid å opplyse om det.

En studie av Weikuan Gu testet ChatGPT (GPT‑4o) mot 21 tilbaketrukne artikler i medisinsk bildebehandling; chatboten refererte til fem av dem og advarte kun i tre tilfeller. En annen studie fant at ChatGPT‑4o mini ikke nevnte tilbaketrekninger i svar på 217 tilbaketrukne eller lavkvalitetsartikler. Verktøy som Elicit, Ai2 ScholarQA (Asta), Perplexity og Consensus siterte henholdsvis 5, 17, 11 og 18 slike artikler uten merknad. Noen selskaper, blant annet Consensus og Elicit, har begynt å bruke rektraksjonsdata for å rette problemet, men Retraction Watch er manuelt kuratert og merking varierer. Dette er relevant for Norge fordi norske forskere, studenter og helsepersonell i økende grad bruker kunstlig intelligens (KI) i forskning og helseråd, og saken omtales i AI-nyheter.

Kilde: https://www.technologyreview.com/2025/09/23/1123897/ai-models-are-using-material-from-retracted-scientific-papers/ | AI-sammendrag generert av Ainy.no