AI-genererte videoer flommer i sosiale medier, men det finnes enkle tegn som kan avsløre falske klipp.
Tegnene som ofte avslører en deepfake inkluderer synlige glitches og feil i enkeltrammer – som motiv som momentant endrer seg eller får ekstra kroppsdeler – samt forvrengt tekst og ujevn skygge, refleksjon eller lys. Mange falske klipp har også unødvendig lav oppløsning eller «vintage»-kvalitet til tross for at de spilles på plattformer der 4K-opptak er vanlig; eksempler nevnt er pixelert «cell phone footage» av en tornado eller en «Obama»-video med dårlig kvalitet. Noen AI-klipp er derimot for perfekte: porøs fri hud, unaturlig lyssetting og feil tidsstilling på blinking gjør at motivet virker uhyggelig hyperrealistisk.
Nye modeller som OpenAI sin Sora 2 og Googles Nano Banana kan generere fotorealistiske scener med synkronisert tale og lydeffekter, og kan også inkludere kjente eller historiske personer. Journalister og redaksjoner som følger AI-nyheter bør derfor være oppmerksomme på disse kjennetegnene og på bruk av detektorer som testes for å avsløre falske videoer.
Dette er relevant for Norge fordi plattformene som nevnes – TikTok, YouTube og Instagram – brukes også her; kjennskap til metoder for å avsløre falske klipp er derfor viktig i debatten om kunstig intelligens (KI) og i AI-Norge.
Kilde: https://zdnet.com/article/stop-accidentally-sharing-ai-videos-6-ways-to-tell-real-from-fake-before-its-too-late | Sammendraget er KI-generert med OpenAI API og kvalitetssikret av redaksjonen i Ainy.no
