Sora gjør det vanskeligere å avsløre AI-videoer

AI-genererte videoer fra OpenAIs Sora kan være realistiske og vanskelige å skille fra ekte opptak.

Sora, en TikTok-lignende app med Sora 2-modellen, har gått viral og produserer høyt oppløste videoer med synkronisert lyd og kreativt innhold; alt som vises i appen er AI-laget. Den mest populære funksjonen, «cameo», lar brukere sette andres likheter inn i nesten enhver scene. Eksperter advarer om at slike verktøy gjør det enklere å lage farlige deepfakes og spre feilinformasjon, og kjente grupper som SAG‑AFTRA har bedt OpenAI om strengere sikkerhetsmekanismer. OpenAIs sjef Sam Altman har sagt at samfunnet må tilpasse seg en virkelighet der hvem som helst kan lage falske videoer.

Det finnes virkemidler for identifikasjon: Sora‑videoer som lastes ned inkluderer en bevegelig Sora‑vannmerke, og de inneholder C2PA‑metadata som kan verifiseres med Content Authenticity Initiative sitt verktøy, som viser at innholdet er «issued by OpenAI» og AI-generert. Vannmerker kan likevel fjernes, og metadata kan endres ved omlastning, så merkning fra plattformer eller tydelig opplysning fra skaperen er viktig. For redaktører og publikum i AI-nyheter er både vannmerker og innholdsproveniens viktige verktøy.

Relevans for Norge: Realistiske deepfakes kan påvirke norske medier, offentlige personer og tilliten til digital kommunikasjon, og krever at norske aktører følger merking og verifisering.

Kilde: https://cnet.com/tech/services-and-software/real-or-ai-its-harder-than-ever-to-spot-ai-videos-these-tips-can-help | Sammendraget er KI-generert med OpenAI API av Ainy.no