California-guvernør Gavin Newsom har signert SB 53, en første-i-landet-lov som krever større AI-laboratorier åpenhet om sikkerhets- og beredskapsprotokoller.
SB 53 pålegger store AI-laboratorier å være transparente om hvordan de forebygger katastrofale risikoer, blant annet misbruk til cyberangrep på kritisk infrastruktur eller utvikling av biologiske våpen, og krever at selskapene følger disse protokollene; håndhevingen skal utføres av Office of Emergency Services. Adam Billen i Encode AI sier loven viser at regulering ikke trenger å hindre innovasjon: mange selskaper utfører allerede sikkerhetstesting og publiserer modellkort, men kan skru ned tiltak under konkurransepress, noe loven skal motvirke. I AI-nyheter var motstanden mot SB 53 mindre enn mot SB 1047, som Newsom nedla veto mot i fjor.
Billen advarer mot føderale tiltak som kan overstyre delstatslover, og viser til senator Ted Cruz’ tidligere forslag om et moratorium og den foreslåtte SANDBOX Act som gir midlertidige unntak fra reguleringer. Han peker også på at eksportkontroller og chip-politikk, som Chip Security Act og CHIPS-loven, er sentrale elementer i konkurransen med Kina. Relevans for Norge: Loven kan påvirke internasjonale krav og praksis som norske aktører møter i arbeid med kunstlig intelligens (KI).
Kilde: https://techcrunch.com/2025/10/05/californias-new-ai-safety-law-shows-regulation-and-innovation-dont-have-to-clash | Sammendraget er KI-generert med OpenAI API av Ainy.no
