California strammer inn regelverk for avansert KI

En ny kalifornisk lov om AI-sikkerhet trer i kraft 1. januar og pålegger utviklere av grensende modeller informasjonsplikt og varsling ved alvorlige hendelser.

Loven, opprinnelig forfattet av delstatens demokrat Scott Wiener, krever at selskaper som utvikler «frontier»-modeller offentliggjør på sine nettsider planer og retningslinjer for å håndtere «katastrofal risiko», og at de varsler statlige myndigheter om enhver «kritisk sikkerhetshendelse» innen femten dager; brudd kan gi bøter på inntil 1 million dollar per overtredelse. Loven gir også varslervern for ansatte. Katastrofal risiko defineres i lovteksten som scenarioer der avansert kunstlig intelligens (KI) dreper eller skader mer enn 50 personer eller forårsaker materielle skader over 1 milliard dollar, for eksempel ved å gi veiledning for utvikling av kjemiske, biologiske eller kjernefysiske våpen. Lovgivningen kommer samtidig som enkelte eksperter advarer om at teknologien utvikler seg raskt: Yoshua Bengio har foreslått en «kill switch», Anthropic har publisert funn om mulig «introspective awareness» i Claude, og Future of Life Institute har krevd pause og påpekt mangler hos ledende utviklere. Den føderale tilnærmingen under Trump-administrasjonen har i stor grad gitt industrien mer handlingsrom.

Sakens relevans for Norge følger av at aktører som OpenAI og Anthropic nevnes i saken, og at delstatsregulering i USA kan berøre selskaper som opererer internasjonalt; dette følges derfor i norske AI-nyheter.

Kilde: https://zdnet.com/article/california-ai-law-crackdown-on-risks | Sammendraget er KI-generert med OpenAI API og kvalitetssikret av redaksjonen i Ainy.no