OpenAI støtter lovforslag om ansvar for AI-skader

OpenAI har uttrykt støtte for et lovforslag i Illinois som vil beskytte AI-laboratorier mot ansvar i tilfeller der AI-modeller forårsaker alvorlige samfunnsskader. Dette inkluderer situasjoner hvor AI kan føre til dødsfall eller betydelig økonomisk skade.

AI-lyd

Lytt til artikkelen

Få innholdet lest opp med naturlig AI-stemme.

AI-forklart

Hva innebærer Illinois-lovforslaget om ansvar for AI-skader?

Illinois har foreslått en lov som fritar utviklere av avanserte AI-modeller fra ansvar for alvorlige skader, med mindre de har handlet med vilje eller uaktsomt. Lovforslaget krever også at utviklerne publiserer sikkerhets- og transparensrapporter. OpenAI støtter dette lovforslaget som gjelder store AI-modeller med betydelige treningskostnader.

  • Kort forklart: Lovforslaget SB 3444 beskytter AI-utviklere mot ansvar for kritiske skader under visse betingelser.
  • Hvorfor det er relevant: Det kan påvirke hvordan AI-teknologi reguleres og utvikles, både i USA og internasjonalt.
  • Det viktigste å vite: Loven gjelder avanserte AI-modeller og krever rapportering av sikkerhet og transparens fra utviklerne.

OpenAI støtter Illinois-lov om ansvar for AI-modeller

Lovforslaget, kjent som SB 3444, vil frita utviklere av avanserte AI-modeller fra ansvar for «kritiske skader» så lenge de ikke har handlet med vilje eller uaktsomt. Det kreves også at de publiserer sikkerhets- og transparensrapporter på sine nettsider. En «frontier-modell» defineres som en AI-modell som er trent med mer enn 100 millioner dollar i beregningskostnader, noe som sannsynligvis inkluderer store aktører som OpenAI, Google og Meta.

I sin støtte for lovforslaget uttalte OpenAIs talsperson, Jamie Radice, at det fokuserer på å redusere risikoen for alvorlig skade fra avanserte AI-systemer. Radice påpekte også at loven kan bidra til å unngå en uoversiktlig samling av statlige regler og i stedet fremme klare, nasjonale standarder. Lovforslaget tar også opp bekymringer om at AI kan brukes til å skape kjemiske eller biologiske våpen, og at AI-modeller kan begå kriminelle handlinger uten menneskelig inngripen.

Hva skjer videre?

AIny kort vurdering: Dette lovforslaget kan få betydning for utviklingen av AI-teknologi i Norge. Norske utviklere kan oppleve økt press for å utvikle AI-løsninger uten å ta ansvar for potensielle skader. I tillegg kan det påvirke hvordan norske selskaper forholder seg til internasjonale standarder for AI-regulering.

Kilde: WIRED

Les denne saken også på engelsk

Read in English

Les også: OpenAI lanserer $100/mnd Pro-plan for ChatGPT