OpenAI støttar lovforslag om ansvar for KI-skadar

OpenAI har uttrykt støtte for eit lovforslag i Illinois som vil beskytte KI-laboratorium mot ansvar i tilfelle der KI-modellar forårsakar alvorlege samfunnsskadar. Dette inkluderer situasjonar der KI kan føre til dødsfall eller betydeleg økonomisk skade.

KI-lyd

Lytt til artikkelen

Få innhaldet lese opp med naturleg KI-stemme.

KI-forklart

Kva handlar lovforslaget i Illinois om ansvar for KI-skadar om?

Lovforslaget SB 3444 i Illinois vil frita utviklarar av avanserte KI-modellar frå ansvar for alvorlege skadar, med mindre dei har handla med vilje eller uaktsamt. Det krev at utviklarane publiserer tryggleiks- og transparensrapportar. Forslaget omfattar store KI-modellar trena med over 100 millionar dollar i reknekostnader.

  • Kort forklart: Lovforslaget gir unntak frå ansvar for store KI-modellar ved kritiske skadar, med krav om rapportering.
  • Kvifor det er relevant: Det påverkar korleis utviklarar kan bli haldne ansvarlege for skadar frå KI, og kan setje standardar for nasjonal regulering.
  • Det viktigaste å vite: OpenAI støttar lovforslaget, som også tek opp risiko knytt til bruk av KI i farlege eller kriminelle handlingar.

OpenAI støttar Illinois-lov om ansvar for KI-modellar

Lovforslaget, kjend som SB 3444, vil frita utviklarar av avanserte KI-modellar frå ansvar for «kritiske skadar» så lenge dei ikkje har handla med vilje eller uaktsamt. Det krevst òg at dei publiserer tryggleiks- og transparensrapportar på sine nettsider. Ein «frontier-modell» vert definert som ein KI-modell som er trena med meir enn 100 millionar dollar i reknekostnader, noko som sannsynlegvis inkluderer store aktørar som OpenAI, Google og Meta.

I si støtte for lovforslaget uttalte OpenAIs talsperson, Jamie Radice, at det fokuserer på å redusere risikoen for alvorleg skade frå avanserte KI-system. Radice peikte òg på at lova kan bidra til å unngå eit uoversiktleg samansett regelverk frå statane, og i staden fremje klare, nasjonale standardar. Lovforslaget tek òg opp bekymringar om at KI kan brukast til å skape kjemiske eller biologiske våpen, og at KI-modellar kan utføre kriminelle handlingar utan menneskeleg inngripen.

Betydning for norsk KI-utvikling

AIny si korte vurdering: Dette lovforslaget kan få konsekvensar for utviklinga av KI-teknologi i Noreg. Norske utviklarar kan oppleve auka press for å utvikle KI-løysingar utan å ta ansvar for potensielle skadar. I tillegg kan det påverke korleis norske selskap forheld seg til internasjonale standardar for KI-regulering.

Kjelde: WIRED

Les òg: OpenAI lanserer 100 dollar i månaden Pro-plan for ChatGPT