OpenAI expressou apoio a um projeto de lei em Illinois que visa proteger laboratórios de IA contra responsabilidades em casos onde modelos de IA causam danos sociais graves. Isso inclui situações em que a IA pode levar a mortes ou danos econômicos significativos.
Ouça o artigo
Ouça o artigo com uma voz de IA natural.
IA explicada
Como o projeto de lei de Illinois trata a responsabilidade por danos causados por IA?
O projeto SB 3444 de Illinois isenta desenvolvedores de modelos avançados de IA de responsabilidade por danos graves, desde que não haja intenção ou negligência. Ele exige relatórios de segurança e transparência e define modelos de fronteira como aqueles com custo computacional acima de 100 milhões de dólares. A lei busca reduzir riscos e evitar regulamentações estaduais fragmentadas.
- Resumo: O projeto protege laboratórios de IA contra responsabilidade por danos críticos causados por seus modelos, com exigência de transparência.
- Por que isso importa: A lei pode influenciar padrões regulatórios nos EUA e impactar empresas brasileiras que atuam globalmente.
- Ponto principal: A legislação busca equilibrar proteção legal para desenvolvedores e controle de riscos graves da IA.
OpenAI apoia lei de Illinois sobre responsabilidade de modelos de IA
O projeto de lei, conhecido como SB 3444, isentaria desenvolvedores de modelos avançados de IA de responsabilidade por “danos críticos” desde que não tenham agido intencionalmente ou por negligência. Também exige que publiquem relatórios de segurança e transparência em seus sites. Um “modelo de fronteira” é definido como um modelo de IA treinado com mais de 100 milhões de dólares em custos computacionais, o que provavelmente inclui grandes players como OpenAI, Google e Meta.
Em seu apoio ao projeto, o porta-voz da OpenAI, Jamie Radice, afirmou que ele foca em reduzir o risco de danos graves causados por sistemas avançados de IA. Radice também destacou que a lei pode ajudar a evitar uma coleção fragmentada de regulamentações estaduais, promovendo padrões nacionais claros. O projeto também aborda preocupações de que a IA possa ser usada para criar armas químicas ou biológicas, e que modelos de IA possam cometer crimes sem intervenção humana.
Impactos e relevância para o Brasil
Este projeto de lei nos Estados Unidos pode influenciar o desenvolvimento e a regulamentação da IA no Brasil, especialmente para empresas brasileiras que atuam globalmente. A isenção de responsabilidade para desenvolvedores pode gerar debates sobre a necessidade de regras claras e específicas para proteger usuários e a sociedade, enquanto incentiva a inovação tecnológica no país.
Fonte: WIRED
Leia também: Anthropic suspendeu criador do OpenClaws do acesso ao Claude

