OpenAI apoia projeto de lei sobre responsabilidade por danos causados por IA

OpenAI expressou apoio a um projeto de lei em Illinois que visa proteger laboratórios de IA contra responsabilidades em casos onde modelos de IA causam danos sociais graves. Isso inclui situações em que a IA pode levar a mortes ou danos econômicos significativos.

IA explicada

Como o projeto de lei de Illinois trata a responsabilidade por danos causados por IA?

O projeto SB 3444 de Illinois isenta desenvolvedores de modelos avançados de IA de responsabilidade por danos graves, desde que não haja intenção ou negligência. Ele exige relatórios de segurança e transparência e define "modelo de fronteira" como IA treinada com mais de 100 milhões de dólares em custos computacionais.

  • Resumo: O projeto protege laboratórios de IA contra responsabilidade por danos críticos, incluindo mortes e prejuízos econômicos, e impõe requisitos de transparência.
  • Por que isso importa: A lei busca reduzir riscos graves causados por IA e evitar regulamentações estaduais fragmentadas, criando padrões claros.
  • Ponto principal: A iniciativa pode influenciar regulações globais, incluindo no Brasil, ao equilibrar proteção legal e inovação tecnológica.

OpenAI apoia lei de Illinois sobre responsabilidade de modelos de IA

O projeto de lei, conhecido como SB 3444, isentaria desenvolvedores de modelos avançados de IA de responsabilidade por “danos críticos” desde que não tenham agido intencionalmente ou por negligência. Também exige que publiquem relatórios de segurança e transparência em seus sites. Um “modelo de fronteira” é definido como um modelo de IA treinado com mais de 100 milhões de dólares em custos computacionais, o que provavelmente inclui grandes players como OpenAI, Google e Meta.

Em seu apoio ao projeto, o porta-voz da OpenAI, Jamie Radice, afirmou que ele foca em reduzir o risco de danos graves causados por sistemas avançados de IA. Radice também destacou que a lei pode ajudar a evitar uma coleção fragmentada de regulamentações estaduais, promovendo padrões nacionais claros. O projeto também aborda preocupações de que a IA possa ser usada para criar armas químicas ou biológicas, e que modelos de IA possam cometer crimes sem intervenção humana.

Impactos e relevância para o Brasil

Este projeto de lei nos Estados Unidos pode influenciar o desenvolvimento e a regulamentação da IA no Brasil, especialmente para empresas brasileiras que atuam globalmente. A isenção de responsabilidade para desenvolvedores pode gerar debates sobre a necessidade de regras claras e específicas para proteger usuários e a sociedade, enquanto incentiva a inovação tecnológica no país.

Fonte: WIRED

Leia também: OpenAI lança plano Pro de R$ 500/mês para ChatGPT