OpenAI apoya proyecto de ley sobre responsabilidad por daños causados por IA

OpenAI ha expresado su apoyo a un proyecto de ley en Illinois que protegerá a los laboratorios de IA frente a responsabilidades en casos donde los modelos de IA causen daños graves a la sociedad. Esto incluye situaciones en las que la IA pueda provocar muertes o daños económicos significativos.

IA explicada

¿Qué implica el apoyo de OpenAI a la ley de responsabilidad por daños de IA en Illinois?

OpenAI apoya un proyecto de ley en Illinois que exime a desarrolladores de IA de responsabilidad por daños graves si no actúan intencionada o negligentemente. La ley exige informes de seguridad y define modelos frontera según su coste computacional. Busca evitar regulaciones estatales dispersas y promover estándares claros.

  • Resumen: La ley SB 3444 protege a laboratorios de IA frente a responsabilidades por daños críticos, con requisitos de transparencia.
  • Por qué importa: Establece un marco legal para la responsabilidad de modelos avanzados y puede influir en regulaciones en España y Europa.
  • Punto clave: La ley equilibra la protección legal con la obligación de publicar informes de seguridad para modelos de IA costosos y avanzados.

OpenAI respalda la ley de Illinois sobre responsabilidad de modelos de IA

El proyecto de ley, conocido como SB 3444, eximirá a los desarrolladores de modelos avanzados de IA de responsabilidad por «daños críticos» siempre que no hayan actuado de forma intencionada o negligente. También se exige que publiquen informes de seguridad y transparencia en sus sitios web. Un «modelo frontera» se define como un modelo de IA entrenado con más de 100 millones de dólares en costes computacionales, lo que probablemente incluye a grandes actores como OpenAI, Google y Meta.

En su apoyo al proyecto, el portavoz de OpenAI, Jamie Radice, señaló que se centra en reducir el riesgo de daños graves derivados de sistemas avanzados de IA. Radice también destacó que la ley puede ayudar a evitar un mosaico confuso de regulaciones estatales y, en cambio, promover estándares nacionales claros. El proyecto aborda además preocupaciones sobre el uso de IA para crear armas químicas o biológicas, y sobre la posibilidad de que los modelos de IA cometan actos criminales sin intervención humana.

Implicaciones para el mercado español y la regulación local

Este tipo de legislación puede influir en el desarrollo y la regulación de la IA en España, donde las empresas tecnológicas podrían enfrentarse a debates similares sobre responsabilidad y transparencia. Además, la iniciativa de Illinois puede servir como referencia para la armonización de normativas europeas y españolas en materia de inteligencia artificial avanzada.

Fuente: WIRED

Lee también: OpenAI lanza un plan Pro de 100 $/mes para ChatGPT