OpenAI ha expresado su apoyo a un proyecto de ley en Illinois que protegerá a los laboratorios de IA frente a responsabilidades en casos donde los modelos de IA causen daños graves a la sociedad. Esto incluye situaciones en las que la IA pueda provocar muertes o daños económicos significativos.
Escuchar el artículo
Escucha el artículo con una voz de IA natural.
IA explicada
¿Qué implica el proyecto de ley SB 3444 apoyado por OpenAI en Illinois?
El proyecto de ley SB 3444 en Illinois exime a desarrolladores de modelos avanzados de IA de responsabilidad por daños graves si no actúan intencionadamente o con negligencia. La ley exige además informes de seguridad y transparencia. Se define como "modelo frontera" a aquellos entrenados con más de 100 millones de dólares en costes computacionales.
- Resumen: La ley protege a laboratorios de IA frente a responsabilidades por daños críticos, incluyendo muertes o daños económicos, bajo ciertas condiciones.
- Por qué importa: Busca evitar regulaciones estatales fragmentadas y promover estándares nacionales claros para la IA avanzada.
- Punto clave: La legislación aborda riesgos graves como el uso de IA para crear armas químicas o actos criminales sin intervención humana.
OpenAI respalda la ley de Illinois sobre responsabilidad de modelos de IA
El proyecto de ley, conocido como SB 3444, eximirá a los desarrolladores de modelos avanzados de IA de responsabilidad por «daños críticos» siempre que no hayan actuado de forma intencionada o negligente. También se exige que publiquen informes de seguridad y transparencia en sus sitios web. Un «modelo frontera» se define como un modelo de IA entrenado con más de 100 millones de dólares en costes computacionales, lo que probablemente incluye a grandes actores como OpenAI, Google y Meta.
En su apoyo al proyecto, el portavoz de OpenAI, Jamie Radice, señaló que se centra en reducir el riesgo de daños graves derivados de sistemas avanzados de IA. Radice también destacó que la ley puede ayudar a evitar un mosaico confuso de regulaciones estatales y, en cambio, promover estándares nacionales claros. El proyecto aborda además preocupaciones sobre el uso de IA para crear armas químicas o biológicas, y sobre la posibilidad de que los modelos de IA cometan actos criminales sin intervención humana.
Implicaciones para el mercado español y la regulación local
Este tipo de legislación puede influir en el desarrollo y la regulación de la IA en España, donde las empresas tecnológicas podrían enfrentarse a debates similares sobre responsabilidad y transparencia. Además, la iniciativa de Illinois puede servir como referencia para la armonización de normativas europeas y españolas en materia de inteligencia artificial avanzada.
Fuente: WIRED
Lee también: Anthropic suspendió al creador de OpenClaws del acceso a Claude

