OpenAI soutient un projet de loi sur la responsabilité des dommages causés par l’IA

OpenAI a exprimé son soutien à un projet de loi dans l’Illinois visant à protéger les laboratoires d’IA contre la responsabilité en cas de dommages graves causés par des modèles d’IA. Cela inclut les situations où l’IA pourrait entraîner des décès ou des pertes économiques importantes.

IA expliquée

Que prévoit le projet de loi de l’Illinois sur la responsabilité des modèles d’IA ?

Le projet de loi SB 3444 protège les développeurs d’IA avancée de la responsabilité en cas de dommages graves, sauf en cas d’action intentionnelle ou de négligence. Il impose aussi la publication de rapports de sécurité et de transparence. Cette loi vise à clarifier les normes nationales et à prévenir les risques liés à l’usage de l’IA dans des contextes critiques.

  • En bref: Le texte exonère les créateurs de modèles d’IA coûteux de la responsabilité pour des dommages critiques, sous conditions.
  • Pourquoi c’est pertinent: Il cherche à éviter une réglementation fragmentée et à encadrer les risques graves liés à l’IA.
  • Point clé: La loi impose transparence et rapports de sécurité tout en limitant la responsabilité juridique des développeurs.

OpenAI soutient la loi de l’Illinois sur la responsabilité des modèles d’IA

Le projet de loi, connu sous le nom de SB 3444, exonère les développeurs de modèles d’IA avancés de la responsabilité pour les « dommages critiques » tant qu’ils n’ont pas agi intentionnellement ou par négligence. Il exige également la publication de rapports de sécurité et de transparence sur leurs sites web. Un « modèle de pointe » est défini comme un modèle d’IA entraîné avec plus de 100 millions de dollars de coûts de calcul, ce qui inclut probablement des acteurs majeurs comme OpenAI, Google et Meta.

Dans son soutien au projet de loi, le porte-parole d’OpenAI, Jamie Radice, a déclaré que celui-ci vise à réduire les risques de dommages graves liés aux systèmes d’IA avancés. Radice a également souligné que la loi pourrait aider à éviter une mosaïque confuse de réglementations étatiques en favorisant des normes nationales claires. Le projet de loi aborde aussi les préoccupations liées à l’utilisation de l’IA pour créer des armes chimiques ou biologiques, ainsi que la possibilité que des modèles d’IA commettent des actes criminels sans intervention humaine.

Implications pour le marché français de l’IA

Analyse AIny : Ce projet de loi américain pourrait influencer le développement de la technologie IA en France. Les développeurs français pourraient faire face à une pression accrue pour créer des solutions d’IA sans être tenus responsables des dommages potentiels. Par ailleurs, cela pourrait impacter la manière dont les entreprises françaises s’adaptent aux normes internationales de régulation de l’IA.

Source : WIRED

Lire aussi : OpenAI lance un plan Pro à 100 $/mois pour ChatGPT