OpenAI soutient un projet de loi sur la responsabilité des dommages causés par l’IA

OpenAI a exprimé son soutien à un projet de loi dans l’Illinois visant à protéger les laboratoires d’IA contre la responsabilité en cas de dommages graves causés par des modèles d’IA. Cela inclut les situations où l’IA pourrait entraîner des décès ou des pertes économiques importantes.

IA expliquée

Quel est l’objectif du projet de loi SB 3444 soutenu par OpenAI ?

Le projet de loi SB 3444 en Illinois protège les développeurs de modèles d’IA avancés contre la responsabilité en cas de dommages graves, sauf en cas d’intention ou de négligence. Il impose aussi la publication de rapports de sécurité et de transparence. Ce texte vise à clarifier les normes légales autour des risques liés aux systèmes d’IA avancés.

  • En bref: Le projet exonère les développeurs d’IA de la responsabilité pour des dommages critiques sauf faute intentionnelle ou négligence.
  • Pourquoi c’est pertinent: Il cherche à éviter une réglementation étatique fragmentée en proposant des normes nationales claires.
  • Point clé: La loi concerne les modèles d’IA dits « de pointe », entraînés avec plus de 100 millions de dollars de calcul, et inclut des exigences de transparence.

OpenAI soutient la loi de l’Illinois sur la responsabilité des modèles d’IA

Le projet de loi, connu sous le nom de SB 3444, exonère les développeurs de modèles d’IA avancés de la responsabilité pour les « dommages critiques » tant qu’ils n’ont pas agi intentionnellement ou par négligence. Il exige également la publication de rapports de sécurité et de transparence sur leurs sites web. Un « modèle de pointe » est défini comme un modèle d’IA entraîné avec plus de 100 millions de dollars de coûts de calcul, ce qui inclut probablement des acteurs majeurs comme OpenAI, Google et Meta.

Dans son soutien au projet de loi, le porte-parole d’OpenAI, Jamie Radice, a déclaré que celui-ci vise à réduire les risques de dommages graves liés aux systèmes d’IA avancés. Radice a également souligné que la loi pourrait aider à éviter une mosaïque confuse de réglementations étatiques en favorisant des normes nationales claires. Le projet de loi aborde aussi les préoccupations liées à l’utilisation de l’IA pour créer des armes chimiques ou biologiques, ainsi que la possibilité que des modèles d’IA commettent des actes criminels sans intervention humaine.

Implications pour le marché français de l’IA

Analyse AIny : Ce projet de loi américain pourrait influencer le développement de la technologie IA en France. Les développeurs français pourraient faire face à une pression accrue pour créer des solutions d’IA sans être tenus responsables des dommages potentiels. Par ailleurs, cela pourrait impacter la manière dont les entreprises françaises s’adaptent aux normes internationales de régulation de l’IA.

Source : WIRED

Lire aussi : Anthropic suspend temporairement le créateur d’OpenClaws de l’accès à Claude