Introduction
OpenAI soutient un projet de loi dans l'Illinois qui vise à protéger les laboratoires d'IA de la responsabilité en cas de préjudices graves causés par leurs modèles d'IA, tels que des décès ou des blessures graves de plus de 100 personnes ou des dégâts matériels de plus de 1 milliard de dollars.
Contexte Technique
Le projet de loi, SB 3444, définit les modèles d'IA « frontière » comme ceux qui ont nécessité plus de 100 millions de dollars en coûts de calcul pour leur formation. Il prévoit que les développeurs de ces modèles ne soient pas tenus responsables des préjudices graves causés par leurs modèles, à condition qu'ils n'aient pas agi intentionnellement ou de manière irresponsable et qu'ils aient publié des rapports de sécurité, de sûreté et de transparence sur leur site web.
Les experts en politique d'IA estiment que ce projet de loi est plus extrême que ceux que OpenAI a soutenus dans le passé. Le projet de loi vise à éviter une « mosaïque » de règles étatiques et à promouvoir des normes nationales plus claires et plus cohérentes.
Analyse et Implications
Le projet de loi soulève des questions sur la responsabilité des développeurs d'IA en cas de préjudices graves causés par leurs modèles. Les législateurs fédéraux et étatiques aux États-Unis n'ont pas encore adopté de lois spécifiques pour déterminer si les développeurs d'IA, comme OpenAI, peuvent être tenus responsables de ces types de préjudices.
Les experts estiment que le projet de loi a peu de chances d'être adopté, compte tenu de la réputation de l'Illinois en matière de régulation de la technologie. Une enquête menée auprès des habitants de l'Illinois a révélé que 90 % d'entre eux s'opposent à l'exemption de responsabilité pour les entreprises d'IA.
Perspective
Le projet de loi SB 3444 est un exemple de la complexité des questions liées à la régulation de l'IA. Les entreprises d'IA, comme OpenAI, doivent naviguer dans un paysage réglementaire en constante évolution pour assurer la sécurité et la sûreté de leurs modèles d'IA. Il est essentiel de surveiller les développements futurs dans ce domaine pour comprendre les implications de la régulation de l'IA sur l'industrie et la société.