Réglementation IA

Nouvelle approche de la Californie en matière de réglementation de l'IA : la transparence et l'examen indépendant sont au premier plan

Politique

Vous vous souvenez de septembre dernier, lorsque tout le monde avait les yeux rivés sur le projet de loi 1047 du Sénat californien, espérant qu'il deviendrait loi ? Eh bien, ce n'est pas arrivé. Le gouverneur Gavin Newsom a opposé son veto au projet de loi, qui visait à obliger les entreprises d'IA à tester les grands modèles d'IA (qui coûtent 100 millions de dollars ou plus à entraîner) pour détecter les dangers potentiels. Bien que les lanceurs d'alerte de l'IA aient été déçus, la plupart des grandes entreprises technologiques ont été soulagées.

Cependant, ce n'était pas la fin de l'histoire. Estimant que le projet de loi était trop rigide, Newsom a demandé à un groupe de chercheurs en IA d'élaborer un meilleur plan. Il voulait quelque chose qui encourage à la fois le développement de l'IA et la gestion de ses risques. Et maintenant, leur rapport est sorti.

Le "California Report on Frontier Policy", un document de 52 pages, souligne que l'IA s'est considérablement améliorée depuis que Newsom a opposé son veto au SB 1047. L'IA peut désormais faire des choses comme "raisonner" de manière séquentielle. Pour cette raison, les chercheurs suggèrent une nouvelle approche axée sur la transparence et les examens indépendants des modèles d'IA. Considérez cela comme un moyen de surveiller de près les progrès de l'IA et les problèmes potentiels.

Source: The Verge