
Meta utilisera l'IA pour l'évaluation des risques des produits
Meta prévoit un changement significatif dans son processus d'évaluation des risques de ses produits. Au lieu de compter principalement sur des examinateurs humains, l'entreprise se tourne de plus en plus vers l'intelligence artificielle pour accélérer l'évaluation des dommages potentiels liés aux nouvelles fonctionnalités et mises à jour de ses plateformes, notamment Instagram et WhatsApp.
Des documents internes suggèrent que Meta vise à ce que l'IA gère jusqu'à 90 % de ces évaluations. Cela inclut des domaines auparavant supervisés par des équipes humaines, tels que les risques pour les jeunes et l'intégrité du contenu (comprenant les contenus violents et la désinformation).
Inquiétudes Concernant la Supervision par l'IA
Cependant, cette transition a suscité des inquiétudes parmi les employés actuels et anciens. Ils craignent que l'IA puisse négliger des risques critiques facilement identifiables par des examinateurs humains. Le potentiel d'augmentation des externalités négatives résultant d'un examen moins rigoureux est une préoccupation majeure.
Bien que Meta affirme qu'elle continuera à faire appel à l'expertise humaine pour les questions complexes, la dépendance accrue à l'IA pour les décisions à « faible risque » soulève des questions sur la robustesse de cette approche. La vitesse et l'efficacité offertes par l'IA sont indéniables, mais le compromis en termes de supervision potentielle reste un point de discorde.
Des rapports d'intégrité récents de Meta révèlent une diminution du nombre de contenus supprimés suite à des modifications de politiques, ainsi qu'une légère augmentation du harcèlement, du cyberharcèlement et des contenus violents. Ces données alimentent encore plus le débat sur les conséquences potentielles du passage à un système d'examen plus axé sur l'IA.
1 Image de Changement IA Meta:

Source: Engadget