
L'IA Prédit les Meurtres au Royaume-Uni: Trop Proche de 'Minority Report'?
Dans une démarche tout droit sortie d'un roman de science-fiction dystopique, le gouvernement britannique développe un algorithme pour prédire qui est le plus susceptible de commettre un meurtre. Oui, vous avez bien lu. Le soi-disant "Projet de Prédiction d'Homicide", maintenant subtilement rebaptisé "Partage de Données pour Améliorer l'Évaluation des Risques", vise à signaler les assassins potentiels avant qu'ils n'agissent. Qu'est-ce qui pourrait mal tourner ?
Grâce aux demandes d'accès à l'information, nous savons que le ministère de la Justice a passé au crible les données de centaines de milliers de personnes. Ces données ne se limitent pas aux personnes ayant un casier judiciaire ; elles comprennent les suspects, les victimes, les témoins et même les personnes disparues. Elles comprennent également des informations sensibles sur la santé mentale, la toxicomanie et les handicaps. Les fonctionnaires affirment qu'ils n'utilisent que les données des personnes ayant au moins une condamnation pénale, mais la portée du projet soulève de sérieuses inquiétudes.
Le Problème avec la Police Prédictive
Il n'est pas nécessaire d'être un génie pour voir le potentiel d'abus ici. Les outils de police prédictive ont tendance à cibler de manière disproportionnée les communautés marginalisées. Prenez, par exemple, le système d'évaluation des délinquants du Royaume-Uni. Il est utilisé pour prédire les taux de récidive, ce qui influence les décisions en matière de détermination de la peine. Cependant, les examens ont montré qu'il est souvent inexact, en particulier pour les infractions non violentes, et qu'il évalue injustement les délinquants noirs par rapport aux délinquants blancs. Ces biais ne sont pas propres au Royaume-Uni. Les biais raciaux dans les données, qui découlent de la surveillance policière excessive historique de certaines communautés, entraînent des résultats biaisés et perpétuent les inégalités systémiques. Le système est truqué et ces algorithmes ne font qu'amplifier le problème.
Nous devons nous souvenir du récit édifiant de Minority Report. Le film n'était pas censé être un guide pratique. C'était un avertissement sur les dangers de la justice préventive et de l'érosion des libertés civiles. Espérons que nous pourrons tirer des leçons de la fiction avant qu'elle ne devienne notre réalité.
Source: Gizmodo