L’utilisation de systèmes d’intelligence artificielle (IA) est actuellement scrutée par certains organismes internationaux. Entre lutte contre la criminalité et fausses accusations, les systèmes de reconnaissance faciale comportent de nombreuses failles dans lesquelles s’introduisent des biais raciaux.
Si même le Haut-Commissariat des Nations Unies aux droits de l’homme (HCDH) a recommandé à la communauté internationale d’imposer un moratoire sur certains systèmes d’IA en septembre dernier, c’est que la situation mérite que l’on s’y attarde.
Pour cause, les dysfonctionnements de l’IA ont mené à des arrestations de personnes innocentes, à l’échelle mondiale, sur la base de systèmes de reconnaissance faciale incapables distinguer correctement des personnes aux traits physiques africains par exemple.
Construits par des humains, les algorithmes peuvent être le reflet des inégalités et des préjugés des sociétés. Pourquoi ces algorithmes seraient-ils imperméables aux préjugés et au racisme?
Les erreurs d’identification de suspects sont reliées non seulement aux systèmes de reconnaissance faciale, mais aussi aux biais raciaux. C’est notamment le cas du Brésil, où les méthodes d'utilisation de ces systèmes dans le cadre d’enquêtes policières ont conduit à de nombreuses erreurs de reconnaissance photographique d’individus. La plupart de ces personnes étaient des hommes noirs. Entre juin 2019 et mars 2020, 80% des erreurs policières ont impliqué des personnes à la peau noire, à Rio de Janeiro, d’après les données rapportées par un magazine mensuel local Piauí. Dans 86 % des cas, ces personnes ont été emprisonnées entre cinq jours et trois ans.
Protection des droits humains et reconnaissance faciale
Globalement, les données utilisées pour procéder à une reconnaissance faciale incluent autant les images des caméras de surveillance que les clichés publiés sur les réseaux sociaux. Le risque de fausses inculpations est important lorsque l’on s’appuie sur d’anciennes photos pour faire une comparaison ou lorsque les registres des personnes recherchées ne sont pas à jour. Dans un rapport indépendant, les Britanniques avaient déjà démontré en 2016 que les systèmes de reconnaissance faciale pouvaient atteindre jusqu’à 81% d'erreurs. Comment ne pas craindre qu’une telle situation ne vienne entraver la liberté humaine?
La grande majorité des technologies qui impliquent des algorithmes dans le monde sont issues de pays occidentaux. Construits par des humains, les algorithmes peuvent être le reflet des inégalités et des préjugés des sociétés. Pourquoi ces algorithmes seraient-ils imperméables aux préjugés et au racisme? Ainsi, le HCDH juge que les gouvernements doivent mettre en place un dispositif pour protéger les droits humains quant à l’utilisation des systèmes de reconnaissance faciale.
Outre le taux d’erreurs élevé et les biais raciaux de cette technologie, le droit à l’image est également en jeu. Tout un chacun peut légitimement se demander s’il est raisonnable que des centaines de milliers de personnes soient numérisées à leur insu, sans pour autant faire l’objet d’une enquête judiciaire. L’usage des outils de reconnaissances faciales nécessite un encadrement par les instances gouvernementales afin de déterminer où se trouve la limite.
Photo prise sur Pixabay