L’utilisation de la reconnaissance faciale par la police contribue à la discrimination des minorités visibles et dissuade des communautés marginalisées de manifester, selon Amnistie internationale.
« Dans un pays démocratique, on ne devrait pas normaliser la surveillance de masse, notamment dans le contexte des manifestations », comme cela a été le cas avec les manifestations du mouvement Black Lives Matter à New York en 2020, déclare Christelle Tessono, chercheuse en politiques technologiques à l’Université de Toronto.
Elle souligne que les institutions comptent sur la capacité de la population à manifester sans préavis et qu’il est facile d’observer comment « la reconnaissance faciale pourrait être utilisée dans des contextes autoritaires ».
Derrick Ingram, un des leaders du mouvement Black Lives Matter, a été ciblé par le Département de police de New York (NYPD) à l’aide de la technologie de reconnaissance faciale. Il aurait accidentellement endommagé l'ouïe d’une policière en criant dans un mégaphone lors d’une manifestation. Il était en train de diriger des manifestants encerclés par la police lors d’une action pacifique.
Il a par la suite été victime de harcèlement par la police, qui a tenté de l’arrêter chez lui sans mandat. « Ils avaient l’air, en rétrospective, d'utiliser tous les jouets à leur disposition, et d’avoir du plaisir », confie M. Ingram à Amnistie internationale dans le balado Facial Recognition and Policing Protesters.
« Le crime pour lequel ils m'accusent ne méritait pas 2 hélicoptères, l’escouade canine, des tireurs d’élite et de l’écoute téléphonique », dénonce-t-il dans le balado en soulignant les mesures «abusives» employées par le NYPD. Derrick Ingram n’a pas été arrêté cette journée-là, mais il a bien cru qu’il allait mourir.
Le fonctionnement du logiciel
La campagne « Ban the scan » d’Amnistie internationale vise entre autres à bannir la reconnaissance faciale parce qu’elle violerait le droit à la vie privée. La plateforme Clearview AI, qui collecte des images sans le consentement des gens, en est un bon exemple.
Le fonctionnement même de la reconnaissance faciale implique la violation du droit à la vie privée, selon Mme Tessono. « Même si les technologies de reconnaissance faciale n’éprouvaient aucune difficulté technique, j’aurais encore un problème avec le déploiement de cette technologie, parce qu’elle menace notre liberté d’expression et d’association », affirme la chercheuse qui a étudié les retombées des technologies sur les personnes racisées.
Les algorithmes de reconnaissance faciale apprennent à identifier les visages et les formes grâce à des banques d’images, explique le professeur au département d’informatique de l’Université du Québec à Montréal et spécialiste en intelligence artificielle, Mounir Boukadoum. Il souligne que les bases de donnés utilisées par ces algorithmes comptent une minorité de visages de personnes de couleur, et comme les algorithmes sont peu efficaces pour identifier les traits moins récurrents, on note beaucoup plus d'erreurs lors de l’identification de ces visages.
Une étude du National Institute of Standard Technology (NIST) montre que pour certains algorithmes, les taux de faux positifs sont de 10 à 100 fois plus élevés pour les visages afro-américains et asiatiques que pour les visages caucasiens. M. Boukadoum affirme que si les données fournies à l’algorithme de reconnaissance faciale étaient suffisamment diversifiées, l'algorithme ne serait pas biaisé.
Si l’intelligence artificielle se trompe lorsqu’elle est utilisée par les forces de l’ordre, les conséquences peuvent s’avérer très graves pour les personnes concernées. Six cas de fausses arrestations attribuables à la reconnaissance faciale ont été répertoriés aux États-Unis depuis 2018 et toutes ces personnes sont noires, souligne Gibeon Christian, professeur adjoint en droit de l’Université de Calgary et spécialiste en droit et en technologies.
Randal Quran Reida a été accusé d’un crime commis dans un État où il n’était jamais allé, tandis que Porcha Woodruff a été accusée d’avoir volé une voiture alors qu’elle était enceinte de huit mois, ce qui n’était pas possible dans son état, rappelle le professeur.
La reconnaissance faciale pour protéger la démocratie
M. Christian soulève que la reconnaissance faciale est un outil extraordinaire, qui peut être utilisé à bon escient pour servir la démocratie, mais il insiste sur le fait qu’il devrait y avoir une surveillance humaine lorsqu’elle est utilisée, pour justement éviter ce genre de situation.
La reconnaissance faciale a été utilisée pour identifier Larry Rendall Brock, un des assaillants de l’attaque sur le Capitole du 6 janvier. L’utilisation par la police de l’application de reconnaissance faciale Clearview AI a augmenté de 26% après l’incident au Capitole selon le Hoan Ton-That, cofondateur et PDG de Clearview AI.
Les forces de l’ordre ont tendance à surveiller les communautés de couleur, entraînant une plus grande détection de la criminalité dans ces communautés, selon le groupe de réflexion spécialisé en formation et recherche en sciences sociales, Brookings. C’est un cercle vicieux qui entraîne une surveillance accrue, qui discrimine les minorités visibles et qui empiète sur leur liberté d’expression, explique Gideon Christian.
Lorsqu'elle est déployée par les forces de l'ordre, la reconnaissance faciale peut faciliter et accélérer les recherches policières, mais dans un système où des biais existent envers certaines communautés, elle a le potentiel de devenir un instrument pouvant être utilisé de manière discriminatoire.
Illustration : Élisabeth Bujold-Gauthier