La technologie de détection des visages d’Amazon montre un préjugé, selon les chercheurs

Selon des chercheurs du MIT et de l’Université de Toronto, la technologie de détection du visage qu’Amazon commercialise pour les organismes d’application de la loi identifie souvent mal les femmes, particulièrement les femmes à la peau plus foncée.

Une technologie de détection des visages discriminatoires ?

Les défenseurs de la vie privée et des droits civils ont demandé à Amazon de cesser de commercialiser son service de reconnaissance en raison de préoccupations liées à la discrimination contre les minorités. Certains investisseurs d’Amazon ont également demandé à l’entreprise d’arrêter de peur qu’Amazon ne soit vulnérable à des poursuites judiciaires.

Les chercheurs ont déclaré que dans leurs tests, la technologie d’Amazon a classé les femmes à la peau foncée comme des hommes dans 31 % des cas. Les femmes à la peau plus claire ont été identifiées par erreur 7 % du temps. Les hommes à la peau plus foncée avaient un taux d’erreur de 1 %, tandis que les hommes à la peau plus claire n’en avaient pas.

L’intelligence artificielle peut imiter les préjugés de ses créateurs humains lorsqu’ils avancent dans la vie quotidienne. La nouvelle étude, publiée jeudi soir, met en garde contre les risques d’abus et les menaces à la vie privée et aux libertés civiles liés à la technologie de détection des visages.

Matt Wood, directeur général de l’intelligence artificielle de l’unité de cloud computing d’Amazon, a déclaré que l’étude utilise l’analyse faciale plutôt que la technologie de « reconnaissance faciale ». Selon Wood, l’analyse faciale  » peut détecter des visages dans des vidéos ou des images et attribuer des attributs génériques, comme le port de lunettes ; la reconnaissance est une technique différente par laquelle un visage individuel est combiné avec des visages dans des vidéos et des images.

Dans un article publié vendredi sur le site Web de Medium, Joy Buolamwini, chercheuse au MIT Media Lab, a répondu que les entreprises devraient vérifier tous les systèmes qui analysent les visages humains pour déceler tout biais.

« Si vous vendez un système dont il a été démontré qu’il est biaisé sur le visage humain, il est douteux que vos autres produits à base de produits faciaux soient également totalement exempts de biais « , a-t-il écrit.

La réaction d’Amazon montre qu’elle ne prend pas au sérieux les  » très graves préoccupations révélées par cette étude « , a déclaré Jacob Snow, un avocat de l’American Civil Liberties Union.

Buolamwini et Inioluwa Deborah Raji, de l’Université de Toronto, ont dit avoir étudié la technologie d’Amazon parce que l’entreprise l’a commercialisée pour appliquer la loi. Le compte LinkedIn de Raji indique qu’elle est actuellement chercheuse en intelligence artificielle chez Google, qui est en concurrence avec Amazon pour offrir des services de cloud computing.

Buolamwini et Raji affirment que Microsoft et IBM ont amélioré leur technologie de reconnaissance faciale depuis que les chercheurs ont découvert des problèmes similaires dans une étude de mai 2017. Sa deuxième étude, qui comprenait Amazon, a été menée en août 2018. Son article sera présenté lundi lors d’une conférence sur l’intelligence artificielle à Honolulu. M. Wood a déclaré qu’Amazon a mis à jour sa technologie depuis l’étude et a effectué sa propre analyse avec  » zéro correspondance faussement positive « . Le site Web d’Amazon attribue à Rekognition le mérite d’avoir aidé le bureau du shérif du comté de Washington, en Oregon, à accélérer l’identification des suspects à partir de centaines de milliers de documents photographiques.