Les reconnaissances faciales sont beaucoup moins précis pour identifier les visages africains et asiatiques que les visages de type européen.

Par Le jeudi, 26 décembre 2019 0

17155729 1902973389921970 7214685375415723859 n 5

Un système de reconnaissance faciale est une application logicielle visant à reconnaître une personne grâce à son visage de manière automatique. C'est un domaine de la vision par ordinateur consistant à reconnaître automatiquement une personne à partir d'une image de son visage. 

Reconnaissance faciale : beaucoup trop d’erreurs

 

 

 

Le 26/12/2019

 

Résultat de recherche d'images pour "reconnaissance faciale race""

 

Une étude du gouvernement américain suggère que les algorithmes de reconnaissance faciale sont beaucoup moins précis pour identifier les visages afro-américains et asiatiques que les visages caucasiens.

Les femmes afro-américaines sont encore plus susceptibles d'être mal identifiées, selon cette étude.

Cela pose la question de savoir si cette technologie devrait être utilisée par les organismes d'application de la loi.

Un critique a qualifié les résultats de "choquants".

Le National Institute of Standards and Technology (Nist) a testé 189 algorithmes de 99 développeurs, dont Intel, Microsoft, Toshiba et les sociétés chinoises Tencent et DiDi Chuxing.

 

Correspondance individuelle

Amazon - qui vend son produit de reconnaissance faciale Rekognition aux forces de police américaines - n'en a pas soumis un pour examen.

Le géant de la vente au détail avait auparavant qualifié de "trompeuse" une étude du Massachusetts Institute of Technology.

Ce rapport avait suggéré que Rekognition était très peu performant lorsqu'il s'agissait de reconnaître les femmes à la peau plus foncée.

 

Résultat de recherche d'images pour "reconnaissance faciale race noire""

 

Lorsqu'on compare une photo particulière à une autre du même visage - ce que l'on appelle la correspondance biunivoque- de nombreux algorithmes testés ont fait dix à cent fois plus d'erreurs sur des visages afro-américains et asiatiques que sur des visages caucasiens, selon le rapport.

En outre, les Afro-Américaines étaient plus susceptibles d'être mal identifiées dans le cadre de la correspondance dite "un à plusieurs", qui consiste à comparer une photo particulière à de nombreuses autres dans une base de données.

 

 

  • Le membre du Congrès Bennie Thompson, président de la Commission de la Chambre des représentants sur la sécurité intérieure, a déclaré à Reuters "L'administration doit réévaluer ses plans pour la technologie de reconnaissance faciale à la lumière de ces résultats choquants."

Joy Buolamwini, informaticienne et fondatrice de la Ligue de Justice Algorithmique, a qualifié le rapport de "réfutation complète" à ceux qui affirment que les logiciels d'intelligence artificielle ne sont pas biaisés.

Les algorithmes de l'étude Nist ont été testés sur deux types d'erreurs :

  • les faux positifs, où le logiciel considère à tort que les photos de deux individus différents montrent la même personne
  • les faux négatifs, où le logiciel ne parvient pas à faire correspondre deux photos qui montrent la même personne

Le logiciel utilisait des photos provenant de bases de données fournies par le département d'État, le ministère de la sécurité intérieure et le FBI, sans images provenant de médias sociaux ou de vidéosurveillance.

"Bien qu'il soit généralement incorrect de faire des déclarations à travers les algorithmes, nous avons trouvé des preuves empiriques de l'existence de différences démographiques dans la majorité des algorithmes de reconnaissance faciale que nous avons étudiés", a déclaré Patrick Grother, un informaticien du Nist et l'auteur principal du rapport.

 

Bcc

Aucune note. Soyez le premier à attribuer une note !

Ajouter un commentaire

Anti-spam