Il est actuellement quasi-inévitable d’introduire des biais dans les modèles d’apprentissage automatique, et plus généralement dans ce que nous appelons l’intelligence artificielle (IA).
La reconnaissance faciale est utilisée pour tout, du déverrouillage de votre téléphone à votre porte.
Elle est aussi utilisée pour évaluer votre humeur ou, plus douteux, la probabilité que vous commettiez des actes criminels.
Le problème, c’est que même les meilleurs informaticiens travaillant sur le sujet échouent encore avec certains visages. Certaines couleurs de peau ou certains âges conduisent encore à des bugs désagréables.
Une étude de 2012 montrait ainsi que les algorithmes de reconnaissance faciale du fournisseur, Cognitec, avaient 5 à 10% de performance en moins sur les Afro-américains que sur les visages « caucasiens ». En 2011, les chercheurs ont montré que les modèles développés en Chine, Corée et Japon avaient du mal à distinguer des visages caucasiens de visages d’Asie de l’Est.
En plus, les bugs en matière de reconnaissance faciale font souvent jaser. Et en mal.
Comme cet événement où une femme d’affaires célèbre en photo sur la publicité de l’abribus avait été reconnue et vilipendée publiquement à la place de la véritable fautive qui traversait au feu rouge … devant l’affiche !
Cela a eu lieu en Chine où la prévention routière a recours à de drôles de méthodes : mettre la honte aux contrevenants en place publique. Si en plus, on se trompe de visage… on obtient l’effet inverse : tout le monde a rigolé.
Conférence en ligne et EN ANGLAIS, le mardi 19 novembre 2024 à 15h [CET] Durée…
« Le consommateur moyen est une personne raisonnablement bien informée, observatrice et circonspecte - personne…
Le musée du Louvre propose dans les salles du musée un récit autour d’une centaine…