Il est actuellement quasi-inévitable d’introduire des biais dans les modèles d’apprentissage automatique, et plus généralement dans ce que nous appelons l’intelligence artificielle (IA).
La reconnaissance faciale est utilisée pour tout, du déverrouillage de votre téléphone à votre porte.
Elle est aussi utilisée pour évaluer votre humeur ou, plus douteux, la probabilité que vous commettiez des actes criminels.
Le problème, c’est que même les meilleurs informaticiens travaillant sur le sujet échouent encore avec certains visages. Certaines couleurs de peau ou certains âges conduisent encore à des bugs désagréables.
Une étude de 2012 montrait ainsi que les algorithmes de reconnaissance faciale du fournisseur, Cognitec, avaient 5 à 10% de performance en moins sur les Afro-américains que sur les visages « caucasiens ». En 2011, les chercheurs ont montré que les modèles développés en Chine, Corée et Japon avaient du mal à distinguer des visages caucasiens de visages d’Asie de l’Est.
En plus, les bugs en matière de reconnaissance faciale font souvent jaser. Et en mal.
Comme cet événement où une femme d’affaires célèbre en photo sur la publicité de l’abribus avait été reconnue et vilipendée publiquement à la place de la véritable fautive qui traversait au feu rouge … devant l’affiche !
Cela a eu lieu en Chine où la prévention routière a recours à de drôles de méthodes : mettre la honte aux contrevenants en place publique. Si en plus, on se trompe de visage… on obtient l’effet inverse : tout le monde a rigolé.
Dans un monde où l’espérance de vie ne cesse de s’allonger, le concept de longévité…
Webinaire inédit en anglais Découvrez les dernières tendances de l'évaluation et les innovations dans le…
Live & HybridTout ce que vous devez savoir sur les tests cliniques et précliniques, c'est…