L’intelligence artificielle et l’évaluation de la sécurité cosmétique : opportunités et limites

Article du Dr. Corinne Benoliel, Pharmacien microbiologiste, évaluatrice de la sécurité des produits cosmétiques (toxicologue ERT),
fondatrice et gérante d’INSTITUT SCIENTIS

Microbiologie-Toxicologie- R&D-Formulation-Réglementation
Organisme de formation n° 11 75 54659 75 – Agrément CIR/CII
www.institut-scientis.fr

Un outil prometteur, mais sous surveillance dans un cadre réglementaire strict

En Europe, le Règlement (CE) n°1223/2009 exige que chaque produit cosmétique mis sur le marché soit sûr pour la santé humaine dans des conditions d’utilisation normales et raisonnablement prévisibles d’utilisation. Cette obligation implique une évaluation de sécurité réalisée par un expert qualifié, souvent appelé « toxicologue ».
Ce processus repose sur l’analyse minutieuse de données variées, conformément à son article 10 et
son annexe I.

L’évaluateur de la sécurité peut désormais être aidé par l’intelligence artificielle (IA) qui s’impose comme un atout majeur pour moderniser son travail.
Cependant, l’utilisation de l’IA soulève une question fondamentale : peut-elle garantir la rigueur scientifique et la responsabilité des acteurs sans compromettre la qualité des évaluations ?

L’IA gratuite : une solution accessible, mais aux défis majeurs

Face au coût souvent élevé des solutions d’IA dédiées, les outils gratuits et accessibles séduisent de nombreux professionnels. Mais peuvent-ils vraiment automatiser une évaluation de sécurité sans erreur ? Cette question a été évoquée lors de la 23ème édition du congrès Enjeux réglementaires Parfums & Cosmétiques le 19 novembre 2025.

Les IA génératives gratuites, souvent disponibles en version basique, peuvent donner l’impression de gagner du temps. Elles permettent en effet de croiser des données et d’automatiser certaines étapes des rapports de sécurité. Cependant, ces outils présentent des risques majeurs nécessitant une vigilance accrue. D’abord, les algorithmes sont peu adaptés aux enjeux cosmétiques et peuvent générer des erreurs. Ensuite, l’utilisation de plateformes externes soulève des questions sur la confidentialité des données. Enfin, l’expert reste seul responsable de la validation finale des résultats.

Etude de cas : la pré-évaluation d’un parfum

Plusieurs IA gratuites ont été testées pour réaliser la pré-évaluation (calcul des marges de sécurité et étiquetage des allergènes) d’un parfum contenant de l’éthanol dénaturé, une composition parfumante et de l’eau. La formule du produit et les données relatives à son exposition (population cible, quantité
par application, fréquence) ont été transmises.
Le livrable demandé était un tableau synthétique intégrant les ingrédients et numéros CAS relatifs, leurs pourcentages respectifs dans le produit, en complément de l’identification des allergènes à étiqueter, des valeurs toxicologiques de référence et du calcul des marges de sécurité.
Sans grande surprise, des erreurs en cascade ont été identifiées, notamment :

  • L’IA s’est référée à la liste des 26 allergènes (au lieu des 24) et ignorait encore le Règlement (UE) n°2023/1545 élargissant leur liste à 81 allergènes.
  • Les marges de sécurité ont été calculées de façon identique pour les ingrédients et pour les allergènes, sans tenir compte de leur potentiel sensibilisant.
  • Les données d’absorption étaient fausses et/ou non justifiées.
  • Le dénaturant de l’alcool n’a pas été identifié.

Finalement, l’IA a reconnu ses limites en précisant : « Je ne peux remplacer un évaluateur de sécurité pour rédiger la partie B du dossier cosmétique, mais je peux vous assister en soutien à un expert humain. »

Conclusion : L’IA est un soutien et non un substitut.

À ce jour, aucune IA ne peut égaler la précision analytique requise pour raisonner en vue de la rédaction d’une évaluation de sécurité cosmétique. L’interprétation des données réglementaires, toxicologiques et scientifiques, ainsi que leur contextualisation, relèvent exclusivement de l’expertise
humaine.
Cette expérience souligne l’importance d’intégrer l’IA de manière réfléchie dans les méthodologies réglementaires et scientifiques. L’enjeu est d’en faire un levier complémentaire pour renforcer l’évaluation de la sécurité, tout en préservant la rigueur et la vigilance indispensables de l’expert humain.