Michaël Sarrey, INRS : “Dans une machine, on ne peut pas calculer le niveau de fiabilité d’une fonction qui utilise de l’IA”

17/11/2025

Michaël Sarrey, chercheur en sécurité des machines à l’INRS

Un nouveau règlement entrera en vigueur dans un an pour assurer une meilleure sécurité des machines. L’occasion pour nous d’interroger un spécialiste sur les liens qui peuvent exister entre le recours à l’intelligence artificielle (IA) et ces questions de sécurité des machines. Entretien avec Michaël Sarrey, chercheur en sécurité des machines à l’INRS, l’institut national de recherche et de sécurité pour la prévention des accidents du travail et des maladies professionnelles.

► Publié en 2023, le règlement Machines 2023/1230 rentrera en vigueur le 20 janvier 2027. Il remplace la directive Machines de 2006 et a pour objectif de renforcer la sécurité et la fiabilité des machines et donc la sécurité des travailleurs. Il clarifie le champ d’application et certaines définitions de la règlementation. Il a aussi pour vocation d’intégrer les risques générés par les technologies numériques et émergentes (robots collaboratifs, intelligence artificielle, cybersécurité, etc.). 

L’Union de normalisation de la mécanique (UNM) a récemment publié un guide sur la sécurité des machines et l’intelligence artificielle (IA), auquel vous avez contribué. Pourquoi ce guide ?

Le règlement Machines qui a été publié en 2023 et qui rentrera en vigueur en 2027 intègre cette problématique de l’IA dans les machines. Cet enjeu n’est pas simple à comprendre dans la rédaction du texte réglementaire. Notre objectif (pour l’UNM, l’INRS et les autres parties prenantes) était donc de vulgariser les choses, notamment pour un public de concepteurs ou d’utilisateurs de machines.

Dans le cas où il y a de l’IA dans la machine vous conseillez de commencer par regarder si celle-ci a un impact sur la sécurité ou pas, c’est la première étape ?

Oui, dans le monde des machines, on a l’habitude d’avoir deux systèmes indépendants : un qui s’occupe de la fonctionnalité de la machine et un de la sécurité des personnes. Prenons l’exemple d’une fendeuse à bûches. D’abord, on va s’assurer que notre machine est capable de fendre des bûches. Ensuite, il y a le système relatif à la sécurité, qu’on met par-dessus le système de commande de la machine. Cet autre système de commande est dédié à la sécurité, il a pour finalité de s’assurer qu’on ne va pas blesser les gens qui travaillent avec cette machine. Par rapport à l’IA, il faut s’assurer qu’elle est dans la partie fonctionnelle, et pas dans la partie sécurité.

Et justement, dans le cas où l’IA serait dans la fonction sécurité, que faire ?

À date, on ne peut rien faire. Je m’explique : aujourd’hui, pour une fonction de sécurité, on a des procédures qui nous permettent d’évaluer le niveau de fiabilité de cette fonction de sécurité. Selon le risque, on demande un certain niveau de fiabilité, qui peut être très élevé : si le risque est mortel, la probabilité de défaillance de la fonction de sécurité est de l’ordre de 1 sur 100 millions.

Dans tous les cas, on doit pouvoir calculer le niveau de fiabilité de cette fonction de sécurité pour savoir quel risque elle peut adresser : avoir ce niveau de performance est nécessaire. Or, avec nos IA, on a un souci car mathématiquement, on ne peut pas le calculer. Et cette impossibilité vient de la nature même du système IA, c’est par construction qu’on ne sait pas faire. Comme il n’y a pas vraiment d’issue, la recommandation est de mettre une fonction de sécurité sans IA « au-dessus » de celle qui utilise de l’IA, qu’on ne peut pas laisser seule (ce qui évidemment rend inutile la présence d’IA).

Lors de l’événement organisé par l’UNM le 30 septembre, vous avez cité l’exemple d’une scie pour couper des planches de bois, avec l’idée d’avoir une IA qui permettrait de détecter  la présence d’une main devant la lame. Mais en fonction de la couleur de la main ou du port d’un gant, il peut y avoir une défaillance. Ce n’est donc pas possible de déterminer la probabilité de cette défaillance ?

C’est ça, on ne peut pas calculer cette probabilité de défaillance. On a des systèmes de sécurité qui ont un niveau de performance assez faible, par exemple 90%, donc la fonction ne marcherait que 9 fois sur 10. Si on sait le calculer de façon sûre, il suffirait d’en installer plusieurs sur la machine et par redondance, ce serait bon. Mais on doit avoir ce chiffre, quel qu’il soit, et c’est ça qui n’est pas possible avec des systèmes IA.

Pourquoi cette impossibilité ? Pouvez-vous expliquer la nature ou le fonctionnement de ces IA ?

On parle de technologies qui sont basées sur des réseaux de neurones artificiels, c’est-à-dire une sorte d’architecture de programme d’ordinateur qui permet à ces systèmes d’apprendre grâce à des exemples. Ce sont des maths dans un ordinateur donc on sait faire. Mais plus la problématique traitée est complexe, plus les réseaux doivent être gros, avec beaucoup de neurones, qui ont chacun de multiples paramètres à régler. Ces paramètres dépendent du nombre de liens entre chaque neurone. C’est ce qu’on appelle une explosion combinatoire : il faut imaginer un panneau de contrôle avec 100 millions de potentiomètres, donc des boutons à tourner. L’apprentissage revient à tourner tous ces potentiomètres pour les régler. Mais quand on a 100 millions de paramètres, on a beau savoir comment fonctionne chacun des neurones (avec leur paramètres), on ne peut plus rien en faire. C’est tellement complexe que même un ordinateur avec sa propre IA, ne peut pas comprendre comment son petit frère travaille. En résumé, c’est à cause de la multiplicité des paramètres qu’on ne peut pas vraiment comprendre le fonctionnement des IA.

Pour revenir aux machines, en se faisant l’avocat du diable, serait-il possible d’avoir une autre approche que celle de la réglementation aujourd’hui qui serait par exemple un rapport risque-bénéfice, comme c’est le cas dans l’industrie pharmaceutique ? 

On rentre là dans une notion un peu philosophique. Dans le monde dans lequel on vit, on a des niveaux de tolérance aux risques qui sont variables. Par exemple, on emmène nos enfants à l’école avec une voiture, ou en vélo malgré le risque routier. Or pour les machines, la réglementation impose que les concepteurs et les employeurs maitrisent les risques ; c’est l’obligation de sécurité. C’est un constat, sans jugement, mais qui constitue la réponse à votre question. Car ce ratio bénéfice-risque reprend l’idée qu’on accepte d’un produit qu’il génère des risques car ils sont bien inférieurs aux bénéfices qu’il engendre. On aurait l’existence d’un risque, pas totalement sous contrôle. La réglementation machine ne fonctionne pas du tout ainsi.

Est-ce que vous voyez quand même dans un futur plus ou moins proche la possibilité d’intégrer l’IA dans une fonction de sécurité d’une machine ?

Des personnes travaillent sur des maths pour réussir à démontrer un calcul de la fiabilité de ces systèmes d’IA. Mais dans l’état actuel de la recherche et avec cette technologie d’IA, je pense que ça va être compliqué. Par contre, on peut imaginer avoir une rupture technologique dans l’IA, avec des systèmes performants mais aussi explicables (pour lesquels on pourrait connaître le niveau de fiabilité).

On pourrait aussi imaginer une autre manière de prouver la fiabilité comme l’utilisation de technologies éprouvées. C’est le fait d’avoir des équipements pour lesquels la fiabilité n’est pas calculée mais dont les fonctions ont tellement été utilisées que l’expérimentation en a prouvé l’efficacité. Pour que ceci puisse se produire avec l’IA, il faudrait que des philanthropes mettent en place des systèmes d’IA de surveillance sur des machines (mais sans en assurer une fonction de sécurité) et recueillent des données de fonctionnement. Par exemple, au bout de 10 ans, on pourrait analyser 1000 machines qui ont tourné avec ce système-là et qui auraient permis d’éviter des accidents si on avait activé ces systèmes. Ainsi, cela permettrait de dire que ce système est éprouvé.

Pensez-vous que les systèmes d’IA pourraient vraiment faire avancer le champ de la sécurité au travail, notamment dans les machines ?

Dans les machines, oui. Avec l’IA, comme avec toute technologie, il existe des usages utiles et d’autres inutiles ou dévoyés (ex. : surveillance des salariés). Mais certaines applications de l’IA dans les machines, comme le fait de détecter la présence d’une main trop proche de la lame d’une scie, permettraient de sauver des doigts.

Propos recueillis par Clémence Andrieu

Une interdiction totale de l’amiante dans le monde diminuerait l’incidence du cancer du poumon au bout de 25 ans

19/11/2025

Les nouveaux cas de cancer du poumon liés à l’amiante – ainsi que des décès et des années de vie corrigées de l’incapacité (AVCI) liés à l’amiante –  ont commencé à diminuer environ 25 ans après l’interdiction de l’amiante dans 50 pays, rapportent des chercheurs chinois dans une étude sur la charge mondiale du cancer du poumon attribuable à l’exposition professionnelle à l’amiante de 1990 à 2021 publiée le 30 octobre 2025 dans la revue scientifique Santé environnementale de l’éditeur BioMed Central (BMC).

“Dans les pays fortement touchés par le cancer du poumon lié à l’amiante, comme l’Allemagne, la France et l’Italie, la tendance à la hausse de l’incidence du cancer du poumon, ainsi que des décès et des années de vie corrigées de l’incapacité (AVCI) attribués à l’amiante, s’est stabilisée environ 20 ans après l’interdiction totale de l’amiante”, ont constaté les chercheurs. L’Islande, premier pays à interdire tout usage de l’amiante en 1983, aurait connu une « baisse notable » du nombre de nouveaux cas au bout de 27 ans. En France, l’usage de l’amiante n’est interdit que depuis le 1er janvier 1997. Dans une autre étude chinoise de 2021, des chercheurs avaient déjà constaté que les cas de mésothéliome ne diminuaient généralement que 20 à 30 ans après une interdiction totale de l’amiante.

Alors que “seuls 70 pays ont totalement interdit l’amiante” dans le monde, les chercheurs estiment que “les nouveaux cas, les décès et les AVCI associés à l’exposition professionnelle à l’amiante devraient augmenter dans les années à venir”. Ils appellent à “interdire d’urgence l’utilisation totale de l’amiante à l’échelle mondiale, en particulier dans les régions présentant de faibles niveaux d’indice de densité de population”.

Selon eux, en 2021, 9,4 % des décès par cancer du poumon et 7,2 % des AVCI liées à ce cancer étaient dus à une exposition professionnelle à l’amiante. À eux seuls, les États-Unis, la Chine et le Japon représentaient en 2021 environ 40 % de la charge mondiale du cancer du poumon attribuable à l’exposition professionnelle à l’amiante. La Chine serait le deuxième consommateur et le troisième producteur mondial de chrysotile (l’amiante blanc).

*Les chercheurs ont utilisé les données sur le cancer du poumon issues de la base de données Global Burden of Disease (GBD) 2021, incluant des informations sur les nouveaux cas, les décès et les années de vie corrigées de l’incapacité (AVCI), ainsi que leurs taux standardisés selon l’âge, le sexe et les groupes d’âge. Les tendances temporelles ont été analysées à l’aide de modèles de régression Joinpoint avec des intervalles de confiance (IC) à 95 %. Les données chronologiques sur les interdictions mondiales de l’amiante ont été obtenues auprès du Secrétariat international pour l’interdiction de l’amiante.

Source : actuel CSE

L’Assurance maladie condamnée pour le suicide d’un médecin conseil “débordée par son travail”

19/11/2025

La Caisse nationale de l’assurance maladie (Cnam) a été condamnée jeudi 13 novembre à Strasbourg pour homicide involontaire après le suicide en 2023 sur son lieu de travail d’un médecin conseil, a rapporté l’AFP. Le tribunal judiciaire de Strasbourg a suivi les réquisitions du procureur, qui avait réclamé une amende de 50 000€ pour la Cnam lors d’une audience début octobre.

Le 12 décembre 2023, le docteur Catherine Dumas-Pierog, 44 ans, s’est défenestrée depuis le 3ème étage des bureaux de l’Assurance maladie à Strasbourg, quelques heures après avoir reçu son planning du mois suivant. “Je n’arrive pas à m’améliorer, je n’arrive pas à m’intégrer, je n’en peux plus, je craque, je vous demande pardon”, avait-elle écrit dans un billet manuscrit laissé sur son bureau, selon le signalement de l’Inspection du travail adressé au procureur de la République en octobre 2024 que l’AFP s’est procuré.

À la suite d’une nouvelle organisation et la mise en place d’un nouveau logiciel, la victime s’était trouvée “débordée par son travail”, rendait compte l’Inspection dans son signalement. Cette réorganisation du travail avait fait l’objet en 2021 d’une alerte relative aux risques psychosociaux établie par la médecine du travail qui évoquait “une souffrance au travail de nombreux salariés causée par un management vertical”. Deux semaines avant le passage à l’acte, cette même médecine du travail avait alerté la hiérarchie du Dr Dumas-Pierog du “non-respect des obligations de l’employeur dans le cadre des principes généraux de prévention”.

Son suicide “ne saurait être considéré comme un acte local et isolé”, affirmait l’Inspection, évoquant une “tentative de suicide d’un manager” dans les services parisiens de la Sécurité sociale et une alerte à la souffrance au travail en Bretagne.

Dans un communiqué, la Fédération CFDT de la protection sociale, partie civile au procès, estime que ce jugement “marque un tournant important pour la reconnaissance des risques psychosociaux au sein du régime général de Sécurité sociale” et constitue “une étape essentielle pour rappeler les obligations de l’employeur en matière de santé et de sécurité au travail”.

“Ce jugement vient confirmer que la prévention des risques psychosociaux ne peut être reléguée au second plan, poursuit-elle. Elle doit constituer une priorité absolue dans l’organisation du travail, l’accompagnement des professionnels et l’identification des situations d’isolement ou de surcharge.”

Source : actuel CSE

Les femmes, les moins qualifiés et les personnes nées à l’étranger sont les plus exposés aux horaires atypiques

20/11/2025

Selon un focus de l’Insee publié à l’occasion de son Bilan social 2025, les horaires atypiques concernent pas moins de 48 % des salariés, soit 11 millions de personnes. Autrement dit, c”est près de la moitié du salariat français qui voit au moins partiellement ses heures de travail décalées, fractionnées ou placées régulièrement le week-end.

L’autre enseignement de l’étude est que ces horaires atypiques concernent plus souvent :

  • les femmes que les hommes (elles sont proportionnellement plus nombreuses à travailler le week-end) ;
  • les personnes peu diplômées : “Les heures décalées le matin et en soirée concernent principalement des salariés peu ou pas diplômés : la moitié des personnes concernées n’ont pas le bac”. C’est le cas notamment des ouvriers non qualifiés ; 
  • les personnes nées à l’étranger : “Par rapport aux salariés nés en France, ceux nés dans un pays du Maghreb ont 1,9 fois plus de risques de travailler la nuit, 2,2 fois plus en soirée et 1,9 fois plus avec des heures fractionnées, qu’en heures standards”.

Source : actuel CSE