13 janvier 2026
L’intelligence artificielle s’invite progressivement dans le monde du travail. Dans la santé, la prévention et le bien-être, elle ouvre des perspectives prometteuses… mais soulève aussi des questions essentielles.
Comment tirer parti du potentiel de l’IA sans compromettre l’éthique, la confidentialité et la relation humaine ? Éric Fromont, Directeur ICT de Cohezio, nous confie sa vision sur le sujet.
Aujourd’hui, l’IA est déjà largement utilisée dans le secteur médical : imagerie, aide au diagnostic, radiothérapie, recherche de traitements, automatisation administrative… Mais son potentiel en prévention et bien-être au travail reste encore sous-exploité.
Chez Cohezio, la réflexion part d’un constat simple, nous confie Éric Fromont: « les professionnels de santé consacrent une part importante de leur temps à des tâches chronophages mais nécessaires — prise de notes, rédaction de comptes rendus, synthèses non médicales, structuration de plans d’action ».
L’IA peut aider nos conseillers en prévention dans ces différentes étapes, sans jamais remplacer le jugement du professionnel, mais en l’assistant.
Prenons l’exemple d’un entretien de suivi avec un travailleur en incapacité de longue durée. L’IA peut
notamment :
L’objectif n’est pas d’automatiser la décision, mais de libérer du temps médical, améliorer la qualité des échanges et proposer des recommandations plus personnalisées, basées sur des données structurées et contextualisées.
Tout ne doit pas être confié à l’IA. Certaines dimensions restent, et resteront, profondément humaines : l’intuition du médecin, la lecture du non-dit, le ressenti émotionnel, la compréhension fine du contexte personnel et professionnel.
L’IA peut effectivement aider à analyser, structurer, suggérer… mais la décision finale doit rester humaine.
Ce principe est au cœur de l’approche défendue par Cohezio : une IA d’aide à la décision, supervisée, explicable et responsable.
Dans le domaine du bien-être et de la santé au travail, les données traitées sont parmi les plus sensibles. Données médicales, psychosociales, organisationnelles… Leur mauvaise gestion peut avoir des conséquences lourdes, non seulement pour les personnes concernées, mais aussi pour les entreprises affiliées.
Éric Fromont ajoute : « Rappelons une réalité souvent sous-estimée : la qualité de l’IA dépend directement de la qualité des données. Des données mal classées, mal sécurisées ou mal gouvernées produisent des résultats biaisés, voire dangereux . »
C’est pourquoi Cohezio insiste sur une approche structurée :
Au-delà de la conformité réglementaire (RGPD, NIS2, IA Act), cette gouvernance est un levier de confiance, tant pour les travailleurs que pour les entreprises.
Pour accompagner le déploiement de l’IA, Cohezio met en place deux niveaux de gouvernance complémentaires : la Data Gouvernance et la Gouvernance de l’IA.
La première vise à garantir la qualité, la sécurité et la traçabilité des données utilisées, en particulier lorsqu’il s’agit de données sensibles liées à la santé et au bien-être. La seconde encadre l’usage des systèmes d’IA eux-mêmes, en définissant des règles claires en matière d’éthique, de supervision humaine et de maîtrise des risques.
Ces deux niveaux de gouvernance s’inscrivent dans une logique cohérente et structurée, alignée avec les cadres normatifs et réglementaires (RGPD, NIS2, IA Act). Ils traduisent une conviction forte chez Cohezio : l’innovation en prévention ne peut être durable que si elle repose sur une gouvernance solide, partagée et comprise par tous les acteurs.
L’IA Act est le premier cadre juridique mondial dédié spécifiquement à l’intelligence artificielle. Il s’applique à toutes les organisations (publiques ou privées) qui développent, déploient ou utilisent des systèmes d’IA dans l’UE — y compris les entreprises, les services de prévention et les prestataires de soins.
Il est entré en vigueur progressivement à partir de 2024–2025, avec des obligations qui s’appliquent par phases :
Bien appliqué, l’IA Act devient un avantage concurrentiel, car il structure des solutions plus fiables, plus éthiques et plus durables.
Les systèmes d’IA appliqués à la santé et au bien-être sont classés comme à haut risque par l’IA Act. Cela implique des obligations renforcées : transparence, supervision humaine, documentation, explicabilité.
Plutôt que de subir ces exigences, Cohezio fait le choix de les intégrer comme un cadre de qualité. L’alignement avec l’IA Act, combiné aux normes ISO (ISO 27001, ISO 42001), permet de structurer une gouvernance solide, d’anticiper les risques et de garantir une IA éthique, fiable et performante.
L’IA n’est pas un projet technologique isolé, mais un projet d’organisation. Elle implique une collaboration étroite entre les différents acteurs : médecins du travail, experts IA, DPO, RSSI, direction, formateurs.
Cohezio souhaite porter un message clair précise Éric Fromont : « l’innovation en prévention ne consiste pas à remplacer l’humain, mais à mieux l’accompagner ».
L’intelligence artificielle, lorsqu’elle est bien utilisée, peut devenir un allié précieux pour améliorer la qualité des parcours de prévention, renforcer la pertinence des recommandations et soutenir les professionnels dans leur mission.
Mais cette promesse ne tient que si l’IA reste au service de l’humain, encadrée par des règles claires, une gouvernance exigeante et une supervision constante.
C’est cette vision responsable, pragmatique et résolument tournée vers l’avenir que Cohezio continue de déployer au quotidien auprès de ses entreprises affiliées.
Découvrez en images et en quelques mots comment Cohezio a porté sa vision de l’IA responsable lors du salon FestIA 👉 ici
Article rédigé en collaboration avec Éric Fromont, Directeur ICT de Cohezio, lors du salon FestIA 2025 – Prévention 2.0