Lors du Sommet Femmes en sécurité à Calgary 2025, des experts de l’industrie ont exploré le rôle de l’intelligence artificielle (IA) en matière de sécurité au travail, discutant de son potentiel, de ses limites et des défis éthiques qu’elle pose. Le panel, animé par Lisa Stephenson d’Energy Safety Canada, comprenait :

  • Holly Hale, Conseillère juridique, Suncor
  • Paul Hayes, Directeur de la sécurité, Calgary Airport Authority
  • Ashley McKie, Directrice de la santé et sécurité, Inland Group

Bien que l’IA offre des outils puissants pour la sécurité, les panélistes ont souligné que la supervision humaine reste essentielle.

L’IA comme outil polyvalent

L’IA transforme la sécurité au travail d’un mode réactif à un mode proactif en identifiant les dangers avant qu’ils ne provoquent des incidents.

« Lorsqu’un domaine préoccupant est détecté dans les rapports et que nous pouvons l’identifier à l’aide de cartes thermiques, nous pouvons ensuite utiliser nos ressources pour cibler cette zone », a déclaré Hayes, mettant en avant le rôle de l’IA dans les interventions ciblées.

Cependant, l’IA manque d’empathie et de pensée critique, rendant la validation humaine cruciale. « L’IA peut rédiger une politique de sécurité pour moi, mais elle n’intègre pas les éléments humains », a souligné McKie. Elle note aussi que l’IA peut rendre la formation en sécurité plus accessible et attrayante. « Il existe maintenant une technologie qui permet de transformer une politique en balado », a partagé McKie, illustrant le rôle de l’IA dans l’engagement des travailleurs.

Mais les petites entreprises peuvent avoir du mal à investir dans l’IA, et McKie recommande de prioriser les outils qui font gagner du temps ou réduisent les risques opérationnels. « On ne peut pas simplement lancer de l’IA sur chaque problème — il faut construire un argumentaire d’affaires », dit-elle.

Vie privée, éthique et lacunes réglementaires

Les risques liés à la confidentialité des données restent préoccupants. « N’introduisez pas d’informations privées dans ChatGPT. Les gens ne réalisent pas qu’ils aident le modèle à apprendre », a averti Hale. Elle a aussi souligné que les biais constituent un autre défi : par exemple, certains outils de recrutement basés sur l’IA favorisent certaines catégories démographiques en raison de données biaisées.

Les réglementations peinent aussi à suivre les avancées de l’IA. Hale a expliqué que l’Ontario exige encore une surveillance humaine dans les espaces clos, même si l’IA pourrait s’y révéler plus sécuritaire.

Bien que l’adoption de l’IA augmente, le panel a insisté sur l’importance de la formation, de la collaboration et du plaidoyer. « Les entreprises devraient former les femmes à l’IA et les placer dans des rôles de leadership », a encouragé Hale. Il a également souligné l’importance de la collaboration intersectorielle : « Nous collaborons toujours avec des pairs d’autres secteurs pour voir ce qui fonctionne. »

Principaux enseignements pour les professionnels de la sécurité

  • Utiliser l’IA pour une sécurité prédictive, mais garantir une supervision humaine
  • Faire preuve de prudence concernant la confidentialité des données et les biais
  • Plaider pour une mise à jour des règlements de sécurité
  • Exploiter l’IA pour améliorer la formation et la communication

L’IA transforme la sécurité au travail, mais son succès dépend d’une utilisation éthique, de l’adaptation réglementaire et de l’expertise humaine. Les organisations doivent adopter l’IA tout en veillant à ce qu’elle complète — et non remplace — leurs efforts en matière de sécurité.