Actualités
L’harcèlement algorithmique au travail : une question de reconnaissance juridique.

La Réflexion sur le Harcèlement Algorithmique
Le harcèlement moral au travail est un sujet largement débattu, mais l’émergence des technologies d’intelligence artificielle (IA) soulève de nouvelles questions juridiques. En particulier, la situation d’un employé confronté à un système qu’il a lui-même contribué à créer mérite une attention particulière. Cet article explore les implications de l’IA dans le cadre du harcèlement moral, en mettant en lumière des cas concrets et les défis juridiques qui en découlent.
Les Défis de l’Intelligence Artificielle
Prenons l’exemple d’Hermann, un ingénieur en informatique qui a développé un outil de People Analytics. Ce dernier, censé améliorer la gestion des ressources humaines, se transforme rapidement en un instrument de surveillance intrusive. Deux ans après son déploiement, Hermann se retrouve sous l’emprise de cet algorithme, qui évalue ses performances et lui envoie des rapports négatifs. Ce cas soulève une question cruciale : peut-on considérer qu’un algorithme, en tant qu’entité dépourvue d’intention humaine, puisse être responsable de harcèlement ?
La Notion d’Auteur dans le Harcèlement
Traditionnellement, le harcèlement moral est défini par des actions humaines. L’article L1152-1 du Code du travail stipule qu’aucun salarié ne doit subir de comportements dégradants. Cependant, la jurisprudence a toujours impliqué une volonté humaine derrière ces actes. La question se pose alors : que se passe-t-il lorsque le harceleur est un algorithme, sans visage ni conscience ? Les tribunaux doivent maintenant envisager une nouvelle approche pour traiter ces situations.
Les Conséquences de l’Automatisation
Des entreprises comme Amazon ont déjà été sanctionnées pour des pratiques de surveillance jugées excessives. Les systèmes de notation automatisés, qui évaluent les performances des employés, peuvent générer des conditions de travail dégradantes. Ces outils, en raison de leur nature algorithmique, échappent à la régulation classique du harcèlement, ce qui complique la protection des employés.
La Responsabilité de l’Employeur
Avec l’entrée en vigueur du Règlement européen sur l’intelligence artificielle (AI Act), les employeurs sont désormais tenus de respecter des obligations strictes en matière de transparence et de responsabilité. Si un système d’IA engendre des conditions de travail dégradées, l’employeur peut être tenu responsable non seulement pour harcèlement, mais aussi pour manquement à son obligation de sécurité.
La Victime Paradoxale
Un autre aspect intéressant est celui de la victime qui a initialement validé l’outil de surveillance. L’argument selon lequel un employé ne peut pas se plaindre d’un système qu’il a contribué à créer est fallacieux. La protection contre le harcèlement est d’ordre public et ne peut être contournée par un consentement initial. La jurisprudence récente, notamment l’arrêt de la Cour de cassation dans l’affaire France Télécom, a élargi la définition du harcèlement à des pratiques institutionnelles, renforçant ainsi la protection des employés.
Vers un Nouveau Cadre Juridique
Il est impératif que le droit du travail évolue pour intégrer ces nouvelles réalités. Une proposition serait d’instaurer une obligation légale de suspendre tout système d’IA lorsqu’un salarié signale une dégradation de ses conditions de travail. Cela pourrait s’inscrire dans le cadre des alertes internes déjà prévues par le Code du travail.
Conclusion
Le harcèlement moral, traditionnellement perçu comme un phénomène interhumain, doit être réévalué à l’ère numérique. Les cas comme celui d’Hermann illustrent la nécessité d’un cadre juridique adapté pour protéger les employés contre les effets déshumanisants des systèmes d’IA. Les praticiens du droit et les législateurs doivent collaborer pour bâtir une législation qui garantisse la dignité des travailleurs face à l’automatisation croissante. Pour en savoir plus sur les droits des travailleurs, vous pouvez consulter le site de l’Institut du travail.





