Les intelligences artificielles comme ChatGPT ou Gemini s’invitent de plus en plus dans nos tâches professionnelles. Mais attention : les utiliser au travail sans cadre clair peut entraîner de lourdes conséquences, y compris un licenciement. Confidentialité, propriété des contenus, faux travail personnel : les risques sont nombreux. Que dit la loi ? Quels sont vos droits ? Vos devoirs ? Voici ce qu’il faut savoir.
Un cadre légal de plus en plus strict
Depuis août 2024, l’Union européenne a adopté une loi spéciale sur l’intelligence artificielle, appelée AI Act. Elle classe les IA selon le niveau de risque qu’elles présentent. Les IA utilisées dans des domaines sensibles — comme les ressources humaines ou la santé — sont très surveillées. Les entreprises doivent prouver que ces outils sont transparents, contrôlés, et traçables.
En parallèle, le Règlement général sur la protection des données (RGPD) s’applique dès qu’une IA utilise des données personnelles. Si vous entrez des informations sensibles dans une IA comme ChatGPT sans autorisation, cela peut être considéré comme une violation du RGPD.
Ce que ça signifie pour vous : utiliser une IA sans précaution, même pour « gagner du temps », peut exposer votre entreprise — et donc vous-même — à de gros problèmes juridiques et financiers.
A LIRE AUSSI
L’IA clandestine expose salariés et entreprises à des risques majeurs
Travailler avec une IA : ce que vous avez le droit de faire (ou pas)
Dans le Code du travail, une règle s’applique à tous les salariés : l’obligation de loyauté. Cela signifie qu’on attend de vous que vous respectiez les intérêts de votre entreprise. Cela inclut la confidentialité, l’honnêteté dans votre travail, et le respect des consignes internes.
Utiliser une IA pour rédiger un rapport sans le dire, ou y entrer des données confidentielles (comme des informations clients ou RH), peut être vu comme une violation de cette obligation. Et donc justifier une sanction, voire un licenciement.
À retenir : l’IA ne vous dispense pas de respecter votre contrat. Même si l’outil est accessible en quelques clics, l’employeur doit être informé.
Quand l’IA remplace les humains : le licenciement économique
Certaines entreprises utilisent désormais des IA pour automatiser des tâches. Résultat : des postes deviennent inutiles. Le Code du travail permet dans ce cas un licenciement économique, mais sous conditions.
Mais l’employeur doit vous former aux nouvelles technologies avant d’envisager un licenciement. S’il ne le fait pas, celui-ci peut être annulé.
Quand l’usage de l’IA est fautif : le licenciement disciplinaire
Autre scénario : vous utilisez une IA au travail sans autorisation, et cela pose problème. Cela peut entraîner différentes sanctions, selon la gravité des faits :
- Avertissement, si l’usage est ponctuel et sans conséquence grave
- Mise à pied, si des données sensibles sont en jeu
- Licenciement pour faute grave, en cas de fuite d’informations ou de falsification de votre travail
Vous pensez que votre question posée à ChatGPT reste entre vous et la machine ? Faux. Tout ce que vous saisissez dans un outil d’IA publique peut être stocké et réutilisé.
Vous utilisez une IA pour produire un rapport, mais vous le présentez comme étant 100 % de votre main. Cela peut être considéré comme une tromperie.
Comment se protéger (et protéger son entreprise)
Côté employeur
De plus en plus d’entreprises prennent les devants. Certaines mettent en place une charte IA claire, définissant les outils autorisés, les usages acceptés, et les validations nécessaires.
Danone a formé 50 000 salariés à l’usage de l’IA avec Microsoft. Le ministère des Armées a développé sa propre IA souveraine : GenIAl.intradef. D’autres utilisent des outils comme Monitoring AI Pro pour détecter les usages à risque.
Côté salarié
Voici quelques réflexes simples pour éviter les mauvaises surprises :
- Demandez toujours l’autorisation avant d’utiliser une IA dans votre travail
- Évitez les versions gratuites de ChatGPT pour des documents sensibles
- Notez clairement dans vos livrables ce qui a été généré par une IA
- Ne saisissez jamais de données personnelles ou confidentielles sans validation
Vers un nouveau modèle de travail
Le phénomène du « Shadow AI » — ces usages non encadrés d’outils d’IA par les salariés — révèle un vrai décalage : beaucoup de salariés innovent « par le bas », tandis que les régulations arrivent « par le haut ».
La Cour de cassation travaille actuellement à une jurisprudence spécifique : on parle de « contrôle humain significatif » ou de « transparence algorithmique ».
Le bon réflexe ? Parler de vos usages d’IA avec votre employeur, demander des formations, et ne pas considérer ces outils comme « neutres ». Car dans le monde du travail, même l’innovation doit respecter les règles du jeu.