menu
Actualités
Publié le 30 novembre 2018 par Emilie Ducorps-Prouvost

Le droit du travail face aux enjeux de l’intelligence artificielle : Tome 3 d’une trilogie

La technologie numérique a déjà modifié les méthodes du travail. Avec l’avènement de l’intelligence artificielle (IA), nous ne sommes qu’au début d’une mutation sans équivalent non seulement du marché du travail et de l’emploi mais également de la relation de travail. Qu’entend-on exactement par impact de l’IA sur les relations de travail ? Qui dit relations de travail, dit droit du travail.

Or, le droit du travail devrait pouvoir être utilisé comme outil juridique permettant d’accompagner les transformations évidentes générées par la présence de l’IA dans l’entreprise. Il s’agit donc de réfléchir aux pistes d’adaptation de notre droit du travail afin d’anticiper et de permettre une transition en douceur vers le nouveau monde.

Cet article constitue la dernière partie d’une trilogie articulée autour de la vie du contrat de travail embauche / exécution du contrat de travail / rupture du contrat de travail. Cette troisième partie est consacrée à la question de l’employabilité de l’homme dans le monde du travail de demain. Afin de lutter contre la peur inéluctable du contrôle par la machine de l’homme, ce dernier doit d’ores et déjà réfléchir à ce que sont ses meilleurs atouts pour rester « employable », ce qui n’empêche pas de construire sans plus attendre un cadre éthique pour protéger les plus vulnérables.

Dans le tome 1, je me suis penchée sur les questions liées à la fin du contrat de travail et plus précisément sur la question de savoir si notre droit du travail actuel prévoit des gardes fous contre le risque de suppression des emplois – inévitable selon certains – par l’Intelligence Artificielle (IA).

Il en ressort que l’enjeu majeur pour limiter les suppressions d’emploi de demain est d’anticiper les évolutions d’emploi dans chaque secteur d’activité en œuvrant à l’adaptation des salariés. La formation continue est un enjeu clef de la révolution numérique et notre droit du travail propose déjà des instruments juridiques efficaces et en particulier la Gestion prévisionnelle de l’Emploi et des Compétences (la « GPEC »), comme développé dans le tome 2.

Dans le tome 2, je me suis également penchée sur l’impact de l’IA sur les organisations du travail dans l’entreprise, en formulant le constat que la mutation est déjà en cours avec de nouvelles formes d’organisation de travail (télétravail, mode de travail d’avantage collaboratif etc.). A cet égard, notre droit du travail, qui repose encore largement sur le modèle de l’unité de lieu et de temps, doit encore adapter ses règles en conséquence.

Par ailleurs, l’IA impacte nécessairement les conditions de travail des salariés, avec l’émergence de nouveaux risques et nouvelles situations de travail qui ne sont pas prises en compte par notre droit du travail actuel encore empreint des modes de travail de l’ère industrielle. De nouveaux outils devront ainsi être créés et mis en place, notamment s’agissant de mesurer la pénibilité, la charge de travail ressentie par le salarié et plus généralement s’agissant de la prévention des risques psycho-sociaux de demain.

Si nous pensons que le travail humain va nécessairement perdurer à l’ère de l’IA avec toutefois de nouveaux emplois et des situations et conditions de travail différentes, une question plus générale se pose de savoir quel genre de place sera réservée à l’homme dans le monde du travail du demain : quelles compétences, quelles aptitudes, quelles qualités seront requises pour être « employable » ? Quel sera l’employé idéal de l’ère de l’IA ?

En effet, pour qu’il y ait embauche, encore faut-il qu’il y ait des emplois et encore faut-il que les salariés soient « employables » !

Comme l’écrit Yuval Noah Harari dans son livre « Homo deus une brève histoire de l’avenir » : « le problème central n’est pas de créer de nouveaux emplois mais d’en créer de nouveaux que les hommes exercent mieux que les algorithmes ».

Cela m’amène au troisième volet essentiel de la vie du contrat de travail, à savoir sa naissance, autrement dit l’embauche du salarié ou plus exactement son «employabilité ».

 

III. VOLET EMBAUCHE/ CREATION D’EMPLOIS : ASSURER L’EMPLOYABILITE DES SALARIES DE DEMAIN ET PENSER A CONSTRUIRE UN CADRE ETHIQUE AU NOUVEAU MONDE DU TRAVAIL DOMINE PAR L’IA

Dans le nouveau monde du travail dominé par l’IA, l’homme va devoir se faire une place et démontrer plus que jamais sa valeur ajoutée et son utilité s’il veut rester « employable ». Afin de lutter contre la peur inéluctable du contrôle par la machine de l’homme, ce dernier doit réaffirmer son libre-arbitre et faire valoir ses qualités bien humaines qui le rendent et le rendront toujours supérieur au robot, aussi sophistiqué soit-il. L’homme doit affirmer sa suprématie pour « garder la main » dans le monde du travail de demain. Face à un tel enjeu, deux chantiers sont déjà lancés :

  • Mettre en place des cercles de réflexion pour aider à faire émerger l’homme « employable » de demain (A.) ;
  • Construire un cadre éthique pour protéger les plus vulnérables dans le monde du travail de demain (B.).

 

A. Réfléchir à l’employabilité des salaries de demain

Le but de cette réflexion est d’anticiper la construction de nouveaux parcours professionnels et de préparer en amont l’adaptation de l’homme au nouveau monde du travail.

Dans son rapport « Donner un sens à l’intelligence artificielle » rendu public le 28 mars 2018, Cédric Villani lance des propositions :

  • Création d’un « lab public de la transformation du travail », autrement dit « une structure permanente qui aurait un rôle de « tête chercheuse » au sein des politiques publiques de l’emploi et de la formation professionnelle » en lien avec les branches d’activité. Ce lab doit, selon Cédric Villani, pouvoir aussi jouer le rôle du laboratoire des métiers de demain où divers acteurs viendraient se former, expérimenter, partager et réfléchir sur les évolutions de leurs métiers.

 

  • Amélioration des compétences nationales et formation de davantage de talents spécialistes de l’intelligence artificielle. Cédric Villani fixe un objectif : « à horizon trois ans, multiplier par trois le nombre de personnes formées en intelligence artificielle en France ». Si les formations existantes doivent davantage s’orienter vers l’IA, le rapport soutient aussi la création de nouvelles formations.

 

  • Plus généralement : transformation de l’enseignement et plus exactement des méthodes d’enseignement: avec une prise en compte des compétences transversales, l’apprentissage de la créativité, mettre en place des formes nouvelles de pédagogie. L’idée est d’apprendre aux nouvelles générations à penser différemment. Cet apprentissage pourrait donc débuter dés l’école primaire avec l’instauration d’un enseignement « IA, traitement des données et sciences numériques ».

 

B. Construire une IA éthique

Mais si l’homme doit se renouveler et s’adapter pour trouver sa place dans le nouveau monde du travail, la responsabilité collective impose néanmoins de commencer dés maintenant à la construction d’une IA éthique, afin de protéger les plus vulnérables.

 

  1. Les risques d’atteinte aux libertés et aux droits des personnes dont la discrimination à l’embauche, face au développement de l’IA

« L’IA ne peut pas être une nouvelle machine à exclure » écrit M. Villani dans son rapport[i].

Il est reconnu que l’IA peut être vecteur de discrimination.

Comme le rappelle Cédric Villani dans son rapport précité, l’on constate par exemple que « les algorithmes de ciblage publicitaire de Google sont plus susceptibles de proposer aux femmes des offres d’emploi moins rémunérées, que les algorithmes de modération de YouTube tardent parfois à réagir et permettent la circulation virale de contenus choquants, ou encore que les algorithmes de prédiction de la criminalité favorisent une surveillance accrue des quartiers pauvres afro-américains. De fait tous ces algorithmes ne font que reproduire les discriminations déjà présentes dans les données qu’on leur fournit ».

L’IA tendrait à reproduire, voire à accentuer les erreurs humaines en matière de discrimination.

Ainsi, en matière de recrutement le recours à des outils de recrutement « intelligents » est de plus en plus fréquent : toutefois, même si l’IA peut faire d’astucieux rapprochements auxquels l’homme n’aurait jamais pensé, elle peut aussi inciter à la discrimination, voire décourager tout recrutement en dehors des clous.

L’article L. 1131‐2 du Code du travail prévoit une obligation de formation à la non‐discrimination à l’embauche : « Dans toute entreprise employant au moins trois cents salariés et dans toute entreprise spécialisée dans le recrutement, les employés chargés des missions de recrutement reçoivent une formation à la non-discrimination à l’embauche au moins une fois tous les cinq ans. ». Cette disposition ne semble pour le moins pas adaptée à un logiciel de recrutement faisant appel à l’IA !

Le Comité économique et social européen (CESE), organe consultatif qui assiste le Parlement européen, le Conseil et la Commission européenne, a rendu un avis le 19 septembre 2018 intitulé « L’intelligence artificielle : anticiper ses impacts sur le travail pour assurer une transition équitable », dans lequel le Comité appelle notamment à un recours éthique à l’IA dans un cadre économique.

Le CESE s’interroge notamment sur les IA permettant d’évaluer la productivité des salariés et celles qui facilitent le recrutement et indique que leur utilisation doit se faire dans « la protection des droits et des libertés concernant le traitement des données des travailleurs (et), dans le respect des principes de non-discrimination ».

Le CESE soulève également la question des « biais des algorithmes » : le code est en effet le reflet des valeurs de la personne qui l’a développé. Et de la même manière, le jeu de données peut également révéler des biais.

Face à ces risques réels et reconnus de tous les acteurs, il apparaît indispensable d’intégrer l’éthique à l’intelligence artificielle.

 

  1. Quels moyens mis en œuvre pour prévenir ces risques ?

Les autorités publiques se sont déjà emparées du sujet et commencent à poser les jalons d’une IA éthique. A ce jour, il s’agit plutôt de déclarations d’intention que de la mise en place de véritables garde-fous.

Au niveau national, Cédric Villani recommande dans son rapport précité[1], la création d’un « comité d’éthique des technologies numériques et de l’IA qui serait chargé d’organiser le débat public, de façon lisible, construite et encadrée par la loi ». Les avis de ce comité seraient élaborés en toute indépendance et pourraient, selon Cédric Villani, éclairer les choix technologiques des chercheurs, des acteurs économiques et industriels.

La CNIL, dans son rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle du 15 décembre 2017, intitulé « Comment permettre à l’Homme de Garder la main », pose deux principes fondateurs pour le développement des algorithmes et de l’IA : loyauté et vigilance.

Ces principes fondateurs font l’objet d’une déclinaison sous la forme de six recommandations opérationnelles à destination tant des pouvoirs publics que des diverses composantes de la société civile (entreprises, grand public, etc.) :

  • Former à l’éthique tous les acteurs-maillons de la « chaîne algorithmique » (concepteurs, professionnels, citoyens) : l’alphabétisation au numérique doit permettre à chaque humain de comprendre les ressorts de la machine ;
  • Rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs ;
  • Travailler le design des systèmes algorithmiques au service de la liberté humaine, pour contrer l’effet « boîtes noires » ;
  • Constituer une plateforme nationale d’audit des algorithmes;
  • Encourager la recherche sur l’IA éthique et lancer une grande cause nationale participative autour d’un projet de recherche d’intérêt général ;
  • Renforcer la fonction éthique au sein des entreprises (par exemple, l’élaboration de comités d’éthique, la diffusion de bonnes pratiques sectorielles ou la révision de chartes de déontologie peuvent être envisagées).

Au niveau européen, le Comité économique et social européen (CESE) formule diverses recommandations dans son avis de septembre 2018 précité[2] et en particulier:

  • Recommande que les lignes directrices en matière d’éthique sur l’IA que la Commission va élaborer, formulent une frontière claire dans l’interaction travailleurs-machines intelligentes, et incluent des principes de transparence dans l’utilisation des systèmes d’IA pour le recrutement, l’évaluation et le contrôle managérial des travailleurs;
  • Recommande de former à l’éthique les ingénieurs et concepteurs de machines intelligentes; Cela peut passer par une sensibilisation sur les implications de l’IA, mais également par l’incorporation de cours d’éthique ou de sciences humaines dans la formation d’ingénieur ;
  • Pour assurer l’effectivité de ces différentes règles, le CESE conseille la création d’une entité de contrôle : « Observatoire européen pour l’éthique dans les systèmes d’IA ».

Au niveau des entreprises privées, des initiatives voient le jour également. En 2016, Facebook s’est allié avec Microsoft, Amazon, IBM, Apple et Google pour un «partenariat pour l’intelligence artificielle au bénéfice des citoyens et de la société». Ces entreprises américaines souhaitaient définir les bonnes pratiques en matière d’éthique.

Google a créé fin 2017 un Comité d’éthique et publié en juin 2018 une liste de sept principes éthiques liés au développement de l’IA parmi lesquels celui d’éviter tout impact « injuste »/discriminant sur les personnes.

Il est vrai que l’intégration dans les codes éthiques/chartes de déontologie des entreprises d’un chapitre dédié aux enjeux soulevés par les algorithmes et les systèmes d’IA – en explicitant par exemple les limites à ne pas franchir, en concevant les paramètres des systèmes, des obligations de qualité et d’actualisation des jeux de données utilisées pour entraîner les algorithmes etc. – va rapidement s’imposer comme un minimum requis.

Les entreprises et plus généralement les partenaires sociaux, y compris au niveau des branches professionnelles, auront un rôle clef à jouer, ne serait-ce que pour assurer le rôle de veille en continu, pour identifier les problèmes émergents, imperceptibles ou inaperçus au départ etc.

Toutefois, l’émergence de toutes sortes de chartes éthiques à tous les niveaux, que cela soit au niveau des autorités administratives nationales ou transnationales ou même au niveau des entreprises privées, ne suffira sans-doute pas à garantir une IA éthique si le législateur ne vient pas à un moment donné, entériner les principes et déclarations et instaurer un cadre normatif contraignant.

 

CONCLUSION

En conclusion de cette trilogie sur le droit du travail face aux enjeux de l’intelligence artificielle, je voudrais poser une question ouverte que nous nous posons toutes et tous : pensons-nous que l’IA va plutôt être un « outil » au service des salariés et assister les relations de travail ou bien pensons-nous que l’IA va au contraire les diriger et les soumettre?

Sans doute, la réponse à cette question dépendra du choix que fera la Communauté des hommes. Car en réalité, les deux options sont possibles. A l’homme de faire son choix. Au final, on en revient à la question philosophique : l’homme est-il maître de son destin, dispose-t-il d’un libre-arbitre ?

Entre les deux – assistance ou direction – Cédric Villani, dans son rapport précité[3], propose une autre voie : celle de la complémentarité entre l’homme et la machine.

Cette voie de la complémentarité me semble sage mais suppose que l’homme mette en place les mesures d’adaptation et les garde-fous nécessaires pour l’instaurer et la préserver.

L’homme se différencie de l’animal et des robots de demain : il a la capacité de faire de sa vie une quête de sens, de créer et de sans cesse se renouveler en ce qu’il a en lui ce besoin vital de se sentir utile.

S’agissant du monde du travail de demain, faisons donc le pari de l’adaptation des salariés aux évolutions futures et non de la soumission !

C’est là que notre Code du travail devra définitivement quitter sa veste de l’ère industrielle pour vêtir, une bonne fois pour toutes, ses nouveaux habits de l’ère IA.

 

[1] « Donner un sens à l’intelligence artificielle » rapport de Cédric Villani rendu public le 28 mars 2018

[2] Avis du CESE du 19 septembre 2018 intitulé « L’intelligence artificielle : anticiper ses impacts sur le travail pour assurer une transition équitable »

[3] « Donner un sens à l’intelligence artificielle » rapport de Cédric Villani rendu public le 28 mars 2018