L’IA est de plus en plus présente dans le monde de l’entreprise et véhicule de nombreuses promesses : gain de temps, gain de coût, efficacité, limite du risque d’erreur, automatisation des tâches répétitives pour se concentrer sur les activités à forte valeur ajoutée. Mais aussi… lorsqu’on l’applique aux RH : Lutter contre la discrimination en entreprise. Fausse promesse ou réalité ?
IA : De quoi parle-t-on ?
Avant d’accuser l’IA d’être discriminante ou de lui attribuer des vertus salvatrices, il est important de savoir de quoi l’on parle. L’Intelligence Artificielle se caractérise par des algorithmes agrémentés d’une grande puissance de calcul, une quantité de données importante et une capacité d’apprendre. Il s’agit donc d’un coté de données et de l’autre de data scientist qui modélisent ces algorithmes à la base de la technologie.
Une fois créée, l’Intelligence Artificielle n’a d’intelligent que son inégalable puissance de calcul et de déduction mais certainement pas une capacité critique à questionner son cadre de référence. Ainsi, elle reproduit ce qu’elle connait, provenant des données qu’on lui a fourni. Si ces données reflètent la réalité, alors elles reflètent également les discriminations rampantes qui s’y trouvent.
Pour que l’IA soit non-discriminante, les données dont elle se nourrit ne doivent pas refléter la réalité telle qu’elle est, mais telle qu’elle devrait être. Il est alors nécessaire de faire un travail amont sur les données qui seront utilisées pour créer l’IA mais également sur les propres biais et stéréotypes des humains qui seront à l’origine de celle-ci.
Pour des données propres :
Pour créer une technologie basée sur l’IA, il est nécessaire d’avoir un grand nombre de données. Cette donnée est issue de l’entreprise elle-même, notamment du SIRH. Dans le cadre du recrutement par exemple les données pour créer un algorithme de matching ou de tri de CV seraient les CV de l’ensemble des personnes recrutées, ceux des personnes rencontrées en entretien, des personnes ayant postulé mais que l’on a refusé etc. Plus les données sont présentes en grande quantité, mieux c’est. Mais la quantité n’est pas suffisante. Il faut également s’assurer de la qualité de ces données. Et c’est ici que nous parlons de « nettoyer les données » pour avoir des « données propres ». En effet, rassembler l’ensemble des données à disposition est une première étape, mais ensuite il faut se poser la question de la représentativité de ces dernières. Présentent-elles des biais ? Les données sont le reflet de la réalité de l’entreprise à un instant T et rien n’indique a priori que cette réalité soit non-discriminante. La nature des biais présents dans la donnée peut être de tout ordre (des erreurs humaines, une suite de faits indépendants de la volonté humaine, des biais conscients ou inconscients qui se sont perpétués et qui ont conduit à une situation déséquilibrée pour une certaine catégorie sociale, souvent en minorité). Peu importe l’origine de ce déséquilibre, il y a de fortes chances pour que les données représentent certes la réalité mais véhiculent surtout avec elles de nombreux biais. Les fournir sans nettoyage amont à un algorithme conduirait alors inévitablement à renforcer ce déséquilibre. C’est ce qui s’est produit par exemple avec l’outil de recrutement d’Amazon qui a fini par privilégier les hommes blancs pour des postes de développeurs puisque la donnée lui indiquait que c’était les hommes blancs qui réussissaient davantage dans cette fonction.
De la responsabilité des créateurs
Ce sont aux créateurs des algorithmes de veiller à ce que les biais ne soient pas reproduits par la machine. Ce travail est à effectuer en amont, avant même d’injecter la donnée dans l’algorithme. De la même manière que les développeurs passent du temps à nettoyer la donnée d’erreurs en corrigeant les fautes de frappe et d’orthographe, normalisant les terminologies, supprimant les doublons… il est important qu’ils consacrent également leur nettoyage à la recherche de biais potentiels. Pour cela, il faut que les développeurs soient conscients de la nécessité de ce travail amont. Une fois le nettoyage effectué et l’algorithme créé, il convient de tester les résultats produits par l’IA en conduisant régulièrement des audits par un comité d’éthique, par exemple.
Mais aussi celles des utilisateurs
Mais la vigilance des développeurs n’est pas suffisante. Les utilisateurs finaux doivent également prendre conscience du risque de discrimination présent dans l’IA et ce à deux niveaux.
Tout d’abord en amont, bien souvent ce sont les entreprises clientes qui fournissent leur propre base de données comme terrain de jeu pour l’IA. Charge à elles alors de mener conjointement avec les développeurs une étude de leurs données. Cela nécessite de porter un regard objectif sur les faits dans l’entreprise et identifier là où les pratiques actuelles ont conduit à défavoriser une population vis à vis d’une autre.
Le deuxième niveau se situe en aval de la technologie. Il est important que l’utilisateur final, se rappelle qu’il est seul décisionnaire. Le résultat apporté par l’IA n’est pas une vérité absolue qu’il s’agit de prendre sans se questionner. Il est important d’user de notre esprit critique pour prendre la meilleure décision qu’il soit. Et ainsi, quand elle ne se substitue pas à l’intelligence humaine, l’IA devient un merveilleux outil permettant non seulement de gagner du temps mais aussi de prendre des décisions plus éclairées.
Alors, l’IA un outil de lutte contre les discriminations ?
Si la donnée est biaisée c’est certainement qu’il y avait discrimination avant l’IA, introduire de l’IA ne changera pas fondamentalement ces facteurs de discrimination. En revanche, un projet d’implémentation d’outil, est une réelle occasion de se questionner sur ces facteurs, d’abord pour créer un outil moins discriminant, mais aussi, et surtout, pour devenir, à l’avenir, plus attentif et que ces biais, devenus désormais conscients ne se perpétuent plus.
L’IA devient finalement un prétexte pour questionner les pratiques humaines et les faire évoluer.