Les défis de l’inclusion à l’ère de l’IA

Un outil de recrutement qui écarte les femmes candidates à des emplois techniques, une technologie de reconnaissance faciale biaisée pour les visages noirs, un système de recrutement qui rejette les CV des profils de plus de 55 ans …. Autant d’exemples qui illustrent la partialité des systèmes d’intelligence artificielle. Une analyse de Sara Portell, VP User Experience chez Unit4.

post-image-3

Si les « préjugés » sont présents dans certaines applications basées sur l’IA, ce n’est pas à cause du logiciel qui serait sexiste, raciste ou âgiste, lance Sara Portell, VP User Experience chez Unit4.

« Les systèmes d’IA apprennent à partir de données contenant souvent des biais historiques et sociétaux, qu’ils peuvent alors reproduire par inadvertance ». Dès lors, si des algorithmes sont formés avec des ensembles de données non représentatifs, comment peuvent-ils refléter les besoins de l’ensemble des populations et des groupes, s’interroge l’experte.

Les conséquences d’une IA partiale

« Les systèmes d’IA partiaux engendrent de nombreux problèmes indésirables ou involontaires », explique Sara Portell. « L’une des conséquences les plus directes est la possibilité d’amendes d’un montant élevé : dans le cas du système de recrutement âgiste mentionné ci-dessus, l’entreprise a finalement versé 365 000 dollars pour mettre fin à une action en justice ».

Les entreprises qui choisissent de prendre des décisions importantes en se basant sur des systèmes d’IA injustes et imprécis concernant le recrutement, les promotions et les évaluations des performances risquent de perpétuer des inégalités et de la discrimination, estime la spécialiste. 

À l’inverse, « des systèmes d’IA impartiaux garantissent une meilleure prise de décision en s’appuyant sur des données pertinentes et précises qui reflètent différentes perspectives, garantissent une représentation adéquate, préservent la qualité, pondèrent les différents groupes et corrigent d’éventuels biais ou erreurs existants ».

Nous vivons dans une économie mondialisée. Les entreprises emploient des collaborateurs partout dans le monde, créant ainsi des effectifs très diversifiés. Si les systèmes d’IA utilisés par les entreprises internationales sont partiaux, ils ne peuvent espérer représenter la diversité des besoins, des points de vue et des capacités de l’ensemble de ces collaborateurs.

À cet égard, la confiance est donc essentielle. « Comment accorder notre confiance à un système IA et l’adopter si celui-ci est perçu comme injuste », s’interroge l’experte. « L’avenir du travail reposera sur la collaboration des humains et de l’IA. Or, cet objectif sera difficile à atteindre ou à gérer si, en raison d’exemples récurrents de partialité, le personnel adopte une attitude négative à l’égard de la technologie et cette dernière n’opère pas de manière transparente ».

« Outre les amendes potentielles et la méfiance des utilisateurs, les réglementations à venir exigeront des entreprises qu’elles garantissent l’application équitable de l’IA. La loi sur l’IA de l’Union européenne et le RGPD incluent des règles concernant la sécurité, la transparence, l’équité et l’exactitude de l’IA, que les entreprises seront tenues de respecter pour se conformer à la loi », prévient Sara Portell.

En vertu de ces règles, « les entreprises ont la responsabilité morale d’empêcher les systèmes IA de causer des torts, ce qui serait le cas s’ils adoptaient une approche discriminatoire à l’égard d’un groupe ».

Des équipes de développement diversifiées promeuvent une IA équitable

Pour s’assurer que la diversité est au cœur même des systèmes IA, « les entreprises et les équipes chargées du développement et de l’apprentissage des systèmes doivent refléter la diversité de notre société. Lorsque des groupes homogènes travaillent sur une application, ils sont susceptibles de ne pas tenir compte des besoins spécifiques d’un public cible diversifié et, par conséquent, de développer des produits qui ne répondent pas concrètement aux besoins de tous les groupes d’utilisateurs visés. C’est regrettablement le cas aujourd’hui, puisque la plupart des développeurs d’IA sont des hommes ».

Pour Sara Portell, « il est inquiétant que les femmes, qui représentent 50 % de la population, soient si peu représentées dans la conception et le développement d’une technologie aussi importante. L’IA va nous aider à transformer et réimaginer certains aspects de la société et à façonner les entreprises futures. Or, le personnel impliqué dans le développement de l’IA est constitué à 22 % seulement de femmes, et nous passons donc à côté d’un vaste pan d’expériences, de besoins et de points de vue différents ».

C’est pourquoi il est essentiel que davantage de femmes occupent des postes de direction dans le secteur de l’IA. Elles peuvent proposer des perspectives et des expériences uniques et jouer un rôle crucial dans la promotion de pratiques promouvant la responsabilité sociale et la confidentialité des données. 

Et à Sara Portell de résumer : « si des rôles essentiels sont confiés à des femmes, il est plus probable que les équipes élaborant des technologies d’IA reconnaissent et corrigent d’éventuels biais durant les phases de conception et de développement, grâce à leurs différentes perspectives. Il en résultera des ensembles de données et des protocoles d’essai promouvant l’inclusion et l’équité ».

Dirigeantes féminines en première ligne

« Les technologies d’IA doivent afficher des performances homogènes pour tous les groupes démographiques constituant le public visé par l’application, afin d’éviter la perpétuation de l’exclusion et de la discrimination. Et pour veiller à ce que cela soit le cas, les dirigeantes féminines sont en première ligne », prévient dirigeantes la spécialiste chez Unit4.

De nombreuses entreprises en sont conscientes. Selon une récente étude, 73 % des dirigeants d’entreprises de la région EMEA estiment qu’un renforcement du leadership féminin dans le secteur de l’IA est important pour atténuer les préjugés sexistes de cette technologie, tandis que 74 % considèrent qu’il est important de veiller à ce que les avantages économiques de l’IA soient ressentis de manière égale dans la société.

Or, la sous-représentation des femmes dans le secteur de l’IA risque justement de restreindre le nombre de problèmes pouvant être résolus par le développement de l’IA. La promotion d’un plus grand nombre de femmes aux postes de direction peut permettre d’orienter le développement de l’IA vers la résolution de problèmes sociétaux plus vastes, en reflétant la diversité des défis auxquels sont confrontées les différentes populations.

Accroître la représentation des femmes au sein des équipes de direction dans le secteur de l’IA n’a pas uniquement pour but de prévenir les biais, mais également d’exploiter pleinement le potentiel de l’innovation. La diversité des points de vue permet d’élaborer des solutions d’IA plus innovantes et plus efficaces, permettant de répondre à un ensemble plus vaste de besoins et de défis sociétaux.

Le défi de l’IA inclusive

« L’implication des femmes à tous les stades du processus de conception et de développement de l’IA, ainsi que dans les rôles décisionnels, garantira des systèmes inclusifs et équitables ». Prenons l’exemple d’une entreprise qui utilise l’apprentissage automatique pour son processus de recrutement. Ce système est développé à partir de données historiques reflétant un personnel principalement masculin ; il écarte les CV des femmes sur la base de différences de langage fondées sur le genre, car il privilégie le langage assertif généralement employé par les hommes au détriment du langage collaboratif plus souvent utilisé par les femmes, et rédige des descriptifs de poste contenant des termes à connotation masculine tels que « agressif » ou « dominant ». La conséquence est un système de recrutement qui perpétue les préjugés sexistes.

De même, dans les systèmes de gestion des performances, l’IA pourrait favoriser des modèles associés aux performances masculines et attribuer une note inférieure aux femmes conciliant leurs responsabilités familiales et parentales et leur disponibilité pour effectuer des heures supplémentaires ou travailler sur des projets à haute visibilité.

Les femmes contribuant au développement d’applications telles que les systèmes de recrutement et de gestion des performances seront en mesure d’identifier et d’atténuer ce type de préjugés en veillant à ce que la collecte des données soit inclusive et que le langage employé soit non sexiste. 

Plus un groupe développant des systèmes d’IA est diversifié, plus l’application résultante sera vaste, car elle prendra en compte les besoins spécifiques d’une multitude de points de vue. Exclure les femmes du processus de développement d’IA aboutit au déploiement d’applications capables de cibler des problèmes et des domaines spécifiques pour un groupe particulier, mais inadaptées au groupe dans son ensemble.

La diversité au sein des équipes de développement permet d’assurer que différentes perspectives sont prises en compte durant le processus de développement et d’essai, conduisant à l’élaboration de protocoles plus inclusifs et plus exhaustifs. Il en résulte des applications d’IA qui répondent aux exigences, aux perspectives et aux attentes bien particulières de l’ensemble de notre base d’utilisateurs. 

« Pour réussir, il ne suffit toutefois pas de nommer une femme à la tête d’une équipe d’hommes issus d’un même groupe démographique. Pour éliminer les biais des systèmes d’IA, les équipes de développement doivent inclure un large éventail de talents divers, issus de différents groupes sociaux et ethniques. Cependant, la présence d’un plus grand nombre de femmes à des postes de direction dans le secteur de l’IA aura un effet d’entraînement, encourageant des talents plus diversifiés à rejoindre le secteur et à y rester », conclut Sara Portell.

Back to top button
Close
Close