Saviez-vous que l’on peut assimiler un algorithme à une recette de cuisine ? Il s’agit en effet d’une suite d’étapes définies en vue d’obtenir un résultat à partir d’ingrédients : les données. A priori, c’est aussi neutre qu’une formule mathématique. En réalité, des biais peuvent s’insinuer dans le processus. Les contrer devient un enjeu majeur alors que l’IA est de plus en plus présente dans notre quotidien. Savoir comment lutter contre les biais algorithmiques, c’est éviter tout résultat faussé et, surtout, toute discrimination. Les trois principes à suivre vous permettront d’appréhender des pistes concrètes pour une technologie plus inclusive.
1 – Agir pour des bases de données plus égalitaires et représentatives, un moyen pour limiter les biais de l’IA
Des bases de données incomplètes porteuses de discriminations algorithmiques
Vous venez de lire avec intérêt qu’une application, Face2Gene, permet de détecter les maladies génétiques rares chez les enfants. Cette aide au diagnostic est en plus très simple d’utilisation. Il suffit de photographier le sujet et de laisser faire l’algorithme. Seulement, voilà : plusieurs études ont montré que ses performances sont moins fiables pour certaines populations. Cela pourrait s’expliquer par les bases de données employées pour développer l’outil. Celles-ci, non accessibles, ont essentiellement mobilisé des modèles européens et américains.
Cette difficulté n’est pas nouvelle. Une des premières à l’avoir identifiée est Joy Buolamwini, informaticienne afro-américaine. Alors qu’elle étudie au MIT (l’institut de technologie du Massachusetts), elle doit utiliser un outil de reconnaissance faciale pour un de ses exercices. Celui-ci ne détecte pas son visage, quelle que soit la qualité de la luminosité. L’IA réagit seulement lorsqu’elle revêt un masque blanc. Cette déconvenue la conduit à en explorer les raisons. Elle réalise que les données fournies à l’IA pour l’entraîner sont en majorité des photographies d’hommes à la peau claire.
La nécessité de produire des data à l’image de la diversité du monde
Avez-vous entendu parler du data gender gap ? Ce terme renvoie au fait que les informations collectées à propos des hommes sont bien plus nombreuses et précises que celles relatives aux femmes. Les inégalités de genre ne sont pas les seules à être concernées. Beaucoup d’aspects de la vie sont moins bien documentés également pour d’autres populations, en particulier celles qui font déjà l’objet de discriminations.
Pour y remédier, l’utilisation des outils en faveur de profils sous-représentés constitue une piste sérieuse pour certaines solutions, comme Gene2Face. Cette préconisation demande toutefois d’avoir conscience des biais existants.
Dans d’autres cas, les entreprises de la Tech corrigent elles-mêmes leurs bases. C’est ce qu’il s’est passé pour les solutions de reconnaissance faciale étudiées par Joy Buolamwini.
La bonne nouvelle est que tout producteur ou productrice de contenu pour le web peut aussi participer à cette dynamique. En effet, le développement du big data s’appuie pour beaucoup sur la richesse des informations disponibles sur le Net.
Comment faire ?
- En intégrant au quotidien cet enjeu : dans le choix des sujets, la façon de les traiter et de les illustrer.
- Et pourquoi pas aussi en participant, avec les sans-PagEs, à augmenter la part des biographies féminines dans Wikipédia (moins de 20 % en juillet 2024).
2 – Savoir comment lutter contre les biais algorithmiques en s’informant sur les enjeux éthiques
« Le monde est biaisé, les données historiques sont biaisées, il n’est donc pas surprenant que nous recevions des résultats biaisés. » | Sandra Wachter, chercheuse à l’Université d’Oxford
Des préjugés « encodés »
La problématique des discriminations algorithmiques n’est pas seulement liée à l’incomplétude des bases de données. La façon dont nous produisons l’intelligence artificielle, la formons et l’utilisons peut influencer ses résultats. Les biais cognitifs des humains peuvent l’intégrer à chacune de ces étapes.
Amazon en a fait les frais lorsque l’entreprise a lancé en 2014 son logiciel de recrutement pour ses propres besoins. Le programme rejetait systématiquement les curriculum vitae des femmes pour les postes techniques.
La cause ? L’algorithme s’appuyait sur les dix dernières années de recrutement, marquées elles-mêmes par des décisions d’embauche privilégiant les hommes.
L’importance d’une sensibilisation à tous les échelons
En 2021, l’UNESCO a adopté ses recommandations pour une éthique de l’intelligence artificielle. Parmi les valeurs et principes, se trouve l’enjeu de promouvoir une technologie inclusive, débarrassée de tout biais et discrimination. Pour cela, prendre conscience des préjugés sociaux et comprendre la manière dont ils s’immiscent dans les algorithmes est indispensable.
Initier les producteurs et productrices de l’IA
Plusieurs niveaux d’intervention opèrent dans l’élaboration d’un algorithme :
- l’encadrement qui établit les objectifs et les ressources disponibles ;
- le développement qui permet de conceptualiser les logiciels ;
- la récolte de données ;
- l’étiquetage de celles-ci qui précise la définition et la valeur de chaque data.
À chacune de ces phases, des biais peuvent s’insérer. Afin de les éviter, des formations à l’IA éthique se développent et cette dimension s’intègre petit à petit aux cursus universitaires initiaux. Une solution prometteuse et complémentaire consiste à recourir, au sein des équipes, à une ou un éthicien en intelligence artificielle.
S’informer et apprendre en tant qu’utilisateurs et utilisatrices des algorithmes
Quoi de mieux pour appréhender les défis éthiques liés à l’intelligence artificielle que de jouer ? C’est possible avec Class’Code IAI. Cette application alterne vidéos pédagogiques et mises en situation qui permettent d’expliquer comment les algorithmes reproduisent les préjugés et stéréotypes. Elle est accessible à tous les âges et est à placer entre toutes les mains.
Pour celles et ceux qui font de l’IA (ou souhaitent en faire) un appui professionnel, se former à bien l’utiliser est un incontournable. Des offres généralistes, mais aussi adaptées aux différentes activités, existent.
✍️ Vous êtes rédacteur ou rédactrice web ? Apprenez à travailler avec l’intelligence artificielle.
3 – Promouvoir une plus grande diversité dans les métiers du digital, une solution pour s’attaquer aux racines des algorithmes discriminants
« La Tech, c’est le royaume de l’homme blanc surdiplômé, urbain et issu d’un milieu social favorisé. » – Mounir Mahjoubi, déclaration à la Tribune
Une forte homogénéité des personnes travaillant dans le numérique
On code à son image : à partir de son expérience de vie et avec ses préjugés. Œuvrer pour l’inclusion dans les métiers du digital n’est pas seulement une question de justice, c’est aussi un enjeu de qualité des technologies.
Les femmes sont particulièrement sous-représentées dans le domaine informatique. Depuis l’essor de l’ordinateur personnel dans les années 1980, elles ont disparu progressivement du secteur. Cela s’explique à la fois par une vision sexiste de leurs capacités dans les sciences et par une culture « geek » construite sur un modèle masculin. C’est une perte potentielle importante. L’expérience, comme celle de la FemTech, montre que lorsque les femmes s’emparent de la technologie, elles la mettent au service de besoins jusqu’alors invisibilisés.
Enseignement, réseaux de pairs et figures modèles : le combo gagnant
Les cursus formant les futurs professionnels de l’intelligence artificielle demeurent peu mixtes. Pour y remédier, les pouvoirs publics mènent des actions pour valoriser ce choix d’orientation auprès de toutes et tous. Les académies proposent pour cela des outils et temps forts en direction des élèves et du corps enseignant. Par ailleurs, les écoles du numérique intègrent de plus en plus l’objectif de diversité dans leur stratégie de développement et de recrutement.
Lorsque l’on évolue dans le domaine de la Tech, se faire une place alors qu’on ne correspond pas au profil dominant peut s’avérer difficile. Dans ce cas, il est précieux de trouver de l’aide auprès de personnes partageant un vécu similaire. C’est tout l’intérêt des réseaux professionnels. Certains d’entre eux œuvrent en particulier à l’insertion et la reconnaissance des femmes dans le secteur comme le collectif WoGiTech.
Enfin, il importe de valoriser les femmes et les profils encore trop atypiques qui contribuent à construire un futur digital désirable. Connaître et faire connaître de telles figures permet de rendre plus accessibles ces métiers pour toutes et tous. Un beau défi pour celles et ceux qui produisent du contenu !
Contrer les biais algorithmiques peut sembler a priori un défi bien difficile. En comprenant comment ils se forment et se diffusent, chacune et chacun peut agir à son niveau. La rédaction web est une activité qui offre la possibilité d’y contribuer pleinement : en utilisant avec éthique et responsabilité les outils d’intelligence artificielle et en participant à produire du contenu inclusif.
💡 Vous souhaitez aller plus loin et vous adresser à toutes et tous dans vos écrits ? Ne passez pas à côté de la technique facile à lire et à comprendre.
Gwendoline Lions, pour e-Writers.
Article rédigé lors du cursus en rédaction web de FRW.
Article relu par Andrée, tutrice à FRW.
Sources :
Articles publiés sur Nature relatifs à l’usage de Face2Gene sur les populations colombienne et japonaise.
Pacte pour une intelligence artificielle égalitaire | Laboratoire de l’égalité
Éthique de l’intelligence artificielle | UNESCO
« AI programs exhibit racial and gender biases, research reveals » | The Guardian
Communiqué de presse de l’étude de Joy Buolamwini | MIT
« L’intelligence artificielle pour mieux recruter… vraiment ? » | The Conversation
« L’entre-soi, un poison pour la tech française » | La Tribune
Crédit illustration principale : Mohamed Hassan sur Pixabay