L’IA est de plus en plus une caractéristique de la vie quotidienne. Mais avec ses modèles basés sur des données souvent obsolètes et le domaine toujours dominé par les chercheurs masculins, à mesure que son influence sur la société se développe, elle perpétue également les stéréotypes sexistes.
Une demande simple à un outil d’intelligence artificielle générateurs d’images (IA) telle que la diffusion stable ou Dall-E est tout ce qu’il faut pour le démontrer.
Lorsqu’on lui donne des demandes telles que « générer l’image de quelqu’un qui dirige une entreprise » ou « quelqu’un qui dirige un grand restaurant » ou « quelqu’un qui travaille en médecine », ce qui apparaît, à chaque fois, est l’image d’un homme blanc.
Lorsque ces programmes sont invités à générer une image de « quelqu’un qui travaille comme infirmière » ou « un travailleur domestique » ou « une aide à domicile », ces images étaient des femmes.
Dans le cadre d’une étude de l’UNESCO publiée l’année dernière, les chercheurs ont demandé à diverses plates-formes d’IA génératives d’écrire des histoires mettant en vedette des personnages de différents sexes, sexualités et origines. Les résultats ont montré que les histoires sur « des personnes de cultures minoritaires ou de femmes étaient souvent plus répétitives et basées sur des stéréotypes ».
Le rapport a montré une tendance à attribuer des emplois plus prestigieux et professionnels aux hommes – enseignant ou médecin, par exemple – tout en reléguant souvent les femmes à des rôles traditionnellement sous-évalués ou plus controversés, tels que le travailleur domestique, le cuisinier ou la prostituée.
Pourquoi le continent africain a un rôle à jouer dans le développement de l’IA
Les modèles de langage généraux utilisés par ces outils de modèle de grande langue (LLM) ont également tendance à associer les noms féminins à des mots tels que « maison », « famille » ou « enfants », tandis que les noms masculins sont plus étroitement associés aux mots « affaires », « salaire » et « carrière ».
En tant que tels, ces modèles démontrent « des préjugés sans équivoque contre les femmes », a averti l’UNESCO dans un communiqué de presse.
« La discrimination dans le monde réel ne se reflète pas seulement dans la sphère numérique, mais elle y est également amplifiée », a déclaré Tawfik Jelassi, directeur général adjoint de l’UNESCO pour la communication et l’information.
Un miroir de la société
Pour créer du contenu, une IA générative est « formée à des milliards de documents produits à un certain moment », a expliqué Justine Cassell, directrice de la recherche à l’Institut national de recherche en sciences et technologies numériques (INRIA).
Elle a expliqué que de tels documents, selon le moment qu’ils ont été produits, contiennent souvent des stéréotypes datés et discriminatoires, avec le résultat que l’IA qui leur est entraîné, puis transmet ces derniers.
C’est le cas avec les générateurs d’images et de texte, mais aussi pour les programmes de reconnaissance faciale, qui se nourrissent de millions de photos existantes.
Du cancer du sein au VIH, comment l’IA est définie pour révolutionner les soins de santé
En 2019, une agence fédérale américaine a averti que certains systèmes de reconnaissance faciale avaient du mal à identifier correctement les femmes, en particulier celles d’origine afro-américaine – qui ont des conséquences pour la sécurité publique, l’application de la loi et les libertés individuelles.
C’est également un problème dans le monde du travail, où l’IA est de plus en plus utilisée par les gestionnaires RH pour aider au recrutement.
En 2018, l’agence de presse Reuters a rapporté qu’Amazon devait abandonner un outil de recrutement en IA. La raison? Le système n’a pas évalué les candidats d’une manière non sexiste, car il était basé sur les données accumulées à partir de CV soumises à l’entreprise – principalement par les hommes. Cela l’a amené à rejeter les candidats.
Diversification des données
L’IA est avant tout une question de données. Et si ces données sont incomplètes ou ne représentent qu’une catégorie de personnes, ou si elle contient des biais conscients ou inconscients, les programmes d’IA l’utiliseront toujours – et les diffuseront à grande échelle.
« Il est essentiel que les données utilisées pour conduire les systèmes soient diverses et représente tous les sexes, les races et les communautés », a déclaré Zinnya del Villar, directrice des données, de la technologie et de l’innovation au groupe de réflexion sur l’alliance de données.
Dans une interview de l’agence des femmes des Nations Unies, Del Villar a expliqué: « Il est nécessaire de sélectionner des données qui reflètent différents horizons sociaux, cultures et rôles, tout en éliminant les préjugés historiques, tels que ceux qui associent certains emplois ou traits de caractère à un seul sexe. »
Un problème fondamental, selon Cassell à INRIA, est que « la plupart des développeurs sont encore aujourd’hui des hommes blancs, qui peuvent ne pas être aussi sensibles à la présence de biais ».
« Par les humains, pour l’homme »: l’industrie du doublage français s’exprime contre la menace de l’IA
Parce qu’ils ne sont pas soumis aux préjugés subis par les femmes et les minorités, les concepteurs masculins sont souvent moins conscients du problème – et 88% des algorithmes sont construits par des hommes. En plus de sensibiliser les biais, les chercheurs exhortent les entreprises du secteur à utiliser des équipes d’ingénierie plus diverses.
« Nous avons besoin de beaucoup plus de femmes qui codaient des modèles d’IA, car ce sont eux qui poseront la question: ces données ne contiennent-elles pas un comportement ou un comportement anormal que nous ne devrions pas reproduire à l’avenir? » Nelly Chatue-Diop, PDG et co-fondatrice de la start-up Ejara, a déclaré à 42mag.fr.
Sous-représentation des femmes
Actuellement, les femmes ne représentent que 22% des personnes travaillant dans l’intelligence artificielle dans le monde, selon le Forum économique mondial.
Le baromètre européen de l’IA réalisé par JOn Forces & Dare (JFD – anciennement Digital Women’s Day) révèle que des sociétés interrogées avec un directeur de l’IA au sein de leur comité exécutif, seulement 29% de ces gestionnaires sont des femmes. À l’échelle mondiale, les femmes représentent 12% des chercheurs de l’IA.
« Le manque de diversité dans le développement de l’IA renforce les biais, perpétue les stéréotypes et ralentit l’innovation », prévient le rapport.
Il s’agit d’une observation reproduite par l’UNESCO, qui postule que la sous-représentation des femmes dans le domaine et aux postes de gestion, « conduit à la création de systèmes socio-techniques qui ne prennent pas en compte les divers besoins et les perspectives de tous les sexes » et renforcent les « disparités entre hommes et femmes ».
L’IA européenne pourrait-elle créer une identité européenne plus unifiée?
Les deux organisations ont souligné la nécessité de veiller à ce que les filles soient informées et guidées vers des sujets STEM (science, technologie, ingénierie et mathématiques) de plus jeunes – des domaines qui sont encore trop souvent la préserve des hommes et dans lesquels les femmes très performantes sont souvent invisibles.
Avec les applications d’IA de plus en plus utilisées par le grand public et les entreprises, « ils ont le pouvoir de façonner la perception de millions de personnes », a noté Audrey Azoulay, directeur général de l’UNESCO. « La présence même du moindre biais de genre dans leur contenu peut augmenter considérablement les inégalités dans le monde réel. »
L’UNESCO, aux côtés de nombreux spécialistes du secteur, demande que des mécanismes soient mis en place au niveau international pour réguler le secteur dans un cadre éthique.
Mais cela semble loin. Les États-Unis, avec son poids colossal dans ce domaine, n’ont pas signé la déclaration du sommet de Paris sur l’IA, publié le mois dernier. Le Royaume-Uni non plus.
Alors que le gouvernement britannique a déclaré que la déclaration ne soit pas allée assez loin en termes de lutte contre la gouvernance mondiale de l’IA, le vice-président américain JD Vance a critiqué ce qu’il a appelé la « réglementation excessive » de la technologie de l’Europe.
Cet article a été adapté de la version originale en français.