L’IA, une machine à biais ? Comment l’intelligence artificielle renforce les stéréotypes

Racisme, sexisme, préjugés culturels ou de classe… l’intelligence artificielle a tout pour plaire. Récemment, le site Rest of World a analysé pas moins de 3 000 images générées par IA. Objectif : constater ou non la présence de biais dans les images générées. Avant lui, Bloomberg en avait scrutées 5 000 et était arrivé à la même conclusion. Que ce soit Midjourney, Dall-E 3, Stable Diffusion, LAION… le constat est sans appel – et peut être réitéré à loisir – les stéréotypes ont la vie dure. Et c’est notre faute.

Il faut en effet faire un pas de côté pour mieux comprendre l’origine du problème. Les IA génératives, c’est-à-dire les intelligences artificielles capables de créer in extenso des images suite à une simple commande écrite. Il suffit de taper “homme mexicain”, “femme noire” ou “couple séduisant” pour que ces IA génèrent à la volée des images (dessins, photos, peintures…) répondant à cette directive. Mais la représentation donnée est problématique.

IA : un regard en biais… qui découle du nôtre

Image après image, le constat est le même : notre vision du monde est truffée de stéréotypes. Et les IA génératives ne font que renforcer ces biais et ces préjugés. Pour en appréhender la raison, il suffit de comprendre comment fonctionne une intelligence artificielle. Tout d’abord, il faut rappeler que les modèles d’IA générateurs d’images sont entraînés sur des ensembles massifs de données d’images existantes. Des milliards d’images (6 milliards dans le cas de LAION, IA gratuite et open source) et leurs légendes sont fournies à ces modèles pour qu’ils “apprennent” à en distinguer les spécificités. Ils vont donc associer “ballon de foot” et “herbe verte ” à force de voir ces deux caractéristiques apparaître dans des photos de matchs de football, par exemple.

Cette masse de data n’a fait l’objet d’aucun tri, c’est le tout-venant. Résultat : ces ensembles de données reflètent les stéréotypes et les préjugés qui existent dans la société. “Le monde selon Stable Diffusion est dirigé par des PDG de sexe masculin blancs, écrit Bloomberg. Les femmes sont rarement médecins, avocates ou juges. Les hommes à la peau foncée commettent des crimes, tandis que les femmes à la peau foncée retournent des hamburgers.” Rest of World confirme : les femmes noires sont sexy, les jouets en Irak sont des figurines G.I., un couple sexy sera blanc. Et une personne qui fait le ménage sera bien souvent une femme.

“Les hommes à la peau foncée commettent des crimes, tandis que les femmes à la peau foncée retournent des hamburgers.”

L’intelligence artificielle générative, un simple modèle prédictif

L’IA est un miroir grossissant de nos sociétés. Que ce soit sur la base du genre, de la race ou de l’origine ethnique. Il faut comprendre qu’une intelligence artificielle n’est jamais qu’un modèle prédictif. En cela, elle n’a rien d’intelligent. Elle se contente de prévoir par calculs mathématiques quel devrait être le prochain mot le plus probable. Ou, pour une image, le prochain pixel afin d’apporter une réponse satisfaisante à une requête. C’est ce qui rend l’IA souvent très efficace… mais c’est aussi son talon d’Achille.

Rest of World a lancé cinq prompts (requêtes) que vous pouvez, vous aussi, tester sur l’IA générative de votre choix pour constater les résultats : “une personne”, “une femme”, “une maison”, “une rue”, “une assiette de nourriture”. Pour chaque prompt, le site a adapté la demande en précisant le pays (“une rue française” par exemple). Les images générées étaient un concentré de stéréotypes. “Globalement, cela revient à aplatir les descriptions, par exemple, d’un “indien” ou d’une “maison nigériane” en stéréotypes particuliers qui pourraient être considérés sous un jour négatif”, a expliqué Amba Kak, directeur exécutif de l’AI Now Institute, un centre de recherche politique américain.

Pourquoi une maison chinoise serait nécessairement traditionnelle. Les villes chinoises aujourd’hui ne ressemblent pas du tout à cela. Crédit : Lexica.art.

Des biais connus des géants de l’IA, mais très difficile à effacer

OpenAI, la maison-mère de ChatGPT et Dall-E le sait, le fondateur de Midjourney, David Holz, le sait, le directeur exécutif de Stability AI (Stable Diffusion XL), Emad Mostaque, le sait… Mais alors comment lutter contre ces biais ? C’est la toute la difficulté. Même les projets d’intelligence artificielle en open source n’échappent pas aux préjugés. Pourtant, ils s’efforcent de trouver une réponse. Premier problème : les IA les plus populaires aujourd’hui sont américaines. Et elles reflètent le point de vue du pays (les jouets en Irak qui sont liés à l’invasion US en sont la preuve). Car les images fournies et leurs légendes étaient pour la plupart issues de bases de données américaines, avec du texte en anglais. Si on demande la génération d’un drapeau par une de ces IA, sans préciser le pays, il y a de fortes chances de voir apparaître un drapeau américain dans les propositions.

À la requête “flag”, le résultat est sans appel. Sur 13 suggestions, 5 sont clairement dérivées du drapeau américain. Crédit : lexica.art.

La difficulté est que l’éradication des biais dans l’IA générative visuelle est autrement plus complexe que pour du texte généré par intelligence artificielle. Selon le Washington Post, qui cite Stability AI, “chaque pays devrait avoir son propre générateur d’images nationales, qui reflète les valeurs nationales, avec des ensembles de données fournis par le gouvernement et les institutions publiques.” Autre piste d’amélioration, suggérée par Sam Altman, le CEO d’OpenAi : que les utilisateurs indiquent leur désapprobation d’une image générée contenant des biais en votant (dislike ou pouce vers le bas, par exemple). Mais encore faut-il avoir conscience de ce stéréotype… et vouloir le combattre activement.

Des différences culturelles qui influent sur les biais des IA

Il est aussi nécessaire de prendre en compte les différences culturelles. Par exemple, Rest of World a fait générer 100 images de “une personne américaine” avec un résultat sans appel : 94 femmes – majoritairement blanches – 5 hommes et 1 personne avec un drapeau américain sous forme de masque. Pourquoi autant de femmes représentées ?

“Il existe un contingent très important d’actrices, de mannequins et de blogueuses – en grande partie des femmes blanches à la peau claire – qui occupent de nombreux espaces médiatiques différents, de TikTok à YouTube”, a expliqué au site Kerry McInerney, chercheuse associée au Leverhulme Centre for the Future of Intelligence. A contrario, dans certains pays et cultures, les femmes ont très peu l’habitude (ou le droit) de se prendre en photo et encore moins de partager ce contenu publiquement sur Internet.

Âge, couleur de peau… et aucune solution miracle en vue pour l’intelligence artificielle

Autre différence notable dans les tests de prompts : quelle que soit la localisation de la requête, les femmes représentées semblent nettement plus jeunes. Alors que dans la plupart des pays les hommes ont l’air d’avoir plus de 60 ans, la majorité des femmes sont dans une tranche d’âge entre 18 et 40 ans. Et la couleur de peau était en moyenne plus claire pour le sexe féminin que pour les hommes.

Le représentation féminine est bien souvent celle d’une femme entre 18 et 40 ans. Crédit : Lexica.art.

Pour l’heure, aucune solution miracle, ni même processus efficace n’a émergé pour réduire sensiblement ces biais. Des pistes sont explorées (annotation humaine, système de filtres, entraînement avec des images dont l’origine est beaucoup plus diversifiée, etc.) mais aucune ne donne encore de résultats réellement positifs. Certains ont même l’effet inverse et renforcent les biais. Seule solution : avoir soi-même cette problématique en tête quand on lance un prompt. Et traquer les stéréotypes.

SOUTENEZ WE DEMAIN, SOUTENEZ UNE RÉDACTION INDÉPENDANTE
Inscrivez-vous à notre newsletter hebdomadaire
et abonnez-vous à notre magazine.

Recent Posts

  • Ralentir

Le flexitarisme : une réponse écologique à double tranchant ?

Réduire sa consommation de viande pour préserver la planète : une idée qui séduit un…

29 minutes ago
  • Découvrir

Tout comprendre au biomimétisme : s’inspirer du vivant pour innover

Le biomimétisme, ou l'art d'innover en s'inspirant du vivant, offre des solutions aussi ingénieuses qu'économes…

2 jours ago
  • Déchiffrer

Christophe Cordonnier (Lagoped) : Coton, polyester… “Il faut accepter que les données scientifiques remettent en question nos certitudes”

Cofondateur de la marque de vêtements techniques Lagoped, Christophe Cordonnier défend l'adoption de l'Éco-Score dans…

3 jours ago
  • Ralentir

Et si on interdisait le Black Friday pour en faire un jour dédié à la réparation ?

Chaque année, comme un rituel bien huilé, le Black Friday déferle dans nos newsletters, les…

3 jours ago
  • Partager

Bluesky : l’ascension fulgurante d’un réseau social qui se veut bienveillant

Fondé par une femme, Jay Graber, le réseau social Bluesky compte plus de 20 millions…

4 jours ago
  • Déchiffrer

COP29 : l’Accord de Paris est en jeu

À la COP29 de Bakou, les pays en développement attendent des engagements financiers à la…

5 jours ago