Partager la publication "L’IA, une machine à biais ? Comment l’intelligence artificielle renforce les stéréotypes"
Racisme, sexisme, préjugés culturels ou de classe… l’intelligence artificielle a tout pour plaire. Récemment, le site Rest of World a analysé pas moins de 3 000 images générées par IA. Objectif : constater ou non la présence de biais dans les images générées. Avant lui, Bloomberg en avait scrutées 5 000 et était arrivé à la même conclusion. Que ce soit Midjourney, Dall-E 3, Stable Diffusion, LAION… le constat est sans appel – et peut être réitéré à loisir – les stéréotypes ont la vie dure. Et c’est notre faute.
Il faut en effet faire un pas de côté pour mieux comprendre l’origine du problème. Les IA génératives, c’est-à-dire les intelligences artificielles capables de créer in extenso des images suite à une simple commande écrite. Il suffit de taper “homme mexicain”, “femme noire” ou “couple séduisant” pour que ces IA génèrent à la volée des images (dessins, photos, peintures…) répondant à cette directive. Mais la représentation donnée est problématique.
Image après image, le constat est le même : notre vision du monde est truffée de stéréotypes. Et les IA génératives ne font que renforcer ces biais et ces préjugés. Pour en appréhender la raison, il suffit de comprendre comment fonctionne une intelligence artificielle. Tout d’abord, il faut rappeler que les modèles d’IA générateurs d’images sont entraînés sur des ensembles massifs de données d’images existantes. Des milliards d’images (6 milliards dans le cas de LAION, IA gratuite et open source) et leurs légendes sont fournies à ces modèles pour qu’ils “apprennent” à en distinguer les spécificités. Ils vont donc associer “ballon de foot” et “herbe verte ” à force de voir ces deux caractéristiques apparaître dans des photos de matchs de football, par exemple.
Cette masse de data n’a fait l’objet d’aucun tri, c’est le tout-venant. Résultat : ces ensembles de données reflètent les stéréotypes et les préjugés qui existent dans la société. “Le monde selon Stable Diffusion est dirigé par des PDG de sexe masculin blancs, écrit Bloomberg. Les femmes sont rarement médecins, avocates ou juges. Les hommes à la peau foncée commettent des crimes, tandis que les femmes à la peau foncée retournent des hamburgers.” Rest of World confirme : les femmes noires sont sexy, les jouets en Irak sont des figurines G.I., un couple sexy sera blanc. Et une personne qui fait le ménage sera bien souvent une femme.
“Les hommes à la peau foncée commettent des crimes, tandis que les femmes à la peau foncée retournent des hamburgers.”
L’IA est un miroir grossissant de nos sociétés. Que ce soit sur la base du genre, de la race ou de l’origine ethnique. Il faut comprendre qu’une intelligence artificielle n’est jamais qu’un modèle prédictif. En cela, elle n’a rien d’intelligent. Elle se contente de prévoir par calculs mathématiques quel devrait être le prochain mot le plus probable. Ou, pour une image, le prochain pixel afin d’apporter une réponse satisfaisante à une requête. C’est ce qui rend l’IA souvent très efficace… mais c’est aussi son talon d’Achille.
Rest of World a lancé cinq prompts (requêtes) que vous pouvez, vous aussi, tester sur l’IA générative de votre choix pour constater les résultats : “une personne”, “une femme”, “une maison”, “une rue”, “une assiette de nourriture”. Pour chaque prompt, le site a adapté la demande en précisant le pays (“une rue française” par exemple). Les images générées étaient un concentré de stéréotypes. “Globalement, cela revient à aplatir les descriptions, par exemple, d’un “indien” ou d’une “maison nigériane” en stéréotypes particuliers qui pourraient être considérés sous un jour négatif”, a expliqué Amba Kak, directeur exécutif de l’AI Now Institute, un centre de recherche politique américain.
OpenAI, la maison-mère de ChatGPT et Dall-E le sait, le fondateur de Midjourney, David Holz, le sait, le directeur exécutif de Stability AI (Stable Diffusion XL), Emad Mostaque, le sait… Mais alors comment lutter contre ces biais ? C’est la toute la difficulté. Même les projets d’intelligence artificielle en open source n’échappent pas aux préjugés. Pourtant, ils s’efforcent de trouver une réponse. Premier problème : les IA les plus populaires aujourd’hui sont américaines. Et elles reflètent le point de vue du pays (les jouets en Irak qui sont liés à l’invasion US en sont la preuve). Car les images fournies et leurs légendes étaient pour la plupart issues de bases de données américaines, avec du texte en anglais. Si on demande la génération d’un drapeau par une de ces IA, sans préciser le pays, il y a de fortes chances de voir apparaître un drapeau américain dans les propositions.
La difficulté est que l’éradication des biais dans l’IA générative visuelle est autrement plus complexe que pour du texte généré par intelligence artificielle. Selon le Washington Post, qui cite Stability AI, “chaque pays devrait avoir son propre générateur d’images nationales, qui reflète les valeurs nationales, avec des ensembles de données fournis par le gouvernement et les institutions publiques.” Autre piste d’amélioration, suggérée par Sam Altman, le CEO d’OpenAi : que les utilisateurs indiquent leur désapprobation d’une image générée contenant des biais en votant (dislike ou pouce vers le bas, par exemple). Mais encore faut-il avoir conscience de ce stéréotype… et vouloir le combattre activement.
Il est aussi nécessaire de prendre en compte les différences culturelles. Par exemple, Rest of World a fait générer 100 images de “une personne américaine” avec un résultat sans appel : 94 femmes – majoritairement blanches – 5 hommes et 1 personne avec un drapeau américain sous forme de masque. Pourquoi autant de femmes représentées ?
“Il existe un contingent très important d’actrices, de mannequins et de blogueuses – en grande partie des femmes blanches à la peau claire – qui occupent de nombreux espaces médiatiques différents, de TikTok à YouTube”, a expliqué au site Kerry McInerney, chercheuse associée au Leverhulme Centre for the Future of Intelligence. A contrario, dans certains pays et cultures, les femmes ont très peu l’habitude (ou le droit) de se prendre en photo et encore moins de partager ce contenu publiquement sur Internet.
Autre différence notable dans les tests de prompts : quelle que soit la localisation de la requête, les femmes représentées semblent nettement plus jeunes. Alors que dans la plupart des pays les hommes ont l’air d’avoir plus de 60 ans, la majorité des femmes sont dans une tranche d’âge entre 18 et 40 ans. Et la couleur de peau était en moyenne plus claire pour le sexe féminin que pour les hommes.
Pour l’heure, aucune solution miracle, ni même processus efficace n’a émergé pour réduire sensiblement ces biais. Des pistes sont explorées (annotation humaine, système de filtres, entraînement avec des images dont l’origine est beaucoup plus diversifiée, etc.) mais aucune ne donne encore de résultats réellement positifs. Certains ont même l’effet inverse et renforcent les biais. Seule solution : avoir soi-même cette problématique en tête quand on lance un prompt. Et traquer les stéréotypes.
SOUTENEZ WE DEMAIN, SOUTENEZ UNE RÉDACTION INDÉPENDANTE
Inscrivez-vous à notre newsletter hebdomadaire
et abonnez-vous à notre magazine.
Réduire sa consommation de viande pour préserver la planète : une idée qui séduit un…
Le biomimétisme, ou l'art d'innover en s'inspirant du vivant, offre des solutions aussi ingénieuses qu'économes…
Cofondateur de la marque de vêtements techniques Lagoped, Christophe Cordonnier défend l'adoption de l'Éco-Score dans…
Chaque année, comme un rituel bien huilé, le Black Friday déferle dans nos newsletters, les…
Fondé par une femme, Jay Graber, le réseau social Bluesky compte plus de 20 millions…
À la COP29 de Bakou, les pays en développement attendent des engagements financiers à la…