Inventer

Les algorithmes sont-il sexistes ?

Sans toujours le savoir, en utilisant notre téléphone ou notre ordinateur, nous sommes sans cesse confrontés à des algorithmes. Or, ces derniers sont loin d’être neutres.

“Quand on tape ‘écolier’, on a des enfants qui vont à l’école, filles ou garçons. ‘Écolière’, on a également des jeunes filles en costume d’écolière, érotisées”, relève Isabelle Collet, informaticienne et professeure à l’Université de Genève, dans une interview à Heidi.News.

En cause : les algorithmes sont créés par des hommes, ils “apprennent” en fonction des données que nous leur soumettons. Si ces données sont biaisées, non représentatives des diversités, les algorithmes le seront aussi. Or, selon l’UNESCO, seuls 22 % des professionnels de l’IA à travers le monde sont des femmes. 

À lire aussi : 33 % de femmes dans le numérique : les solutions pour y remédier

L’IA, reflet des valeurs d’une société

“Comme toutes les technologies, l’intelligence artificielle reflétera les valeurs de ses créateurs”, explique Kate Crawford, co-directrice de l’AI Now Institute à l’Université de New York, citée par Euro News

“Les algorithmes se contentent de reproduire la réalité, mais ils ‘sur-typent’ la réalité. C’est-à-dire, à partir des données de l’existant qu’ils ont déjà, ils en fournissent une version plus stéréotypée”, détaille Isabelle Collet.

L’un des exemples les plus connus : celui d’Amazon qui avait automatisé son recrutement en 2018. L’intelligence artificielle s’était basée sur la manière dont l’entreprise recrutait les personnes. Les postes techniques étaient généralement occupés par des hommes et les hommes avaient aussi les plus longues carrières avec de meilleurs salaires. L’IA avait donc privilégié les CV d’hommes.

Autre exemple, mis en lumière par Joy Lisi Rankin, chercheuse sur la question du genre, de la race et du pouvoir dans l’IA à l’Institut AI Now de New York, pour Euro News  : “Facebook propose des annonces pour des emplois mieux payés aux hommes blancs, alors que les femmes et les personnes de couleur se voient proposer des annonces pour des emplois moins bien payés. Google, quant à lui, renvoie des résultats sexistes et pornographiques aux requêtes ‘filles noires’ ou ‘latinas’.” 

“La société a été très sexiste et très raciste et comme les algorithmes apprennent sur des données passées datant de plusieurs années – les nouvelles ne suffisant pas – ils sont forcément biaisés eux aussi”, explique au média Maddyness Aude Bernheim, chercheuse, co-fondatrice de l’association Wax Science qui lutte pour une science plus inclusive et co-autrice de L’Intelligence Artificielle, pas sans elles.

Ils sont les héritiers de notre histoire : ils ne sont pas plus sexistes que la société actuelle ne l’est.

Aude Bernheim

Mieux éduquer les algorithmes

Pourtant la première intelligence artificielle a été développée par une femme : Ada Lovelace, la première programmeuse de l’histoire, au milieu du XIXeme siècle. Mais aujourd’hui les femmes sont minoritaires dans le domaine. Cette inégalité se retrouve donc dans la conception des algorithmes. 

“Avant de coder sans biais, il faut faire prendre conscience aux gens qu’il y a des biais. C’est pour cette raison qu’il est essentiel de sensibiliser dans les écoles de code et les entreprises qui utilisent des codes comme les banques – pour allouer des crédits – ou dans les écoles d’ingénieur – pour recruter”, préconise Flore Vincent, co-autrice de L’Intelligence Artificielle, pas sans elles.

Une entrepreneuse et anthropologue française semble avoir trouvé une solution. Associée à un data scientist, Daphné Marnat lance ce 8 mars la start-up Unbias, qui propose un outil pour corriger les biais sexistes des algorithmes. Il s’agit d’une intelligence artificielle capable de détecter ces biais sexistes et de les remplacer par des mots ou des tournures de phrase moins discriminants. 

“Quand on prend le train par exemple, la SNCF nous parle à travers un robot sur la messagerie WhatsApp. Notre solution vise à ce qu’un logiciel comme celui-ci utilise un langage qui ait le moins de biais possible”, illustre la fondatrice au média Usine Nouvelle

L’entrepreneuse souhaiterait même aller plus loin : “Au-delà de détecter les biais dans les algorithmes, la technologie pourrait aider les humains à voir les biais qu’ils ne voient plus”, prévoit-elle. Le logiciel pourrait ainsi mettre en évidence les expressions considérées comme discriminantes, pour les entreprises ou les particuliers. 

Recent Posts

  • Partager

TER Break : et si on partait à l’aventure sur les chemins de France ?

Et si l’évasion ne nécessitait ni de prendre l'avion ni de visiter une capitale européenne…

1 jour ago
  • Ralentir

Paul Watson contre l’industrie baleinière : une bataille au-delà des océans

Militant écologiste, Paul Watson affronte aujourd’hui une extradition vers le Japon. Derrière l’argument culturel de…

3 jours ago
  • Ralentir

Sous les feuilles mortes, la vie secrète des sols

Loin d’être de simples déchets, les feuilles mortes sont un pilier essentiel des écosystèmes. Biodiversité,…

4 jours ago
  • Déchiffrer

Xavier Casiot : “L’hydroélectricité est une réponse clé à la décarbonation du système électrique français”

En France, les petites centrales hydroélectriques – elles sont environ 2 300 – jouent un rôle…

5 jours ago
  • Respirer

Comment le réseau d’écoles ETRE forme les décrocheurs aux métiers de la transition écologique

En quelques années, le réseau ETRE a redonné espoir à des centaines de jeunes déscolarisés…

6 jours ago
  • Déchiffrer

Captage du CO2 : le fantasme de la géo-ingénierie face à la dure réalité scientifique

Présentée comme une solution miracle contre le réchauffement climatique, la capture directe de CO2 dans…

7 jours ago