Partager la publication "Empêcher les robots de tuer: le combat d’un millier de scientifiques"
Une question d’années
Dans une lettre ouverte, publiée à l’ouverture de la Conférence internationale sur l’intelligence artificielle (IJCAI) à Buenos Aires, ce collectif met en garde face à ces robots encore inexistants, mais dont l’apparition ne serait qu’une question d’années.
“La technologie de l’intelligence artificielle (IA) a atteint un point où le déploiement de ces systèmes est, pratiquement sinon légalement, faisable non dans les décennies mais dans les années à venir.”
Décrivant des machines qui “ne nécessitent pas de coûteux investissements ou des matières premières difficiles à obtenir (…)”, contrairement aux armes nucléaires, les signataires poursuivent :
“Ce ne sera qu’une question de temps avant qu’elles n’apparaissent sur le marché noir et entre les mains de terroristes, de dictateurs (..) et de seigneurs de la guerre voulant perpétrer un nettoyage ethnique, etc.”
Parmi les signataires de cette lettre ouverte, on recense aussi des chercheurs et professeurs issus des plus grands pôles scientifiques du monde : Harvard, Berkeley, Cambridge à Liège (Belgique), Paris, l’université Humboldt de Berlin, etc. Le Prix Nobel de physique Frank Wilczek, compte notamment parmi les membres de ce collectif.
Réunions d’experts
Ces personnalités ne sont pas les seules à redouter l’arrivée prochaine de robots tueurs. ONU, scientifiques, défenseurs du droit humanitaire : un nombre croissant d’acteurs et d’institutions s’en inquiète. Deux réunions d’experts se sont déjà tenues à Genève à ce sujet, dans le cadre d’une convention de l’ONU portant sur des armes classiques.
L’une des principales crainte des détracteurs des armes autonomes ? Qu’elles ne soient pas capables de faire la différence entre civils et combattants ou programment des attaques aux effets disproportionnés sur les populations.
Course aux armements
Si les militaires peuvent voir dans ces robots le moyen de réduire le risque de pertes humaines sur les champs de bataille, les signataires, eux, estiment que de telles machines abaisseraient avant tout “le coût d’un engagement au combat” et laisseraient présager une nouvelle course aux armements. L’intelligence artificielle “offre un grand potentiel pour le bénéfice de l’humanité” mais ne doit pas être “discréditée” par la conception d’armes offensives, insistent-ils.
L’interdiction d’armes encore inexistantes ne serait pas une première. En 1998, des lasers aveuglants avaient été bannis avant même d’avoir été développés à grande échelle.
Antoine Lannuzel (avec AFP)
Rédacteur en chef adjoint à We Demain.
@AntoineLannuzel
Cofondateur de la marque de vêtements techniques Lagoped, Christophe Cordonnier défend l'adoption de l'Éco-Score dans…
Chaque année, comme un rituel bien huilé, le Black Friday déferle dans nos newsletters, les…
Fondé par une femme, Jay Graber, le réseau social Bluesky compte plus de 20 millions…
À la COP29 de Bakou, les pays en développement attendent des engagements financiers à la…
Pourquoi et comment un groupe français de services numériques décide de mettre la nature au…
Face aux pressions anthropiques croissantes, les écosystèmes côtiers subissent une contamination insidieuse par des éléments…