Inventer  > Empêcher les robots de tuer: le combat d’un millier de scientifiques

Written by 15 h 37 min Inventer

Empêcher les robots de tuer: le combat d’un millier de scientifiques

Portée par des personnalités comme Stephen Hawking, Steve Wozniak et Elon Musk, une pétition alerte sur la dangerosité des armes autonomes. Des engins qui n’existent pas encore, mais dont l’apparition imminente menacerait la sécurité mondiale et les droits de l’homme.

Le 28/07/2015 par Antoine Lannuzel
Portée par des personnalités comme Stephen Hawking, Steve Wozniak et Elon Musk, une pétition alerte sur la dangerosité des armes autonomes. Des engins qui n'existent pas encore, mais dont l'apparition imminente menacerait la sécurité mondiale et les droits de l'homme.
Portée par des personnalités comme Stephen Hawking, Steve Wozniak et Elon Musk, une pétition alerte sur la dangerosité des armes autonomes. Des engins qui n'existent pas encore, mais dont l'apparition imminente menacerait la sécurité mondiale et les droits de l'homme.

Ils en appellent à l’interdiction des “robots tueurs”. À l’image de l’astrophysicien britannique Stephen Hawking, du confondateur d’Apple Steve Wozniak, d’Elon Musk (Tesla et Space X) ou du cofondateur de Skype Jaan Tallinn, plus d’un millier de chercheurs et personnalités ont lancé mardi un appel contre les armes offensives autonomes. En clair, des engins qui pourraient prendre la décision de tuer sans contrôle de l’homme, à la différence des drones télécommandés actuels, qui nécessitent une intervention humaine.

Une question d’années

Dans une lettre ouverte, publiée à l’ouverture de la Conférence internationale sur l’intelligence artificielle (IJCAI) à Buenos Aires, ce collectif met en garde face à ces robots encore inexistants, mais dont l’apparition ne serait qu’une question d’années.
 

“La technologie de l’intelligence artificielle (IA) a atteint un point où le déploiement de ces systèmes est, pratiquement sinon légalement, faisable non dans les décennies mais dans les années à venir.”

Décrivant des machines qui “ne nécessitent pas de coûteux investissements ou des matières premières difficiles à obtenir (…)”, contrairement aux armes nucléaires, les signataires poursuivent :
 

“Ce ne sera qu’une question de temps avant qu’elles n’apparaissent sur le marché noir et entre les mains de terroristes, de dictateurs (..) et de seigneurs de la guerre voulant perpétrer un nettoyage ethnique, etc.”

Parmi les signataires de cette lettre ouverte, on recense aussi des chercheurs et professeurs issus des plus grands pôles scientifiques du monde : Harvard, Berkeley, Cambridge à Liège (Belgique), Paris, l’université Humboldt de Berlin, etc. Le Prix Nobel de physique Frank Wilczek, compte notamment parmi les membres de ce collectif.

Réunions d’experts

Ces personnalités ne sont pas les seules à redouter l’arrivée prochaine de robots tueurs. ONU, scientifiques, défenseurs du droit humanitaire : un nombre croissant d’acteurs et d’institutions s’en inquiète. Deux réunions d’experts se sont déjà tenues à Genève à ce sujet, dans le cadre d’une convention de l’ONU portant sur des armes classiques.

L’une des principales crainte des détracteurs des armes autonomes ? Qu’elles ne soient pas capables de faire la différence entre civils et combattants ou programment des attaques aux effets disproportionnés sur les populations.

Course aux armements

Si les militaires peuvent voir dans ces robots le moyen de réduire le risque de pertes humaines sur les champs de bataille, les signataires, eux, estiment que de telles machines abaisseraient avant tout “le coût d’un engagement au combat” et laisseraient présager une nouvelle course aux armements. L’intelligence artificielle “offre un grand potentiel pour le bénéfice de l’humanité” mais ne doit pas être “discréditée” par la conception d’armes offensives, insistent-ils.

L’interdiction d’armes encore inexistantes ne serait pas une première. En 1998, des lasers aveuglants avaient été bannis avant même d’avoir été développés à grande échelle.

Antoine Lannuzel (avec AFP)
Rédacteur en chef adjoint à We Demain.
@AntoineLannuzel

 

A lire aussi :