Partager la publication "Elon Musk dévoile 37 projets pour prévenir les dangers de l’intelligence artificielle"
Ces questions, que vous ne vous posez peut-être pas tous les jours, vous rattraperont plus vite que vous ne le pensez. C’est du moins l’avis d’Elon Musk, le PDG de Tesla Motors et de SpaceX. Le milliardaire a annoncé début janvier qu’il allait faire don de 10 millions de dollars (9 millions d’euros) au Future of Life Institut (FLI), un think tank américain créé par Jaan Tallinn, le cofondateur de Skype.
Son (modeste) objectif ? “Protéger l’humanité des risques existentiels”. Depuis début juillet, on sait désormais comment cet argent va être utilisé : Sur 300 projets soumis par les équipes de recherche candidates, 37 ont été retenus. Leur but : éviter que nous nous retrouvions dépassés par l’intelligence artificielle (I.A). En clair, empêcher les machines de prendre le pouvoir sur les hommes.
Contrôler le progrès technologique
Pourquoi investir tant de moyens dans ces recherches ? Parce que, selon Max Tegmark, le président du FLI, “il existe une course entre le pouvoir grandissant de la technologie et le bon sens avec lequel on la gère”. Pour l’instant, rappellent Elon Musk et Max Tegmark, les multinationales comme Google, Facebook ou Baidu ont essentiellement financé les progrès de la technique. Mais qu’en est-il des projets visant à contrôler ce même progrès ? Jusqu’ici, ils n’étaient pas soutenus, ou presque.
Pour le spécialiste de l’intelligence artificielle et salarié de Facebook Yann Lecun, ces avancées se traduisent par de “réels succès dans la reconnaissance de la parole et des images” :
“Il y a une série de mini-révolutions (…) grâce à des ordinateurs capables de grandes puissances de calcul qui utilisent des processeurs graphiques conçus au départ pour le jeu vidéo”, expliquait-t-il dans une interview aux Échos, le 15 juin.
Une série de mini-révolutions face à laquelle l’astrophysicien Stephen Hawking, connu pour ses recherches sur les trous noirs et la gravité quantique, mettait en garde, dans un entretien accordé à la BBC en décembre 2014 :
“Les formes primitives d’intelligence artificielle que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à la race humaine”.
Sans envisager une telle extrémité, de nombreux chercheurs s’inquiètent de la possibilité d’un chômage de masse dû à la robotisation, d’apparition d’armes autonomes ou de la délégation de choix moraux à des machines.
Derrière ces intitulés techniques, les champs d’expérimentation s’avèrent très concrets. L’un d’entre eux cherche, par exemple, à trouver comment un logiciel d’armement commandé par une intelligence artificielle pourrait être placé sous “un contrôle humain sensé”. Et donc limiter les risques présentés par les drones militaires, qui sont en plein essor. En témoignent les tests menés actuellement par la marine de guerre des États-Unis (US Navy), qui étudie comment un drone autonome pourrait bientôt chasser des ennemis sous la surface de l’eau.
“Plus dangereux que la bombe nucléaire”
Grâce au financement de ces projets, Elon Musk espère que dans trois ans maximum, l’homme détiendra les ressources nécessaires pour ne pas être dépassé par les progrès techniques.
Lors de l’annonce de ce financement, le 10 janvier, il avait également signé une lettre ouverte avec plus de 700 personnalités du monde des sciences et de la technologie. À ses côtés, Stephen Hawking, ou encore l’acteur Morgan Freeman, héros du film Transcendance (2014), appelaient à davantage de prudence face à l’essor de l’intelligence artificielle.
Pour Elon Musk, selon qui l’I.A. est potentiellement “plus dangereuse que des bombes nucléaires”, c’est l’avenir de l’humanité qui est en jeu.
Lara Charmeil
Journaliste à We Demain
@LaraCharmeil