Intelligence artificielle et questions juridiques
Auteure: Catherine Paquin-Veillette, Étudiante au cours de DRT6929E
La Future of Life Institute soulève plusieurs questions juridiques relatives au développement de l’intelligence artificielle
The Future of Life Institute (FLI) est un organisme sans but lucratif ayant comme principal objectif de soutenir la recherche et de sensibiliser la population aux différents risques existentiels auxquels l’humanité serait confrontée, notamment avec l’évolution des technologies. Son comité scientifique consultatif est constitué de sommités de différents domaines, telles que le physicien Stephen Hawking, l’acteur Morgan Freeman ou encore l’entrepreneur Elon Musk (cofondateur de Paypal et Tesla Motors). Les travaux du FLI se concentrent actuellement sur les risques potentiels du développement de l’intelligence artificielle (IA).
“There is now a broad consensus that AI research is progressing steadily, and that its impact on society is likely to increase” indiquait la lettre ouverte publiée le 11 janvier 2015 et comprenant à ce jour plusieurs centaines de signataires incluant notamment des professeurs de la MIT, de l’Université de Cambridge, ainsi que des experts des plus grandes sociétés de technologiques comme Microsoft, Google et IBM.
La lettre renvoi le lecteur à un document connexe, proposant des priorités de recherche pour la construction d’une IA bénéfique pour la société et soulevant plusieurs questions juridiques découlant de son développement :
La responsabilité juridique pour les véhicules autonomes
Bien que l’IA pourrait évoluer à un point où des voitures autonomes réduiraient de moitié les accidents de la route, les constructeurs automobiles de tels engins seraient, quant à eux, exposés à de nombreuses poursuites par les familles des victimes des accidents n’ayant pu être évités. D’entrée de jeu, cette problématique soulève plusieurs questions : dans quel cadre juridique les véhicules autonomes pilotés par l’IA pourraient apporter le plus de bénéfices à la société? Est-ce que les questions relatives à l’IA peuvent être traitées par les lois existantes ou un nouveau domaine qui leur est propre devrait être créé? La création d’une Federal Robotics Commission pilotée par un panel d’experts est une piste de solution qui avait déjà été proposée.
Les armes autonomes
“Can lethal autonomous weapons be made to comply with humanitarian law ? (…) If it is permissible or legal to use lethal autonomous weapons, how should these weapons be integrated into the existing command-and-control structure so that responsibility and liability be distributed, what technical realities and forecasts should inform these questions, and how should “meaningful human control” over weapons be defined ?”[1]
En 2013, un expert des Nations Unies avait déjà demandé un moratoire mondial sur les essais, la production et l’utilisation des armes autonomes qui peuvent sélectionner et exécuter des cibles sans commande humaine.
L’éthique professionnelle
Les scientifiques devraient-ils jouer un rôle actif dans la recherche de solutions aux problématiques d’éthique liées au développement de l’IA? La FLI s’appuie dans sa réflexion sur un texte qui avait soulevé les probables difficultés éthiques et psychologiques reliées aux systèmes qui synthétisent de manière crédible des caractéristiques “humaines” comme les sentiments, l’humeur ou la personnalité. Quelle sera la réponse de la société à ces comportements qui n’existent pas en réalité ?
La vie privée
Comment concilier la faculté pour les systèmes dotés d’IA d’interpréter les données obtenues de la surveillance (caméras, lignes téléphoniques, courriels) avec notre droit à la vie privée? Avant la publication de cette lettre, ses instigateurs avaient déjà fait part de leurs inquiétudes : “I’m increasingly inclined to think there should be some regulatory oversight, maybe at the national and international level, just to make sure that we don’t do something very foolish” a dit Musk lors d’une conférence à la MIT en octobre dernier. Quant à Hawking, il indiquait dans un article qu’il a co-écrit pour The Independent : “Success in creating AI would be the biggest event in human history. Unfortunately, it might also be the last, unless we learn how to avoid the risks.”
L’instauration de politiques juridiques et éthiques et une collaboration interdisciplinaire, semblent donc des processus inévitables afin de profiter pleinement des avantages de l’IA tout en minimisant ses risques.
Cet avertissement lancé par le FLI a été relayé dans de nombreux médias, notamment LaPresse, BBC, CNBC, The Independent, The Verge, ZDN, CNET, World News Views, The Economic Times, Industry Week et Live Science.
[1] Research priorities for robust and beneficial artificial intelligence, 11 janvier 2015, p. 3.
This content has been updated on January 14, 2015 at 21 h 53 min.