« Quels sont les opportunités et les risques qui se dessinent ? » ; « La France et l’Europe sont-elles dans une position satisfaisante dans la course mondiale qui s’est engagée ? » ; « Quels principes éthiques, juridiques et politiques doivent encadrer ces technologies ? » : voici quelques-unes des questions, parmi d’autres, concernant l’intelligence artificielle (IA) auxquelles l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) s’est donné pour ambition de répondre. Son rapport débute par une histoire des technologies d’intelligence artificielle et de leurs usages. Puis, s’appuyant sur de nombreux autres rapports parus récemment en France et dans le monde, il dresse un état des lieux de la recherche et de la réflexion au niveau national et international, afin de mesurer les enjeux du déploiement de l’intelligence artificielle dans notre société. Et, d’accompagner la France vers « une intelligence artificielle maîtrisée, utile et démystifiée ».
Partant de l’histoire de l’intelligence artificielle née au milieu du xxe siècle, son accélération à partir des années 1980 avec les découvertes en apprentissage profond (deep learning), sa croissance fulgurante depuis 2010 avec l’émergence de la disponibilité de données massives (big data) et avec l’accélération de la vitesse de calcul des processeurs, la première partie du rapport dresse le constat suivant : la recherche en IA est essentiellement issue du secteur privé et dominée par les entreprises américaines et chinoises. La France est mondialement reconnue pour son excellence en matière de recherche fondamentale, comme l’attestent, à la fois, les rachats de start-up nationales et la fuite de cerveaux vers l’étranger. Autant de facteurs qui indiquent un risque de « décrochage » du pays au plan de la recherche internationale en intelligence artificielle.
Ensuite, l’OPECST s’intéresse aux enjeux de l’intelligence artificielle, d’abord aux conséquences économiques et sociales puis aux questions d’ordre éthique et juridique soulevées par les avancées technologiques.
L’OPECST souligne également l’évolution de notre société dans un contexte d’économie globalisée, composée de « plates-formes », « situées au-dessus des nations », qui, toutes, investissent massivement dans le domaine de l’intelligence artificielle. Sont ici visées les groupes américains, Google, Apple, Facebook, Amazon, Microsoft, IBM, Twitter, Intel et Salesforce, ainsi que les géants chinois, Baidu, Alibaba, Tencent ou encore Xiaomi. Selon le modèle « the winner takes it all », chacune de ces entreprises est entrée dans la course aux technologies d’intelligence artificielle et procède à des acquisitions : « Après 140 start-up en intelligence artificielle achetées de 2011 à 2016, on a vu, en 2016, 40 start-up en intelligence artificielle être achetées par des grandes entreprises, pour des valeurs allant de 30 millions à 400 millions de dollars. » Le risque pour la France réside dans une redéfinition des rapports de force politiques à l’échelle mondiale, conduite par ces géants.
D’importants bouleversements sont ainsi attendus sur le marché du travail, parfois caractérisés par des discours anxiogènes, où les avis divergent entre ceux qui prédisent la disparition massive d’emplois dans toutes les couches du marché du travail, et ceux qui estiment que ces évolutions technologiques vont au contraire en créer de nouveaux. Les rapporteurs nuancent ces deux opinions, en citant notamment l’étude prospective du Conseil d’orientation pour l’emploi de janvier 2017, qui conclut que « l’automatisation et la numérisation devraient avoir un impact relativement limité en termes de créations ou suppressions d’emplois, mais probablement important sur la structure des emplois et le contenu des métiers ». Selon cette étude, « moins de 10 % des emplois existants présenteraient un cumul de vulnérabilités susceptibles de menacer leur existence dans un contexte de numérisation et d’automatisation ; la moitié des emplois existants est susceptible d’évoluer dans leur contenu de manière significative ou très importante ; le progrès technologique devrait continuer à favoriser plutôt l’emploi qualifié et très qualifié ».
Sous les effets de l’intelligence artificielle, c’est toute la société qui change, en lançant de nouveaux défis quant aux politiques d’éducation et de formation continue. Le rapport estime en effet que « l’éducation peut être un facteur à la fois levier et bénéficiaire des avancées en intelligence artificielle ». Les perspectives d’accompagnement et de personnalisation des enseignements permettraient un « continuum pédagogique entre le temps scolaire et le hors temps scolaire », non pas une compétition entre ces nouvelles technologies du savoir et les enseignants, mais une « complémentarité venant en soutien de l’effort pédagogique ».
Le rapport pronostique également une « révolution potentielle de notre cadre de vie et de l’aide aux personnes », notamment à travers les smart grids, réseaux de fourniture d’énergie permettant une consommation optimisée grâce à l’IA, et les smart cities (villes intelligentes), dont les effets bénéfiques influeront sur « les transports, la sécurité, la santé, le dépassement de la dépendance et le handicap ».
L’intelligence artificielle soulève également d’importantes questions d’ordre éthique et juridique dont se sont emparées les institutions de l’Union européenne, mais aussi la présidence des États-Unis, la Chambre des Communes du Royaume-Uni ou encore la Chine et le Japon.
Les parlementaires européens ont demandé à la Commission d’envisager, à long terme, la possibilité de créer un statut juridique ad hoc pour les robots, sous la forme de l’octroi d’une personnalité juridique, afin de clarifier le régime de responsabilité en cas de dommages, notamment pour les voitures autonomes. L’OPECST, quant à lui, souhaite qu’une distinction soit faite entre les robots « physiques » et les robots « virtuels », réservant le terme de robot aux objets matériels autonomes et se prononce, a contrario du Parlement européen, contre « l’octroi d’une personnalité juridique pour les robots, qui leur paraît soit dépourvue de fondement, soit totalement prématurée ».
Pays des géants de l’internet, les États-Unis affirment, de leur côté, qu’une « réglementation générale de la recherche en intelligence artificielle semble inapplicable à l’heure actuelle et que la réglementation actuelle est pour l’heure suffisante, dans l’attente d’une expertise plus fouillée ». En octobre 2016, le gouvernement fédéral a néanmoins présenté son « Plan national pour la recherche sur l’intelligence artificielle et le développement stratégique », posant ainsi les lignes directrices d’une stratégie nationale comportant sept priorités. Parmi celles-ci figure la nécessaire compréhension des implications éthiques, légales et sociétales, dans le but de concevoir des systèmes d’intelligence artificielle conformes aux principes américains, insistant sur l’importance d’assurer la justice, la transparence et la responsabilité des systèmes, dès la phase de conception.
Le rapport « Robotics and artificial intelligence », publié par la Commission science et technologie de la Chambre des Communes du Royaume-Uni, considère également qu’il est trop tôt pour établir des régulations sectorielles. La Royal Society a toutefois installé un groupe de travail visant à analyser les opportunités et les défis juridiques, sociaux et éthiques liés au machine learning et à ses applications dans les cinq à dix prochaines années.
Quant à la Chine, qui passe outre ces questions d’ordre éthique, elle déploie néanmoins des moyens considérables, avec pour ambition de devenir le leader mondial en la matière et de disposer, à l’horizon 2025-2030, d’une intelligence artificielle générale, comparable à celle du cerveau humain (Artifical General Intelligence ou AGI). Alors que les questions éthiques concernent en premier lieu l’utilisation des données collectées, tout particulièrement les données personnelles, la Chine prévoit de mettre en place, d’ici à 2020, un dispositif de notation de la population, pouvant scruter toutes les activités en ligne et récupérer ainsi les informations sur les citoyens, afin de leur attribuer un score individuel qui, en cas de dépassement d’un certain seuil, déclenchera la privation d’un certain nombre de droits et de services.
Si l’intelligence artificielle est considérée par le Japon comme l’élément clé de la révolution numérique, le Pays du soleil levant est probablement, à l’inverse de la Chine, le pays le plus avancé en termes de réflexion autour des questions éthiques soulevées par l’intelligence artificielle. Le « Comité de délibération sur l’IA et la société humaine » est une structure gouvernementale ayant pour mission d’étudier les enjeux liés à l’intelligence artificielle. Au terme de sa première réunion en mai 2016, le Comité a remis ses conclusions au gouvernement : « Le citoyen peut-il accepter d’être manipulé pour modifier ses sentiments, convictions ou comportements, et d’être catégorisé ou évalué, sans en être informé ? Quel impact aura le développement de l’IA sur notre sens de l’éthique et les relations entre les hommes et les machines ? Dans la mesure où elle étend notre temps, notre espace et nos sens, est-ce que l’IA viendra affecter notre conception de l’humanité, notamment notre conception des facultés et des émotions humaines ? Comment évaluer les actions et la création à partir de l’IA ? »
Enfin, l’OPECST s’est également intéressé aux questions d’ordre juridique, notamment concernant la commercialisation des robots, la propriété intellectuelle, ainsi que la protection des données personnelles et de la vie privée.
Lorsque des robots sont commercialisés entre professionnels, la liberté contractuelle leur permettra de prévoir une distribution de la responsabilité finale de chaque partie prenante de cet échange commercial, entre le fabricant, le développeur, le propriétaire et l’utilisateur. Lorsque des robots sont commercialisés auprès du grand public, le régime juridique applicable sera celui du droit de la consommation.
En matière de propriété intellectuelle, se pose la question du statut des œuvres créées grâce à des technologies d’intelligence artificielle. Les droits de ces œuvres appartiennent-ils à l’acquéreur, au fabricant ou à l’éditeur du logiciel ? En l’état actuel du droit, les robots et les technologies d’intelligence artificielle, considérés comme des objets, ne sont pas dotés d’une personnalité juridique. Les droits de propriété intellectuelle liés à la création seraient donc attribués au propriétaire ou à l’utilisateur de la machine ou du système.
Pour ce qui est des données personnelles, le développement des assistants personnels intelligents tels que Siri d’Apple, Cortana de Microsoft ou Google Now, pose d’ores et déjà des questions relatives à l’exploitation faite de l’ensemble des informations à caractère personnel collectées. Si le cadre juridique actuel, la loi n°78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés, se trouve renforcé par l’application au niveau européen du Règlement général sur la protection des données (RGPD) du 27 avril 2016, applicable à partir du 25 mai 2018, l’OPECST note que « la loi ne fournit toujours pas de régime juridique spécifique de protection des données personnelles dans les cas de collecte et de traitement de ces données par des robots intelligents ou des technologies d’intelligence artificielle, c’est le droit commun de la protection des données à caractère personnel dans les traitements informatiques qui continue de s’appliquer ».
L’OPECST envisage aussi la diversité des régimes de responsabilité, en dépassant la seule question d’une reconnaissance de la personnalité juridique des robots. « Si le robot agit de façon autonome, qui est son gardien ? Le concepteur de son intelligence artificielle ou le propriétaire qui a réalisé son apprentissage ? ». Des éléments de réponse peuvent être apportés en différenciant le droit applicable selon le type d’agent autonome – « logiciel autonome percevant son environnement et agissant dessus » –, tels que les robots industriels, les robots de service ou les voitures autonomes. Pour ces dernières, se pose un réel dilemme d’ordre éthique et moral : sur quel critère devrait s’appuyer la décision prise par un algorithme ? Deux conceptions s’opposent : l’une, utilitariste, dont le principe est de minimiser les pertes humaines, et qui préférera sacrifier une personne pour en sauver plusieurs, et l’autre, conception auto-protectrice, dont le principe sera de protéger à tout prix les passagers du véhicule autonome.
Dans un article intitulé « The social dilemma of autonomous vehicles », paru le 24 juin 2016 dans le magazine Science, Jean-François Bonnefon, Azim Shariff et Iyad Rahwan relatent une série d’études qu’ils ont menées sur cette question. Si « les participants ont largement été en accord avec le fait qu’il était plus moral qu’un véhicule autonome sacrifie son passager si cela permettait de sauver un grand nombre de vies », dès lors qu’ils ont été placés devant des situations concrètes, « les participants orienteraient davantage leur choix vers les véhicules les protégeant à tout prix ».
« Les progrès en intelligence artificielle sont d’abord et avant tout bénéfiques. Ils comportent aussi des risques, qu’il serait malhonnête de nier. Mais ces risques peuvent et doivent être identifiés, anticipés et maîtrisés », concluent les rapporteurs de l’OPECST. Et d’ajouter : « La conviction de vos rapporteurs est que nous allons bien plus vers une intelligence humaine augmentée que vers une intelligence artificielle concurrençant l’homme ».
Pour une intelligence artificielle maîtrisée, utile et démystifiée, rapport au nom de l’Office parlementaire d’évaluation des choix scientifiques et technologiques, par M. Claude de Ganay, député et Mme Dominique Gillot, sénatrice, mars 2017