Intelligence artificielle, une approche européenne axée sur l’excellence et la confiance

Pour une intelligence artificielle européenne « éthique »

« L’intelligence artificielle n’est ni bonne ni mauvaise en soi : tout dépend du pourquoi et du comment elle est utilisée » expliquait, le 19 février 2020, Margrethe Vestager, vice-présidente exécutive « pour une Europe adaptée à l’ère du numérique », en préambule de la présentation, par Ursula von der Leyen, présidente de la Commission européenne, des ambitions de l’exécutif européen en matière de données et d’intelligence artificielle. Pour se différencier des États-Unis et de la Chine, la Commission européenne joue la carte de l’éthique et du respect des droits fondamentaux des citoyens en matière d’intelligence artificielle, dont on sait qu’elle est facilement sujette à des biais, comme l’a récem­ment montré une équipe de chercheurs de Télécom ParisTech (voir La rem n°50-51, p.45).

Les algorithmes d’intelligence artificielle dont les données sont jugées « à haut risque », comme celles qui sont utilisées dans le domaine de la santé, dans les procédures de recrutement ou encore dans les technologies de surveillance devront pouvoir être testées et inspectées, comme le sont déjà « les machines, les avions, les voitures ou les dispositifs médicaux ». Il reste à savoir comment, tempère Laurence Devilliers (voir La rem n°46-47, p.107), chercheuse en intelligence artificielle au CNRS, qui admet que « la Commission reste bien discrète pour l’instant sur les modalités concrètes d’une intel­ligence artificielle « éthique » ». D’ailleurs, la plupart des algorithmes d’intelligence artificielle utilisés dans le domaine de l’apprentissage machine sont littéralement des « boîtes noires », et « il est délicat – pour ne pas dire souvent impossible – de comprendre le fonctionnement interne de certains modèles », comme le notent Winston Maxwell et David Bounie de Telecom Paris – Institut polytechnique de Paris.

Pour éviter une fragmentation du marché unique, d’une part, et atteindre ses ambitions en matière d’intelligence artificielle éthique, d’autre part, l’Europe souhaite renforcer la coopération entre les États membres en proposant quelque 70 actions conjointes « en faveur d’une coopération plus étroite et plus efficace entre les États membres et la Commission dans des domaines clés tels que la recherche, l’investissement, la commercialisation, les compétences et les talents, les données et la coopération internationale ».

En outre, la Commission souhaite augmenter considérablement les moyens financiers alloués au développement de l’intelligence artificielle. À titre de comparaison, alors que l’Europe investissait 3,2 milliards d’euros en 2016, les États-Unis et la Chine ont respectivement dépensé 12,1 et 6,5 milliards d’euros pour développer le domaine de l’intelligence artificielle, sans prendre en compte la dimension éthique de ces outils informatiques. L’objectif de la Commission est d’attirer chaque année au sein de l’Union européenne plus de « 20 milliards d’euros dédiés à l’intelligence artificielle ». Fustigeant presque la fragmentation de la recherche en Europe, la Commission appelle à créer « davantage de synergies et de réseaux entre les multiples centres de recherche européens sur l’intelligence artificielle », à développer un « centre phare », capable d’attirer les meilleurs talents et de rivaliser avec ses homologues américains et chinois, et à se concentrer sur des secteurs de prédilection tels que « l’industrie, la santé, les transports, la finance, les chaînes de valeur agroalimentaires, l’énergie, l’environnement, la sylviculture, l’observation de la terre et l’espace ». Cette feuille de route n’omet pas la question des compétences et de la formation en matière d’intelligence artificielle, ni les nécessaires collaborations transversales entre grands groupes, PME, start-up et États membres.

La tâche risque d’être ardue pour trouver un équilibre entre les intérêts des industriels, tout en encadrant leurs pratiques, et l’utilisation de données en conformité avec les exigences européennes tenant à la protection des droits fondamentaux, notamment la protection des données à caractère personnel, le respect de la vie privée, la non-discrimination, ainsi qu’aux questions liées à la sécurité et à la responsabilité. Cette « marque de fabrique numérique » propre à l’Europe, dont le but est louable, ne semble pourtant pas faire l’unanimité. À l’occasion d’un avis écrit par plusieurs chercheurs européens et américains, Theodorous Evgueniou, professeur à l’Insead (Institut européen d’adminis­tration des affaires), dans des propos rapportés par latribune.fr, met en garde contre une approche trop centrée sur ces valeurs : « Il semble que l’esprit du Livre blanc soit que l’Europe utilise ses valeurs comme une arme stratégique pour rattraper la Chine et les États-Unis […] mais pourquoi penser que des pays non européens préféreront des intelligences artificielles formées aux valeurs européennes ? Je ne suis pas sûr que ça marche. » À moins que cette « marque de fabrique numérique » européenne amène à interdire en Europe ce qui ne respecte pas ces valeurs.

Intelligence artificielle, une approche européenne axée sur l’excellence et la confiance, communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions, Commission européenne, 19 février 2020.

Docteur en sciences de l’information et de la communication, enseignant à l’Université Paris-Panthéon-Assas, responsable des opérations chez Blockchain for Good

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici