Intelligence artificielle et action publique : construire la confiance, servir la performance

Il n’y aura pas de systèmes d’« intelligence artificielle de confiance » sans partage des données publiques des administrations

L’« intelligence artificielle » est un mot polysémique qui désigne, pour les auteurs de l’étude, « un ensemble d’outils numériques au service de l’humain, qu’on peut regrouper sous le vocable de « systèmes d’IA » (SIA) ». Ces SIA se répartissent entre, d’un côté, les systèmes limités à l’apprentissage automatique (machine learning – voir La rem n°30-31, p.75) désignés comme « IA connexionniste », et qui, en substance, consistent « à nourrir la machine d’exemples (par exemple, des millions d’images de chat) afin qu’elle en déduise les règles pertinentes (les traits caractéristiques d’un chat) pour résoudre un problème (identifier un chat sur une nouvelle image) » et, d’un autre côté, les SIA voués à l’« IA symbolique » – dans une acception commune aux auteurs et au futur projet de règlement européen, dévoilé en avril 2021 – qui, « paramétrés explicitement par l’homme, disposent d’une certaine latitude pour déterminer la solution satisfaisante ou optimale d’un problème complexe (exemple des systèmes-experts) ». Le Conseil d’État propose une analyse des usages et des enjeux des SIA au sein des administrations publiques et dresse un ensemble de recommandations correspondant à la diversité des problématiques.

Une première partie s’attache à circonscrire les champs d’applications des SIA afin de « permettre aux citoyens d’acquérir une culture des concepts et enjeux de l’intelligence artificielle » et, sur un registre normatif, d’« œuvrer à des concepts juridiques communs aux niveaux européen et mondial ». La deuxième partie du rapport vise à accélérer le dé­ploiement des SIA publics, et commence par dessiner le panorama des initiatives existantes afin d’en étudier le potentiel au regard de l’« IA de confiance ». Un concept, déjà adopté par les institutions européennes, qui insiste sur les questions de primauté humaine et de finalité d’intérêt général de tels systèmes, à propos desquels il est nécessaire de s’assurer que « l’ingérence dans les droits et libertés fondamentaux qui résulte de leur mise en service ne soit pas disproportionnée au regard des bénéfices qui en sont attendus ». Une dernière partie pose la question de l’implication des administrations au développement des SIA, quant au choix de les développer en interne, d’en confier le développement à un prestataire extérieur ou encore de les acheter clefs en main, un arbitrage qui dépend largement des compétences maison et d’éventuels recrutements, souvent limités, sur des sujets technologiques.

C’est également dans cette dernière partie du rapport que les auteurs s’intéressent tout particulièrement à la question des données, « la matière première des SIA et le nerf de la guerre que se livrent les opérateurs du numérique ». Car, en effet, un SIA basé sur l’apprentissage machine, aussi développé soit-il, ne sera d’aucune utilité sans données dont la qualité dépend du nombre d’entrées. Or, du fait de l’organisation fragmentée de l’État et de ses administrations, « l’existence d’une commu­nauté publique de la donnée, incluant les collecti­vités territoriales, les établissements publics et les autres personnes chargées d’une mission de service public, reste une vue de l’esprit ». Malgré les importants travaux réalisés depuis dix ans par Etalab, en charge de la poli­tique publique de la donnée structurée (no­tam­ment à travers les plateformes data.gouv.fr et api.gouv.fr depuis 2016), « les administrations françaises peinent à basculer entièrement, résolument et irréversi­blement dans l’ère de la donnée ».

Les freins sont tout à la fois culturels, techniques et juridiques. Selon les auteurs, nombreuses sont les administrations « à omettre, par inertie, ou à rechigner, par culture du secret, par précaution face à l’irréversibilité d’une communication excessive de données ou par crainte de soumettre leur activité à la critique, à les diffuser [les données publiques] large­ment au sein de la sphère publique, à supposer du reste qu’on les leur demande ». De plus, des efforts particuliers doivent porter à la fois sur l’interopérabilité des systèmes, le format des données et la préférence aux logiciels libres. Les auteurs appellent également de leurs vœux la poursuite de l’assouplissement du cadre juridique du partage intra-public de la donnée, dont la valeur est aujourd’hui captée par des opérateurs privés dès lors qu’elle est accessible à tous, et à laquelle les administrations n’ont en réalité pas plus de droits d’accès que le grand public.

Le rapport du Conseil d’État, extrêmement détaillé, vise ainsi « à conjurer le double risque que le secteur public soit le spectateur passif et le régulateur distant du développement des systèmes d’intelligence artificielle par d’autres, ou un apprenti sorcier numérique oublieux des exigences fondamentales de l’éthique de l’action publique et, en particulier, du primat de l’humain sur la technique ». Le chantier est assurément immense.

Intelligence artificielle et action publique : construire la confiance, servir la performanceConseil d’État, étude à la demande du Premier ministre, adoptée en assemblée générale plénière du 31 mars 2022.

Docteur en sciences de l’information et de la communication, enseignant à l’Université Paris-Panthéon-Assas, responsable des opérations chez Blockchain for Good

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici