Quand l’ordinateur quantique n’existe pas, quand les calculateurs quantiques font régulièrement l’objet d’effets d’annonce de la part de ceux qui les financent, la cryptographie post-quantique, elle, existe bel et bien, et désigne les algorithmes cryptographiques qui seront capables de résister à la puissance de calcul de ces futurs ordinateurs.
Si nos ordinateurs contemporains fonctionnent avec des bits, 0 et 1, les ordinateurs quantiques (voir La rem n°53, p.74), remplacent les bits par des qbits dont l’une des propriétés, issues des principes de la physique quantique, est de pouvoir représenter 0 et 1 en même temps, en « superposition ». La puissance de calcul qui découle de ces nouvelles lois de la physique bouleverse en profondeur les fondements de la cryptographie dite « classique », qui repose sur la difficulté des ordinateurs actuels à réaliser certains calculs. Utilisée jusqu’à présent, la cryptographie asymétrique, ou à clef publique, est basée sur des problèmes mathématiques de factorisation d’entiers ou du logarithme discret, afin d’établir un canal chiffré entre deux parties pour s’authentifier, ou encore signer électroniquement. Prenons l’exemple de la factorisation d’entiers. En octobre 1977, les lecteurs du magazine Pour la Science furent mis au défi de répondre à cette question : « le nombre 114 381 625 757 888 867 669 235 779 976 146 612 010 218 296 721 242 362 562 561 842 935 706 935 245 733 897 830 597 123 563 958 705 058 989 075 147 599 290 026 879 543 541 est le produit de deux nombres premiers ; lesquels ? » Avec un ordinateur classique, il est très difficile de factoriser les grands nombres entiers et c’est le fondement même de la cryptographie asymétrique que de reposer sur cette difficulté. Le chiffrement RSA, décrit en 1977 par Ronald Rivest, Adi Shamir et Leonard Adleman, est un algorithme de cryptographie asymétrique qui sert aujourd’hui à sécuriser les transactions bancaires, les transactions de commerce électronique ou encore l’échange de données confidentielles via internet. Cet algorithme utilise une paire de clés (des nombres entiers) composée d’une clé publique pour chiffrer, et d’une clé privée pour déchiffrer des données confidentielles. Or, si ce calcul résiste à la puissance des ordinateurs classiques, ce ne sera plus le cas avec un ordinateur quantique.
Comme l’explique le journaliste scientifique Julien Bourdet, « un ordinateur quantique peut en théorie avoir accès à la totalité des résultats possibles d’un calcul en une seule étape, là où un ordinateur classique doit traiter l’information de façon séquentielle, un résultat après l’autre ». Si bien que le jour où un État ou une entreprise parviendra à mettre au point un ordinateur quantique, il lui sera facile de casser les systèmes de cryptographie actuels.
C’est ainsi qu’est née la cryptographie post-quantique. Elle a non seulement pour objectif de se prémunir d’attaques provenant d’un futur ordinateur quantique, mais également de pouvoir interagir avec les protocoles de réseaux de communication actuels.
En 2016, le National Institute of Standards and Technology (NIST), une agence fédérale non réglementaire rattachée au département américain du commerce, a organisé une compétition mondiale et publique pour définir les futurs standards des algorithmes de cryptographie post-quantique. Le 5 juillet 2022, le NIST a présenté les quatre algorithmes sélectionnés, dont la standardisation sera finalisée en 2024. Il s’agit « d’un algorithme d’établissement de clé nommé CRYSTALS-Kyber ; et de trois algorithmes de signature nommés CRYSTALS-Dilithium, FALCON et SPHINCS+. Les trois premiers de ces algorithmes sont fondés sur les réseaux euclidiens structurés ; le dernier, SPHINCS+, est fondé sur des constructions en arbres de hachage » précise l’Agence nationale de la sécurité des systèmes d’information (Anssi). Ce qu’il faut comprendre est que ces algorithmes désignent des problèmes mathématiques parmi les plus difficiles à résoudre, y compris pour un ordinateur quantique.
Si ces algorithmes deviennent les normes fédérales américaines, celles-ci seront probablement également utilisées comme standards industriels internationaux. Dans une tribune publiée par Le Monde, Ludovic Perret, maître de conférences à Sorbonne Université et cofondateur de l’entreprise Cryptonext, explique que « cette course à la norme doit aussi se comprendre comme un outil de conquête économique : qui contrôle la norme contrôle le marché. Or, la normalisation post-quantique reste un point faible dans les ambitions industrielles et de souveraineté technologique européennes ».
Ironie du sort : parmi ces quatre algorithmes, trois ont reçu des contributions de laboratoires de recherche français, rattachés à l’Institut des sciences de l’information et de leurs interactions (INS2I) qui, depuis 2009, coordonne notamment les recherches menées au CNRS sur le sujet. L’INS2I explique ainsi que « pour le chiffrement à clé publique et les algorithmes d’établissement de clé, le seul algorithme retenu est CRYSTALS-Kyber qui implique un consortium dont fait partie Damien Stehlé, professeur à l’ENS de Lyon et membre du Laboratoire de l’informatique du parallélisme (LIP – CNRS/ENS de Lyon/Université Claude Bernard Lyon 1). Le même enseignant-chercheur est impliqué dans CRYSTALS-Dilithium, algorithme qui doit servir cette fois-ci à la génération de signatures électroniques. Dans cette même catégorie, deux autres algorithmes ont été retenus, dont FALCON auquel a participé Pierre-Alain Fouque, professeur à l’Université de Rennes 1 et membre de l’Institut de recherche en informatique et systèmes aléatoires (IRISA – CNRS/Université de Rennes 1). Une reconnaissance de plus pour cet enseignant-chercheur à la tête du projet PQ-TLS sur la cryptographie post-quantique dans le PEPR Quantique qui vient d’être lancé ».
Alors que des problématiques de souveraineté taraudent les Européens dans de nombreux domaines, il s’avère que les États-Unis vont probablement imposer leurs propres normes tout en s’appuyant sur les travaux issus de chercheurs français. L’European Telecommunications Standards Institute (ETSI), situé à Sophia-Antipolis, a été créé en 1988 par la Conférence européenne des Postes et Télécommunications, à la demande de la Commission européenne. C’est aujourd’hui l’un des trois organismes européens officiellement responsables de la normalisation des technologies de l’information et de la communication. Comble de l’ironie, et toujours selon Ludovic Perret, « le responsable du groupe post-quantique de l’ETSI est américain, et salarié d’Amazon, et les coresponsables travaillent pour une start-up canadienne dans le post-quantique et une agence gouvernementale (NCSC) britannique ». Difficile d’imaginer plus mauvaise configuration pour que l’Europe prenne la main sur les futurs standards de la cryptographie post-quantique.
Sources :
- « National Institute of Standards and Technology », nist.gov
- « La factorisation d’entiers », François Morain, pourlascience.fr, 1er juillet 2002.
- « Ordinateur : les promesses de l’aube quantique », Julien Bourdet, CNRS Le journal, lejournal.cnrs.fr, 15 avril 2019, MAJ le 27 janvier 2021.
- « L’Europe doit se préparer à la révolution postquantique », Ludovic Perret, lemonde.fr, 13 avril 2022.
- « Avis scientifique et technique de l’ANSSI sur la migration vers la cryptographie post-quantique », ANSSI, ssi.gouv.fr, 14 avril 2022.
- « Plusieurs laboratoires français impliqués dans les algorithmes sélectionnés par le concours NIST sur la cryptographie post-quantique », INS2I, ins2i.cnrs.fr, 6 juillet 2022.
- « L’algorithme de Thales et IBM retenu par Washington pour résister à la menace quantique », Alice Vitard, usine-digitale.fr, 13 juillet 2022.