À l’heure où les fausses images générées par des intelligences artificielles deviennent de plus en plus difficiles à déceler, les médias d’information tentent de trouver des parades pour les distinguer des photographies prises par des journalistes sur le terrain. Thomson Reuters et Canon, accompagnés de Starling Lab, un laboratoire de recherche universitaire américain, testent une nouvelle manière de certifier des photos dès leur prise de vue, en s’appuyant sur l’inviolabilité des informations enregistrées dans une blockchain publique.
Donald Trump arrêté et encadré par deux policiers ou plaqué au sol ; Emmanuel Macron ramassant des poubelles ou entouré de CRS au cœur d’une manifestation parisienne ; le pape François vêtu d’une doudoune blanche tel un rappeur de la côte Est : toutes ces photos, devenues virales dès leur publication sur les réseaux sociaux, semblent, à première vue, être bien réelles. Elles sont pourtant des images de synthèse créées par des programmes d’intelligence artificielle. À l’instar de DALL-E lancé en janvier 2021, suivi de Midjourney en juillet 2022, les générateurs d’images permettent à quiconque de créer des photos ou des illustrations à partir de simples requêtes textuelles, appelées « prompts » en anglais pour « consignes » ou « instructions », comme « un couple assis sous le Pont-Neuf dans un style Art nouveau ». Ces programmes capables de reproduire des textes, des images, et bientôt des vidéos ressemblant à ce que savent faire les humains, étendent et rendent indéchiffrable le champ des fausses informations et compliquent grandement le travail des photographes de presse.
Laboratoire de recherche cofondé par l’université Stanford et l’USC Shoah Foundation, le Starling Lab a choisi de s’intéresser à la façon dont le web décentralisé et les blockchains publiques (voir La rem n°44, p.97) pourraient contribuer à établir la confiance dans les documents numériques relatifs au journalisme, au droit et à l’histoire. Créée en 1994 par Steven Spielberg et installée depuis 2006 à l’université de Californie du Sud (University of Southern California – USC), l’USC Shoah Foundation dispose de 55 000 vidéos, représentant 112 000 heures de témoignages de survivants de génocide, la plupart d’entre eux concernant l’Holocauste – accessibles aux étudiants, enseignants, chercheurs et à ceux partout dans le monde qui souhaitent accéder à cette mémoire collective. Dans une conversation sur Decential, média américain spécialisé dans la nouvelle économie décentralisée, Adam Rose, directeur de l’exploitation de Starling Lab, explique s’être intéressé à la manière d’« utiliser la cryptographie et le stockage décentralisé pour préserver les preuves des crimes de guerre […] et nous avons présenté à la Cour pénale internationale des preuves provenant de l’Ukraine concernant d’éventuels crimes de guerre commis par la Russie ».
Accompagnés par le Starling Lab, le groupe canadien Thomson Reuters, notamment propriétaire de l’agence de presse Reuters, et le groupe japonais Canon Inc. ont ainsi annoncé le lancement d’un programme pilote visant à certifier l’authenticité des images et photos numériques prises par des journalistes et à permettre ainsi à tout un chacun de les vérifier. Mais, plutôt que de tenir un registre centralisé de photos, à partir duquel il serait possible d’examiner a posteriori leur authenticité, faisant ainsi confiance à ceux qui l’auront élaboré, l’idée du Starling Lab a été de mettre au point un prototype d’appareil photo dont les images sont enregistrées et consignées dans un registre décentralisé et infalsifiable dès leur prise de vue. Ce prototype d’appareil photo attribue à chaque image un identifiant unique assorti de données telles que la date, l’heure et le lieu. Ces informations sont ensuite signées en utilisant des mécanismes cryptographiques, avant d’être enregistrées dans une blockchain publique, dont l’intérêt est de rendre visible la moindre altération. Les modifications apportées ultérieurement par le service photo de Reuters seront également associées à cette empreinte infalsifiable, de sorte que les clients de l’agence de presse pourraient facilement vérifier que l’image est bien authentique.
Ce programme pilote mené par Canon et Reuters s’inscrit dans une série d’initiatives similaires lancées par la Content Authenticity Initiative (CAI), fondée en novembre 2019 par Adobe, The New York Times, Twitter, ainsi que les constructeurs d’appareil photo Leica et Nikon ou encore par le Project Providence, à l’initiative de Microsoft et Truepic en 2022, qui est une plateforme d’authentification des photos reliée aux services cloud du géant de Redmond et créée pour « soutenir le siège de la lutte contre la corruption en Ukraine », selon leur site web. Tous reposent sur cette idée qu’une image ne peut être réellement authentifiée qu’à partir du moment où une personne appuie sur le déclencheur d’un appareil photo, et que les informations et métadonnées associées sont consignées dans un registre décentralisé et infalsifiable.
Au scepticisme de saint Thomas, « je ne crois que ce que je vois » en succède un autre, mis à jour à l’ère du tout-numérique, « je ne crois ce que j’ai vu qu’après l’avoir vérifié ». La diversité des plateformes et les différentes stratégies des constructeurs d’appareils photo posent la question de la manière dont des standards communs pourraient éventuellement émerger un jour.
Sources :
- Starling Lab, starlinglab.org
- USC Shoah Foundation, en.wikipedia.org/wiki/USC_Shoah_Foundation
- Schneider Jaron, « Leica and Nikon Adding Content Authenticity Tech into Their Cameras », petapixel.com, October 18, 2022.
- Vasseur Victor, « Les fausses images de Macron en éboueur et de Trump en prison montrent l’incroyable potentiel de l’IA », radiofrance.fr, 22 mars 2023.
- Schneider Jaron, « Truepic and Microsoft are Piloting a New Cloud-Based Photo Authentication Platform », petapixel.com, March 27, 2023.
- Marcela Kunova, « Reuters tests new blockchain tool to authenticate images », journalism.co.uk, September 4, 2023.
- Stephen Laddin, « Starling Lab’s Mission to Authenticate Our Digital World », decential.io, September 15, 2023.