Pour un usage responsable et acceptable par la société des technologies de sécurité

La mobilisation croissante, présente et à venir, de ces outils aura vraisemblablement une incidence sur la société et sur la conception que l’on se fait de la liberté

Le 23 avril 2021, le Premier ministre a confié au député LREM Jean-Michel Mis la rédaction d’un rapport dont l’objectif est de « déterminer les apports des nouvelles technologies de sécurité pour l’État tout en proposant des garanties pour encadrer strictement leur usage afin de protéger les libertés publiques et les libertés individuelles ». En ligne de mire, l’organisation de la Coupe du monde de rugby en 2023 et des Jeux Olympiques en 2024, deux évènements mondiaux qui relèvent du casse-tête sécuritaire. Les auteurs préconisent de mener autant d’expériences que possible afin d’acquérir « un niveau de maturité suffisant pour être efficaces et conformes à nos standards éthiques » avant 2023 et pour déterminer si ces technologies « présentent un intérêt réel pour les forces de sécurité ».

Le rapport présente trois types de nouvelles techno­logies à expérimenter, « les outils d’aide à la détection de situations de danger (dans les rassemblements, à l’entrée des sites exposés à des risques ou des menaces), les technologies reposant sur les données biométriques (notamment la reconnaissance faciale) et les équipements de mobilité (en particulier les drones) », destinées à « améliorer l’aide à la décision et l’appui opérationnel des forces de sécurité ». Dans une seconde partie, les auteurs s’interrogent sur la manière de « donner des garanties pour construire une relation de confiance à long terme avec les Français autour des nouvelles technologies dans le domaine de la sécurité ». Néanmoins, les auteurs n’abordent l’opposition aux technologies de sécurité que sous l’angle de leur acceptabilité définie comme un « défi majeur dans le champ de la sécurité mais aussi pour l’ensemble du secteur public ».

De l’aveu même des auteurs du rapport, « il est difficile d’établir la proportionnalité et la nécessité des atteintes au droit à la vie privée lorsque des acteurs publics ou privés utilisent des technologies qui exploitent des données personnelles ». La législation sur la protection des données personnelles étant particulièrement contraignante, le rapport préconise de mener des expérimentations qui n’y seraient pas soumises, « en adoptant une loi ou en prenant un décret d’expérimentation ». Le but de ce régime dérogatoire serait de mettre en œuvre ces nouvelles technologies à titre expérimental afin de constater si « elles présentent un avantage réel aux forces de sécurité ».

Le rapport pose notamment la question de la reconnaissance faciale en temps réel dans l’espace public à des fins d’identification, déjà expéri­mentée dans la ville de Nice durant le carnaval de 2019, mais sur une base volontaire. En effet, pour tester ces technologies conformément au règlement général sur la protection des données personnelles (RGPD, voir La rem n°42-43, p.21), la ville de Nice a d’abord recueilli le consentement de volontaires dont le visage a ensuite été intégré aux personnes recherchées par le système informatique.

Les résistances et les oppositions à la reconnaissance faciale en temps réel dans l’espace public sont cependant nombreuses, même si la Commission européenne, dans une proposition présentée le 21 avril 2021, en a interdit l’usage sauf dans les « cas spécifiques relevant de la sécurité des personnes ou du pays ». Parmi les institutions et personnalités appelées à contribuer à l’écriture du rapport, la Commission nationale consultative des droits de l’Homme (CNCDH) a tenu à rappeler que « les droits de l’homme ne peuvent être seulement assimilés à des « garanties mises en place pour encadrer strictement l’usage » de dispositifs techniques de sécurité […] et qu’il est essentiel de ne pas s’en tenir simplement à une approche segmentée des technologies de sécurité, qui consisterait à envisager leur impact sur les droits fondamentaux de manière isolée. La mobilisation croissante, présente et à venir, de ces outils aura vraisemblablement une incidence sur la société et la conception que l’on se fait de la liberté ».

Le Comité européen de la protection des données (CEPD) et le Contrôleur européen de la protection des données ainsi que la Défenseure des droits ont également été très critiques vis-à-vis de ce type de surveillance massive et demandent « une interdiction générale de l’utilisation de l’IA pour la reconnaissance automatisée des caractéristiques humaines dans des espaces accessibles au public ». Les auteurs du rapport estiment néanmoins que « ces droits ne peuvent se suffire en eux-mêmes, dans l’absolu. L’appréciation de l’intérêt général et de la fonction de l’État implique de les mettre en équilibre avec d’autres objectifs proportionnés, comme la sécurité partagée des individus et de la collectivité ». Si les auteurs reconnaissent que ces expérimentations ne doivent pas constituer une première étape sans possi­bilité réelle de retour en arrière et qu’un débat public doit être organisé, ils préconisent que celles-ci soient menées « avec honnêteté », et ajoutent que, « afin que l’expérimentation ne soit pas un levier d’acceptabilité qui n’aille pas au fond de la vérification de la nécessité et de la proportionnalité d’emploi, elle doit être sincère et complète ».

Pour un usage responsable et acceptable par la société des technologies de sécurité, Contributions, rapport au Premier ministre par J.-M. Mis, député de la 2e circonscription de la Loire, septembre 2021

Docteur en sciences de l’information et de la communication, enseignant à l’Université Paris-Panthéon-Assas, responsable des opérations chez Blockchain for Good

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici