Les professionnels de l’information, ainsi que les citoyens auxquels ils s’adressent, se remettent à peine de leur entrée contrainte et forcée dans l’ère de la post-vérité, marquée par l’avalanche de fake news relayées par les réseaux sociaux, qui a étouffé le débat démocratique à l’occasion du Brexit et de la campagne présidentielle américaine durant l’année 2016. Les agences de presse et les médias, secondés par les géants du Net, se mobilisent et dégainent l’arme du fact checking. Le « phénomène fake news » provoque pour le moins de sérieuses inquiétudes quant à la place accordée aujourd’hui aux technologies numériques. Malgré la rapidité et l’ampleur de leur propagation, celles-ci se sont immiscées subrepticement, voire secrètement, dans les moindres recoins de la vie économique et sociale. Sans aucun doute, parce que leur omniprésence apporte aux utilisateurs des facilités sans précédent. Dans un esprit work in progress, à l’instar des start-up qui les inventent, des changements majeurs sont en cours. Ils se mesurent au déploiement de nouveaux secteurs d’activité nés du numérique comme les adtech (publicité), fintech (finance) avec leurs regtech (régulation), edtech (éducation), medtech (médecine), wearable tech (vêtements, accessoires), agtech (agriculture), civic tech (citoyenneté), social tech (économie sociale et solidaire) ou assurtech (assurance-santé).
NOMBRE « D’INCIDENTS » POUSSENT À S’INTERROGER SUR LA FIABILITÉ DE CES « SYSTÈMES » QUI NOUS ENTOURENT
Rien n’est parfait dans le monde numérique, ni plus ni moins, certes, que dans le monde réel. Écrits par des humains, les algorithmes, ces logiciels qui permettent des calculs complexes, comportent des erreurs, des bugs. Néanmoins nombre « d’incidents » poussent à s’interroger sur la fiabilité de ces « systèmes » qui nous entourent à mesure que les fameuses « tech » ordonnent la vie quotidienne, professionnelle et personnelle. L’actualité livre régulièrement des révélations de truquages – que nous pourrions appeler « fake tech » par analogie aux fake news – issus des technologiques numériques, intentionnels ou non, liés au piratage ou pas.
- En février 2017, le fabricant américain de téléviseurs intelligents Vizio est condamné pour avoir collecté des données sur leurs utilisateurs grâce à un logiciel espion « détecteur de contenus » installé sur 11 millions de récepteurs. Les informations étaient ensuite revendues.
- En janvier 2017, le Syndicat national de l’édition phonographique (SNEP) alerte sur d’éventuelles tricheries concernant des scores d’écoute hors norme pour certains artistes sur les plates-formes de streaming. Des robots fraudeurs seraient à l’œuvre.
- En 2016, l’usage de techniques frauduleuses aurait fait perdre aux annonceurs plus de 7 milliards de dollars à l’échelle mondiale, selon l’Association of National Advertisers : Bots, empilement de publicités sur un même espace (ad stacking) ou dans un espace trop petit (pixel stuffing), fraude à la géolocalisation, détournement de cookies (cookie stuffing) ou usurpation d’URL (domain spoofing). Aux États-Unis comme en France, le secteur de la publicité est encore sous le choc de la révélation, en 2016, de l’ampleur de la fraude au clic (voir La rem n°40, p.86). Les données sur la performance des campagnes sur internet sont faussées, alors que le programmatique – vente aux enchères des espaces en temps réel – se généralise.
- En octobre 2016, le site d’e-commerce Cdiscount fait l’objet d’une sanction et d’une mise en demeure par la CNIL, en raison notamment de manquements graves portant sur la sécurité des données (plus de 4 000 données bancaires conservées de manière non sécurisée).
- En octobre 2016, à la demande de l’association Droits des lycéens critiquant l’opacité du système, et après un avis favorable de la Commission d’accès aux documents administratifs (CADA), le ministère de l’éducation nationale a dû transmettre une partie du code source de l’algorithme du portail Admission post-bac (APB), gérant les affectations des lycéens dans les différentes filières de l’enseignement supérieur.
- En septembre 2016, Facebook adresse un mea culpa aux annonceurs pour avoir surestimé, et donc survendu, le temps de visionnage des publicités et autres vidéos publiées sur sa plate-forme au cours des deux dernières années.
- En septembre 2016, la Commission de Hambourg pour la protection des données personnelles interdit la synchronisation des données des utilisateurs entre Whatsapp et Facebook, qui avaient pris l’engagement contraire lors du rachat de la messagerie instantanée par le réseau social en 2014.
- En septembre 2016, Facebook déclenche une énième polémique pour avoir censuré un post de la Première ministre norvégienne : une photo de presse mondialement connue – qui a le tort selon Facebook de montrer une enfant nue – prise par le photographe Nick Ut, lui valant un prix Pulitzer, et devenue emblématique de la guerre du Vietnam.
- En mars 2016, le premier chatbot Tay de Microsoft, pur produit de l’intelligence artificielle, n’a pas discuté plus de 24 heures sur Twitter, fermé après avoir tenu des propos néonazis et racistes (voir La rem n°38-39, p.67)
- En septembre 2015, le constructeur automobile Volkswagen est reconnu coupable d’avoir développé un logiciel anti-pollution truqué, installé sur plus de 10 millions de voitures, révélant ainsi l’existence du Diesel Gate.
- En 2015 s’est ouvert le premier procès antitrust dans le commerce en ligne : une cour fédérale de San Francisco rendra son verdict en mars 2017 concernant un commerçant, ayant plaidé coupable, qui a manipulé les prix de vente d’affiches de cinéma, avec la complicité de ses concurrents, afin de les maintenir à un niveau élevé, grâce à un algorithme. Client d’Uber, l’Américain Spencer Meyer, quant à lui, a soumis au tribunal fédéral de New York, la question des « prix dynamiques » – à la hausse quand la demande est forte – relevant d’une pratique anticoncurrentielle de la plate-forme.
Sans un algorithme modifiant artificiellement l’offre et la demande, argumente-t-il, les chauffeurs, travailleurs indépendants, pourraient se concurrencer en jouant sur les prix.
DE NATURE DIVERSE, CES QUELQUES EXEMPLES, SOULIGNENT UN PROBLÈME MAJEUR : LE DÉFAUT DE CONFIANCE
De nature diverse, ces quelques exemples, parmi tant d’autres, soulignent un problème majeur : le défaut de confiance. Quelle valeur peut-on en effet accorder aux informations ou aux recommandations fournies ? En outre, ces « incidents » mettent en lumière un dangereux paradoxe : la place prise par les programmes informatiques appelés algorithmes, auxquels sont confiées désormais des tâches allant des plus simples au plus sophistiquées, au regard de l’insuffisance des contrôles nécessaires pour en assurer la fiabilité du point de vue de la sécurité comme de l’éthique. Avec le big data, les réseaux sociaux et l’internet des objets – une trilogie qui va amplifier l’architecture « tech » de la vie contemporaine –, la commande automatisée devient la norme, laissant aux algorithmes la possibilité d’intervenir, à un stade ou à un autre, dans 100 % des activités quotidiennes.
Conçus par l’homme pour effectuer des tâches prédéfinies, les programmes informatiques ont gagné en autonomie grâce aux progrès spectaculaires de l’intelligence artificielle. Ils sont désormais capables d’apprendre par eux-mêmes grâce aux informations qu’ils enregistrent (machine learning, voir La rem n°40, p.91) et d’opérer en toute autonomie, sans aucune intervention humaine, les choix les plus divers. Le domaine d’application le plus révélateur de la puissance des algorithmes reste la Bourse où le courtage à haute fréquence, réglé à la microseconde et appliqué à une part importante des transactions, a démontré tout à la fois son efficacité et les risques provoqués par son opacité.
LE BIG DATA, LES RÉSEAUX SOCIAUX ET L’INTERNET DES OBJETS – UNE TRILOGIE QUI VA AMPLIFIER L’ARCHITECTURE « TECH » DE LA VIE CONTEMPORAINE
Certes, le droit est à l’œuvre : des enquêtes sont ouvertes à Bruxelles et ailleurs. La régulation peu à peu est mise en place, comme le montre, en France, le vote de la loi pour une République numérique qui définit, pour la première fois, les plates-formes en ligne, ainsi que leurs obligations en matière de transparence. Mais il existe toujours un franc décalage. Depuis plus d’une décennie, le numérique est devenu le moteur essentiel des nouveaux usages, les précurseurs du secteur ont eu tout le loisir de consolider leur position dominante, souscrivant, le cas échéant, à des codes de bonne conduite plus ou moins bien suivis.
Tandis que les chercheurs, à l’instar de l’essayiste Evgeny Morozov (voir La rem n°33, p.60) et du sociologue Dominique Cardon, ont souligné la nécessité de développer une culture critique des algorithmes, la réglementation, quant à elle, s’adapte lentement. « Dans le cas de l’intelligence artificielle, notamment, il n’existe aucun fondement juridique permettant d’engager la responsabilité d’un ingénieur informatique au titre de la programmation d’un ordinateur qui deviendrait capable, par apprentissage automatique, de coordonner les prix avec d’autres ordinateurs », déplore l’OCDE. Le temps long, par nature, de la justice est aux antipodes de l’instantanéité numérique. Lorsque le préjudice est avéré, de nouveaux outils ont déjà été lancés pour capter encore davantage l’attention et donc les richesses. Dernier exemple en date de la propagation massive et rapide d’un nouvel outil numérique : seulement six mois après le lancement de ces applications, en avril 2016, sur Messenger – messagerie instantanée de Facebook qui recense plus d’un milliard d’utilisateurs –, 33 000 chatbots ont été installés (voir La rem n°38-39, p.67).
« Nous entrons seulement dans l’ère de l’algorithme, a fait valoir Axelle Lemaire, secrétaire d’État au numérique, mais il faut déjà se demander quelle part de maîtrise, d’évaluation et de contrôle nous pouvons avoir sur ces processus. » À la suite d’une mission confiée par la secrétaire d’État, le Conseil général de l’économie (CGE) a remis, en décembre 2016, un rapport, intitulé « Modalités de régulation des algorithmes de traitement des contenus », formulant cinq recommandations pour développer la capacité à tester et à contrôler les algorithmes :
- créer une plate-forme collaborative scientifique de développement d’outils logiciels et de méthodes de test d’algorithmes ;
- créer un bureau des technologies de contrôle de l’économie numérique au sein de la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) ;
- du côté des entreprises : informer sur le fonctionnement des algorithmes visibles pour l’utilisateur et identifier l’équipe ou la personne responsable (chief algorithm officer) ;
- développer, dans les domaines de l’emploi, de la santé, de la finance et de l’assurance, les réflexions sur les bonnes pratiques pour de nouveaux services utilisant des algorithmes de traitement des contenus ;
- former au respect des obligations de transparence inscrites dans la loi pour une République numérique, les agents opérant un service public utilisant un algorithme.
En revanche, ce rapport précise, d’emblée, qu’il ne propose pas une nouvelle régulation sectorielle qui s’appliquerait aux algorithmes, afin de ne pas entraver l’innovation, facteur de croissance.
La première des recommandations, la création d’une plate-forme collaborative scientifique faisant appel à des équipes de recherche, des enseignants, des étudiants, des experts, venus du secteur public ou privé, est confiée à l’Inria (Institut national de recherche en informatique et en automatique). Baptisé TransAlgo, ce projet vise à élaborer des critères d’évaluation des algorithmes, selon un mode de rétro-ingénierie, afin de pouvoir vérifier d’une part, si ce qu’ils prétendent faire correspond effectivement à ce qu’ils font et, d’autre part, s’ils respectent les règles juridiques et éthiques.
BAPTISÉ TRANSALGO, CE PROJET VISE À ÉLABORER DES CRITÈRES D’ÉVALUATION DES ALGORITHMES
Définir des normes de fiabilité pour un algorithme résulte d’une démarche ardue car « les algorithmes sont aujourd’hui d’une telle complexité qu’ils peuvent ne pas être « loyaux » sans que ce soit intentionnel », explique Antoine Petit, président de l’Inria. Inédite en Europe, cette initiative est qualifiée d’excellente par Gérard Berry, professeur au Collège de France, qui souligne néanmoins la difficulté de la tâche face aux résistances que ne manqueront pas de manifester les concepteurs de ces algorithmes, soucieux de préserver leurs prérogatives liées au secret de leur business model. Un second projet est lancé auprès du Conseil national du numérique (CNNum), invité à réfléchir à un outil grand public capable de recenser les mauvaises expériences rencontrées par des utilisateurs avec des algorithmes.
Même si plus de la moitié d’entre eux (52 %) déclare ne pas savoir précisément de quoi il s’agit, 80 % des Français considèrent que les algorithmes sont déjà très présents dans la vie de tous les jours et 72 % estiment qu’ils sont un enjeu de société, selon un sondage IFOP de janvier 2017, réalisé pour la Commission nationale de l’informatique et des libertés (CNIL). En outre, 51 % des 18-24 ans pensent que les algorithmes sont une opportunité contre 64 % de l’ensemble des Français qui les envisagent plutôt comme une menace en raison de l’accumulation de données personnelles sur les choix, les goûts et les comportements de chacun. En application de la loi pour une République numérique et en association avec les ministères de l’éducation nationale et de la culture, avec une quinzaine d’organisations diverses, la CNIL mènera, tout au long de l’année 2017, un cycle de débats publics sur les enjeux éthiques liés aux algorithmes. « Une interrogation monte dans le grand public, qui, si elle n’est pas traitée, peut même condamner les promesses des algorithmes », avertit Isabelle Falque-Pierrotin, présidente de la CNIL.
Enfin, dernier volet de ce plan d’action gouvernemental, le lancement du plan « France IA » annoncé, en janvier 2017, par les secrétaires d’État au numérique et à l’enseignement supérieur. Financé par le Plan d’investissement d’avenir (PIA), « France IA » vise à développer le domaine de l’intelligence artificielle, en encourageant les chercheurs, les start-up, les grandes entreprises, ainsi que les pouvoirs publics, à travailler ensemble. Une réponse française à l’annonce faite quelques mois plus tôt par les cinq géants de l’internet et de l’informatique : Alphabet, Amazon, Facebook, IBM et Microsoft ont dévoilé, en septembre 2016, leur « Partnership on Artificial Intelligence to Benefit People and Society », association à but non lucratif ayant pour vocation d’œuvrer « à améliorer la compréhension du public sur les technologies d’intelligence artificielle et à formuler les meilleures pratiques sur les défis et les opportunités de cette discipline ».
LES FUTURS DÉFIS DE L’INFORMATIQUE SONT LA DÉSINFORMATION ET LA SÉCURITÉ – GÉRARD BERRY
Le chantier est vaste parce qu’il est double. Comme l’explique Gérard Berry, les futurs défis de l’informatique sont la désinformation et la sécurité. Si cet informaticien de renom fait en l’occurrence référence aux fake news durant la campagne présidentielle américaine, le problème de la désinformation peut être étendu plus largement à l’ensemble des leurres – fausses actions, fausses données – produits par l’utilisation d’applications informatiques, à l’instar des « incidents » précédemment cités. Ce ne sont pas les performances de l’informatique qui sont en cause, bien évidemment, mais l’usage que les hommes font des machines qu’ils inventent. Les créateurs des systèmes informatiques devraient être soumis à un contrôle régulier de leurs pratiques, dépassant largement le cadre des missions dévolues à la CNIL quant au de respect de la législation sur la protection des données personnelles.
Des progrès, et par conséquent des investissements considérables, doivent être réalisés dans le domaine de la sécurité informatique, notamment au regard du développement de l’internet des objets, laissés ouverts au piratage de façon tout à fait irresponsable (voir La rem n° 40, p.27), et cela, afin que « l’expérience utilisateur » ne se transforme en « cauchemar utilisateur ». Mais aussi et surtout, il existe un impératif absolu de réguler le pouvoir laissé aux entreprises privées, bien souvent étrangères, de décider ce qui relève ou non de nos libertés d’agir : consommer, s’informer, communiquer, travailler, se déplacer en toute autonomie. Retranchés derrière les principes juridiques de la propriété intellectuelle, les groupes qui dominent la recherche en intelligence artificielle mènent, pratiquement sans entrave, leur expansion à l’échelle mondiale ; variante du soft power passant par des plates-formes de services en tout genre. « Le code fait loi » (« Code is Law »), écrivait déjà en janvier 2000 l’Américain Lawrence Lessig, professeur de droit. Le Danemark vient d’ailleurs d’illustrer cet aphorisme en annonçant, en janvier 2017, la prochaine nomination d’un « ambassadeur tech » chargé des relations diplomatiques avec les géants du Net (dont la capitalisation boursière dépasse son PIB). « Dans le futur, nos relations bilatérales avec Google seront aussi importantes que celles que nous entretenons avec la Grèce » a expliqué Anders Samuelsen, ministre danois des affaires étrangères.
PROCHAINE NOMINATION D’UN « AMBASSADEUR TECH » CHARGÉ DES RELATIONS DIPLOMATIQUES AVEC LES GÉANTS DU NET
Le numérique est partout, le numérique est donc l’affaire de tous. Toutefois, une réserve importante s’impose : certains en « bénéficient » pleinement parce qu’ils en maîtrisent les rouages, tandis que d’autres ne font que s’y « adapter », parce qu’ils en ignorent les règles de fonctionnement. Il n’est question ni de nier ni de relativiser la multitude des agréments quotidiens, des gains de temps, dont il ne serait plus envisageable de se passer aujourd’hui. Mais la partie n’est assurément pas équitable. Suréquipés, sur-sollicités, nous ignorons tout, ou presque tout, du fonctionnement des terminaux et des services que nous utilisons. Ainsi que l’a rappelé Zeynep Tufekci, professeure à l’université de Caroline du Nord, lors d’une conférence TED (Technology, Entertainment and Design) : « Des décisions prises automatiquement se basent souvent sur des données rassemblées sur les personnes, sans même que celles-ci en soient informées. […] Ces systèmes informatiques peuvent déduire des quantités de choses de vos miettes informatiques, même si vous avez pris soin de ne rien révéler. » Nous sommes loin des débuts du web, avec le lancement du moteur de recherche de Google, outil sans pareil, dont les prouesses nous satisfont chaque jour.
NOUS ENTRONS DANS L’ÈRE DE L’INFORMATIQUE « SANS COUTURE »
Nous avons déjà changé d’époque : nous entrons dans l’ère de l’informatique « sans couture », l’informatique ubiquitaire (pervasive computing) comme disent les spécialistes. Dans ce monde nouveau, les interfaces homme-machine reposent notamment sur la reconnaissance vocale, comme le permettent les assistants numériques intelligents (Siri d’Apple, Cortana de Microsoft, Google Assistant, M de Facebook et Alexa d’Amazon). Ou mieux encore, grâce à l’utilisation de capteurs : des puces électroniques sous-cutanées servent à entrer dans un bâtiment, déverrouiller un ordinateur ou payer ses repas à la cantine, comme chez Newfusion, entreprise belge spécialisée dans le marketing numérique.
Dans un même souci d’efficacité, l’américain Carnival, premier opérateur mondial de croisières, propose à ses passagers de porter un médaillon connecté à un réseau de capteurs répartis sur le navire, afin de mieux les servir en repérant notamment leurs déplacements, leurs horaires, leurs achats et leurs goûts. Pour autant que ces progrès contribuent à faciliter la vie de chacun, ils sont aussi et surtout des instruments de collecte de données personnelles permettant d’optimiser les services offerts, et leur rentabilité, ou d’en proposer d’autres. C’est l’ère de la convergence totale : les objets communiquent entre eux de façon invisible. À portée de clic d’un esprit malveillant ou d’un pouvoir autoritaire, le monde d’Orwell devient réalité. Mais d’ores et déjà, c’est la commercialisation de tous les instants de notre vie, de tous nos actes.
D’ORES ET DÉJÀ, C’EST LA COMMERCIALISATION DE TOUS LES INSTANTS DE NOTRE VIE, DE TOUS NOS ACTES
Saurons-nous tirer la leçon des « incidents », avant que les « fake techs » ne provoquent bien pire ? Le défi pour les opérateurs d’algorithmes, au premier rang desquels figurent les géants du Net, est d’ordre économique ; il s’agit de capter l’attention, en convertissant le plus grand nombre à l’usage de leurs services toujours plus sophistiqués. L’enjeu pour les destinataires, réduits à une simple « expérience utilisateur » ou « relation client », est primordial, puisqu’il consiste à protéger leur liberté et à les prémunir des manipulations diverses effectuées à partir de leurs données privées pour anticiper, voire influencer leurs décisions. L’exigence d’un niveau minimal de transparence pour un usage maîtrisé des applications qui nous entourent doit être garantie, afin de limiter les dérives liées au traitement des montagnes de données collectées à travers des services de télécommunications, des sites de commerce électronique, des services de santé, des banques, des assurances ou des fournisseurs d’énergie. « Trouver des moyens de prévenir les collusions reposant sur des algorithmes d’apprentissage automatique pourrait constituer l’un des défis les plus imposants auxquels aient jamais fait face les responsables de l’application du droit de la concurrence, a souligné récemment l’OCDE. Et d’ajouter à propos du big data : « Il pourrait se révéler très difficile, voire impossible, de prouver l’existence d’une volonté de coordination des prix, tout au moins à l’aide des outils actuels d’application du droit de la concurrence. »
Il est temps de sortir le drapeau rouge, une recommandation issue de la loi de Turing selon laquelle tout système autonome doit pouvoir être identifié par les hommes avec lesquels il interagit. Alors que la quatrième révolution industrielle est en cours, portée par les progrès de l’intelligence artificielle, l’avenir de nos modes de vie, cernés de « choses qui pensent », doit être subordonné à l’équivalent (qui reste à définir) d’un principe de précaution. À l’instar du concept de privacy by design, c’est-à-dire la prise en compte de la protection de la vie privée dès la conception des outils numériques, le principe d’equity by design devrait être posé. C’est une affaire de volonté, affirme Tristan Harris, ingénieur californien, cofondateur du mouvement Time Well Spent, qui milite afin que soient labellisées les applications respectant la volonté des internautes. Dans son « Appel à minimiser les distractions et respecter l’attention des utilisateurs », il a expliqué que « les décisions d’une poignée d’ingénieurs en majorité des hommes blancs de 25 à 35 ans vivant à San Francisco, qui travaillent dans trois entreprises (Google, Apple et Facebook) n’ont jamais eu autant d’impact sur ce qui monopolise l’attention de millions de personnes dans le monde… Cette prérogative devrait impliquer une très grande responsabilité ». Devenu « philosophe produit » chez Google à la suite de son appel, Tristan Harris est nommé responsable du développement du « design éthique ». Face à l’inertie générale sur le sujet, il quittera le groupe en décembre 2015.
LE PRINCIPE D’EQUITY BY DESIGN DEVRAIT ÊTRE POSÉ
L’internet du futur, ce grand dessein prioritaire, ne doit pas être abandonné aux seules mains d’entreprises privées, génies de l’intelligence artificielle, mais pas forcément respectueuses de l’équité. Pour une seule raison : il est illusoire de croire que les internautes sont libres, ce qui signifie maîtres d’agir à leur guise, face aux sollicitations des services numériques ; soit parce qu’aucune alternative ne leur est désormais proposée ; soit parce qu’ils n’ont pas les informations nécessaires à une réelle prise de conscience des conséquences. L’ambition d’une transformation numérique intelligente et équitable relève de l’engagement des responsables politiques, qui restent encore trop discrets sur ce sujet à l’aube de l’élection présidentielle. Il s’agit pourtant bien d’un projet de société, aucun secteur n’échappant au raccordement numérique. Ceux qui aspirent à la plus haute fonction de l’État auraient-ils besoin d’un logiciel prédictif pour s’en convaincre ?
Sources :
- À quoi rêvent les algorithmes, Dominique Cardon, Seuil, 2015.
- « Volkswagen : les défis des pouvoirs publics à l’ère des algorithmes », Martin Untersinger, Pixels, LeMonde.fr, 24 septembre 2015.
- « Après avoir censuré une photo de la guerre du Vietnam, Facebook fait machine arrière », Morgane Tual et Martin Untersinger, Pixels, LeMonde.fr, 9 septembre 2016.
- « Facebook survend son audience vidéo », Jé. M., correspondant San Francisco, Le Monde, 25-26 septembre 2016.
- « Intelligence artificielle : les géants du Net s’engagent pour l’éthique », Benoît Georges, Les Echos, 29 septembre 2016.
- « La Cnil épingle Cdiscount pour des données bancaires non sécurisées », Anaelle Grondin, LesEchos.fr, 19 octobre 2016.
- « La fraude publicitaire, le cauchemar des annonceurs », Sylvain Rolland, LaTribune.fr, 2 décembre 2016.
- « La Silicon Valley pirate nos esprits », Bianca Bosker, The Atlantic, 1er novembre 2016, in Courrier international, n°1361, du 1er au 7 décembre 2016.
- Modalités de régulation des algorithmes de traitement des contenus, rapport à Madame la Secrétaire d’État chargée du numérique, établi par Ilarion Pavel, ingénieur en chef des Mines et Jacques Serris, ingénieur général des Mines, Conseil général de l’économie, Ministère de l’économie, de l’industrie et du numérique, mai 2016, economie.gouv.fr, publié le 15 décembre 2016.
- « Axelle Lemaire met les mains dans les algorithmes », Vincent Fagot, Le Monde, 16 décembre 2016.
- « TransAlgo : une plate-forme scientifique pour juger de la transparence des algorithmes », Sarah Sermondadaz, SciencesetAvenir.fr, 22 décembre 2016.
- « Carnival veut mettre un médaillon connecté sur chaque passager », AFP, tv5monde.com, 4 janvier 2017.
- « Les futurs défis de l’informatique », Gérard Berry, Les Echos, 9 janvier 2017.
- « Axelle Lemaire dévoile son plan pour l’intelligence artificielle », Benoît Georges, Les Echos, 20-21 janvier 2017.
- Ethique et numérique : les algorithmes en débat, CNIL, cnil.fr, 23 janvier 2017.
- « Les algorithmes, « proie de tous les fantasmes » », Sandrine Cassini, Le Monde, 24 janvier 2017.
- « Les algorithmes tuent la concurrence », David J. Lynch, Financial Times, 8 janvier 2017, in Courrier international, n°1368, du 19 au 25 janvier 2017.
- « Le Danemark veut nommer un ou une « ambassadeur tech » », Antoine Jacob, Les Echos, 30 janvier 2017.
- « Streaming : l’industrie de la musique s’interroge sur de possibles tricheries », Nicolas Madelaine, Les Echos, 2 février 2017.
- « Ils ont remplacé leur badge d’entreprise par une puce implantée dans la main », Cécile Bolesse, BFMTV, bfmtv.com, 8 février 2017.
- « Les téléviseurs Vizio condamnés pour avoir espionné leurs utilisateurs », Justine Babin, LesEchos.fr, 9 février 2017.
- « Algorithmes : les robots ont-ils pris le pouvoir à Wall Street », AFP, tv5monde.com, 10 février 2017.
- « Les algorithmes règnent déjà sur le monde, à notre insu », AFP, tv5monde.com, 10 février 2017.