Edge computing

En matière de stockage et de traitement des données, l’edge computing est à la distribution ce que le cloud computing (voir La rem n°9, p.43) est à la centralisation. Si le cloud computing a permis d’organiser le traitement de données centralisé et à distance dans d’immenses data centers, l’edge computing offre une architecture de calcul, de stockage et de traitement répartie à la périphérie du réseau, edge voulant dire « bord », c’est-à-dire sur les serveurs ou data centers de l’entreprise, ou d’un fournisseur de service, géographiquement proche. On parle également de fog computing pour désigner, non seulement les mini data centers utilisés pour le traitement local des données, mais également l’architecture réseau qui fait le lien entre l’edge computing et le cloud computing, qui n’a d’ailleurs pas vocation à disparaître pour autant. Les edge devices, appelés périphériques de bord, désignent quant à eux les équipements matériels qui assurent l’interconnexion entre un réseau local (Local Area Network) et un réseau étendu (Wide Area Network) ou avec l’internet ; ce sont les commutateurs, les routeurs, les multiplexeurs, assurant également la « traduction » de trafic provenant de réseaux différents.

Au-delà de la sémantique informatique – cloudedge et fog computing –, cette évolution met en lumière la nécessité de repenser la topologie du réseau et la géographie des lieux de traitement des données produites par les entreprises et les institutions, dont le volume ne cesse de croître. L’edge computing est avant tout une réponse à cet accroissement exponentiel des données, issu de l’essor de l’informatique nomade, de l’internet des objets industriels, des objets autonomes et, par conséquent, de la prolifération des capteurs devenus « communicants ». Il faut prendre en considération le fait qu’aujourd’hui « les voitures autonomes, qui contiennent plus de 200 processeurs, sont des data centers sur roues et les drones des data centers avec des ailes », comme l’explique Peter Levine, associé du fonds de capital-risque Andreessen Horrowitz. La preuve de l’évolution en cours est l’intérêt porté par les géants de l’informatique à la demande à l’edge computing, Amazon et Microsoft, respectivement n°1 et n°2 du cloud, sans oublier le fabricant de matériels informatiques Dell récemment reconverti dans le domaine du stockage des données.

Avant le lancement des premières offres de cloud computing, au début des années 2000, dont l’usage se généralisera dix ans plus tard, les entreprises géraient des serveurs de données au sein même de leur établissement. Le cloud computing, vendu par des entreprises comme Amazon, Citrix, Google ou SalesForce, leur a permis d’externaliser, via l’internet, leurs programmes, leurs bases de données, leurs périphériques et même leur puissance de calcul, sur d’immenses data centers mieux adaptés à leurs besoins (voir La rem n°9, p.43). Face à l’explosion des données, l’intérêt de tout expédier, pour analyse, sur des serveurs distants est jugé de moins en moins probant, quand certaines données ne feront qu’un aller et retour quasi immédiat. L’edge computing propose de rationaliser le transport et le traitement des données, ce qu’explique de façon laconique Damien Giroud, directeur France Solutions Datacenters de Schneider Electric : « Dans une usine, pour qu’une machine dialogue avec une autre machine, pas besoin de passer par un data center de l’autre côté de l’Atlantique. ». Le cabinet d’études IDC prédit que « d’ici à 2019, au moins 40 % des données créées par l’IoT [Internet of Things, en français l’internet des objets] seront stockées, traitées, analysées et exploitées à la périphérie du réseau ou à proximité de celle-ci ».

Explosion des données

Selon l’étude « Data Age 2025 » commandée au cabinet IDC par Seagate, industriel américain spécialiste du stockage informatique, « le volume total de données à analyser devrait être multiplié par dix en dix ans, passant de 16,1 zettaoctets en 2016 à 163 zettaoctets en 2025 » (1 zettaoctet égale 1 milliard de teraoctets)… Et le développement de l’internet des objets ne fait que commencer. L’étude pointe également la grande variété des données produites par ces « objets connectés ». Qu’il s’agisse de voitures autonomes, de mesures de trafic routier, de robots industriels, de caméras connectées, d’implants médicaux, de compteurs électriques ou de thermostats, certaines « données collectées à l’avenir seront de plus en plus critiques, au sens où elles sont le support d’activités humaines considérées comme vitales », comme les données liées à la santé, à la conduite d’une voiture autonome ou à une constellation de capteurs installée sur un site industriel. L’edge computing offre dans tous les cas une architecture plus appropriée. Le traitement de ces données gagnera en rapidité en s’effectuant au plus proche de leur lieu de captation. En outre, il a vocation à répondre aux problématiques nouvelles, notamment la disponibilité des services externalisés sur le réseau, face à l’ampleur des activités de stockage, d’analyse et de traitement.

La vitesse de traitement de l’information

L’une des promesses de l’internet des objets est de pouvoir adapter en temps réel le comportement d’une machine ou d’un objet et de prendre des mesures correctives en cas de panne ou de danger. Un bon exemple est celui de la voiture autonome, qui « accomplit déjà certaines tâches localement, sans communiquer avec le data center, comme le freinage automatique », explique Sam Georges, directeur chargé de l’internet des objets chez Microsoft. Des applications critiques nécessitent un temps de latence aussi faible que possible. L’anomalie d’un composant dans un moteur d’avion en vol doit être détectée et traitée en microsecondes, à partir d’une solution informatique embarquée à bord. Le premier avantage de l’edge computing est donc celui de la vitesse de traitement de l’information, notamment pour des données critiques.

Disponibilité et sécurité

L’edge computing morcelle également le risque d’une défaillance affectant le cloud computing de l’entreprise. En évitant la centralisation, la sécurité des données s’en trouve renforcée. Avec une répartition en bordure du réseau, une entreprise exploitant plusieurs sites de production augmente ses chances de garantir, à travers une solution d’edge computing, une continuité de service. De plus, elle permet de réduire l’utilisation de la bande passante en désengorgeant le trafic entre les objets ou les sites, à partir desquels sont générées les données et le lieu où elles seront traitées. L’avantage est double : à la baisse du coût de transfert s’ajoute la garantie d’un traitement plus sûr des données, y compris dans des endroits isolés. Selon l’étude Cloud Malware and Data Breaches in North America (2016) menée par Ponemon Institute LLC, aux États-Unis, en 2016, « près de la moitié des entreprises qui ont subi une fuite de données indiquent que ces dernières ont été intentionnellement ou accidentellement exposées par le biais d’un service cloud ». En l’absence d’un point d’attaque unique, l’edge computing peut constituer une solution offrant plus de sécurité qu’une architecture centralisée.

Le stockage des données

Alors que le cloud computing permet de stocker des données au sein de grands data centers couvrant d’importantes zones géographiques, l’edge computing permet de disséminer les capacités de stockage afin de rendre les données plus accessibles, pour le fonctionnement d’autres machines et d’autres objets, ou directement disponibles pour le client final.

En mai 2015 aux États-Unis, Netflix était accusé de consommer jusqu’à 37 % de la bande passante du réseau en périodes d’affluence, lorsque son cloud computing, le data center sur lequel se connectaient les clients pour visionner un film, se situait en Californie. Depuis, le service de vidéo par abonnement a choisi de répartir ses archives en bordure de réseau, à travers soixante data centers, aussi près que possible de ses clients, afin de leur offrir une qualité de service optimale, mais également de réduire considérablement le coût de transmission des données.

Une architecture edge computing influence également le stockage des données en reposant sur la mise de place de passerelles (gateways), en bordure de réseau. Celles-ci opèrent un tri des données, par exemple celles qui sont émises par des capteurs – pour différencier celles qu’il est pertinent de stocker localement, ou bien de détruire –, de celles qui pourront être envoyées de manière asynchrone vers le cloud computing, à des fins de traitement massif (big data).

L’analyse des données

L’edge computing rationalise également la manière dont sont analysées et traitées les données. Si une caméra de vidéosurveillance est connectée à un cloud computing, le flux vidéo est constamment envoyé vers le data center, puis analysé afin de prendre ou non une décision. La solution edge computing enregistrera localement le flux vidéo et, dès qu’un mouvement est détecté, avertira qui de droit, sans que le flux ait à transiter par un cloud. La séquence pourra être ensuite envoyée au cloud, sur lequel sera conservé l’historique des détections. Ledge computing offre donc la possibilité d’accélérer l’analyse des données.

Il reste que le réseau est souvent désigné comme étant le maillon faible des solutions hybrides articulant cloud et edge computing, au regard de la diversité des matériels et des solutions proposées par chaque constructeur. Pour pallier cette difficulté, plus de soixante acteurs du numérique, dont AMD, Dell EMC ou encore VMware, ont rejoint, en avril 2017, le projet EdgeX Foundry, sous l’égide de la fondation Linux. Il a pour objectif de développer une infrastructure de développement – framework dans le langage informatique – ouverte nommée Barcelona. Ce framework va permettre à tous les éléments d’une infrastructure edge computing (passerelles, routeurs, multiplexes, serveurs…) de communiquer via un langage commun. Cette approche rendra possible l’analyse en temps réel des communications entre les objets, les machines et les réseaux, afin de déployer des applications critiques relevant par exemple d’une optimisation des flux de production, d’une maintenance dite prédictive et d’une gestion de flottes ou encore de logistique.

Le passage du cloud au edge computing comme réponse au développement de l’internet des objets industriels est devenu réalisable grâce à la baisse du coût des composants (disques durs, processeurs) et à l’augmentation de la puissance de calcul de dispositifs de plus en plus miniaturisés, mais aussi grâce à la diversité des réseaux sans fils, qu’ils soient entièrement dédiés à l’internet des objets (voir La rem n°34-35, p.19) ou qu’ils offrent une bande passante d’un débit toujours plus élevé.

Pour autant, l’edge computing n’a pas vocation à remplacer le cloud computing, sa finalité résidant dans l’articulation d’une complémentarité entre un traitement local et un traitement à distance des données. Cette complémentarité contribue à une meilleure gestion de la consommation d’énergie des équipements informatiques de plus en plus dépensiers. En optimisant à la fois le traitement et la transmission de données, l’edge computing se rapproche, in fine, de la structure du réseau internet, à savoir un réseau maillé.

Sources :

  • « Tech Primer : Micro data centers, edge computing, and the Fog », Jerry Gilreath, Linkedin.com, September 20, 2016.
  • « Cloud Malware and Data Breaches in North America : 2016 Study », Ponemon Institute LLC, October 2016.
  • « IDC FutureScape : Worldwide Internet of Things 2017 Predictions », Carrie MacGillivray, November 2016.
  • « L’explosion du volume de données fait saliver l’industrie du stockage », Sébastien Dumoulin, LesEchos.fr, 4 avril 2017.
  • « L’explosion des données issues des systèmes cognitifs pour 2025 », Dominique Filippone, lemondeinformatique.fr, 6 avril 2017.
  • « Microsoft mise sur le « edge computing » pour faire face à l’explosion des objets connectés », Anaïs Moutot, LesEchos.fr, 11 mai 2017.
  • « Le « edge computing », solution aux problèmes de réseaux de l’Internet des Objets Industriels ? », Philippe Ducellier, lemagit.fr, 19 juin 2017.
  • « Agrégation de connectivité et edge computing : deux leviers majeurs des passerelles IoT », Guillaume Serries, Zdnet.fr, 8 août 2017.
  • « Le projet open source EdgeX Foundry publie son framework pour passerelles IoT industrielles », Pierrick Arlot, Lembarque.com, 4 octobre 2017.
Docteur en sciences de l’information et de la communication, enseignant à l’Université Paris-Panthéon-Assas, responsable des opérations chez Blockchain for Good

1 COMMENTAIRE

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici