L`edge computing améliore les performances de l
Transcription
L`edge computing améliore les performances de l
A N A L Y S E Architecture réseau DU CLOUD COMPUTING À L’EDGE COMPUTING Le passage d’une architecture « one-to-many », centrée sur le cloud, vers l’edge computing peut alléger le trafic sur l’infrastructure réseau, réduire le temps de latence et améliorer la gestion énergétique. 1 L’edge computing améliore les performances de l’Internet des objets L’Internet des objets (IoT) va transformer la façon dont nous interagissons avec les objets connectés et la façon dont ces objets interagissent entre eux. Mais pour manipuler et stocker l’énorme quantité de données générées par l’IoT, il faut faire évoluer l'architecture informatique du réseau. Comment ? En passant d’une architecture centrée sur le cloud à une architecture de calcul répartie et renforcée au niveau des équipements en bordure de réseau, situés au plus près des capteurs. C’est ce que l’on appelle l’edge computing. P our répondre aux besoins de traitement et d’analyse en temps réel des données de l’IoT, deux modifications fondamentales doivent impérativement être apportées à l’Internet et à ses ressources de calcul. D’abord, l’architecture globale du réseau doit être ré-envisagée ; il faut en effet passer d’une architecture centrée sur le cloud (de type one-to-many) à une topologie où des ressources importantes de calcul sont distribuées en bordure de réseau. Bien évidemment, il y aura toujours du cloud 18 / L’EMBARQUÉ / N°12 / 2016 computing, mais le traitement réalisé en périphérie, dans les nœuds terminaux eux-mêmes ou au sein de passerelles intelligentes locales, pourrait à l’avenir contribuer à une meilleure gestion des besoins générés par l’IoT. Par ailleurs, bien que très puissants, les processeurs multicœurs actuels ne seront plus assez performants pour répondre aux exigences de calcul de demain. En revanche, des solutions de traitement hétérogène, en particulier celles qui combinent un CPU à un GPU (unité de traitement graphique) et à d’autres accé- lérateurs spécialisés, vont devenir de plus en plus populaires. Cet assemblage constitue en effet un moyen puissant de répondre aux exigences de performances de tous les types de dispositifs et d’équipements, des capteurs jusqu’aux serveurs de données. Ré-envisager l'architecture du réseau lui-même Intéressons-nous d’abord à la manière dont l’IoT est actuellement architecturé. Pour le moment le dogme qui prévaut veut que tout doit A N A L Y S E Architecture réseau L’AVÈNEMENT DU TRAITEMENT HÉTÉROGÈNE Au niveau du nœud IoT luimême, un changement dans le type de ressources affectées au traitement de données s’avère également nécessaire. Aujourd’hui, le fossé entre les CPU et les GPU s’est largement comblé grâce au concept d’Heterogeneous Computing (ou de traitement hétérogène) qui consiste à rassembler plusieurs types de processeurs au sein d’une seule unité de traitement accéléré, l’APU (Accelerated Processing Unit). Ce qui va dans le sens de l’IoT, puisque le traitement hétérogène, basé en particulier sur l’utilisation du GPU comme coprocesseur pour exécuter des tâches parallèles complexes, est une caractéristique intrinsèque de nombre d’applications de l’Internet des objets. n Un exemple particulièrement significatif est donné par la vidéosurveillance où le flux vidéo est d’abord traité par un GPU afin de procéder à des détections (éventuelles) de visage. Cette tâche de reconnaissance faciale n’est pas triviale, mais une fois qu’un visage est détecté, l’ensemble des données concernées peut ensuite être envoyé à un CPU traditionnel pour être confronté aux données stockées dans une table de recherche. Une meilleure maîtrise de la techn LA PROGRESSION DE L’INTÉGRATION AU SEIN DU MODÈLE APU En 2011, AMD a mis sur le marché une APU associant à un CPU un GPU d’usage général utilisé jusqu’alors pour assurer des calculs parallèles. Cette première étape fut suivie d’une phase d’intégration physique qui a consisté à déplacer des entités externes connectées à la puce via le bus PCI pour les embarquer directement sur le SoC. nologie GPU conduit ici à une plus grande efficacité de traitement. n Reste le problème du partage de l’espace mémoire et de la gestion des deux sous-systèmes mémoire. Les dernières APU résolvent cet aspect architectural en intégrant une mémoire cohérente pour l’adressage des deux types de processeur. Ainsi, au lieu de changer d’espace mémoire, on ne déplace que des pointeurs. Avec le support fourni par la spécification HSA Foundation 1.0, des langages classiques comme le C++ peuvent alors être utilisés pour programmer les applications indifféremment sur le CPU et le GPU. On assiste en somme à l’avènement du « write once, run many » (programmer une fois et exécuter sur plusieurs architectures) sur de multiples plates-formes, des téléphones intelligents jusqu’aux centres de données en passant par les passerelles périphériques et les systèmes embarqués. ouverte ou fermée s’apparente à un véhicule autonome qui a des exiêtre fait et géré dans le cloud et que signal binaire. On peut donc se per- gences fortes en termes de latence et la communication client-cloud est le mettre de coder cette activité avec de fiabilité des données. Il est promodèle unique et indépassable pour une fréquence de 1 Hz, voire moins. bable dans ce cas que l’objet « voil’IoT. Or il faut se rappeler qu’il y Comparons ce cas avec celui d’un ture » va envoyer ses données de aura quelque 26 milliards de nœuds terminaux au sein de l’IoT en 2020. Ce qui implique que TOPOLOGIE ÉVOLUÉE POUR L’IoT 2 toutes les données, qu’elles Une topologie IoT évoluée ne connecte pas chaque nœud au cloud. Les connexions viennent d’un thermostat, sont plutôt établies ou annulées selon les besoins en ressources et en communication. d’un capteur, d’une mesure de trafic routier, d’une usine automatisée ou d’une caméra de surveillance, devront remonter dans le nuage. Ce n’est pas raisonnable. Car tous ces dispositifs ont des caractéristiques radicalement différentes. Par exemple, certains exigent un faible temps de latence, d’autres ont besoin d’une bande passante élevée, et d’autres encore ne communiquent que très rarement. Soyons plus précis. Dans le cas d’une application de domotique intelligente, le fait qu’une porte de garage soit L’EMBARQUÉ / N°12 / 2016 / 19 A N A L Y S E Architecture réseau TOPOLOGIE AVEC DES PASSERELLES IoT Une passerelle IoT offre des ressources locales de traitement à l’endroit où elles sont nécessaires. Elle est à la fois plus rapide et facilement échelonnable pour plus de connexions et plus de services selon les besoins. Les décisions peuvent par exemple être prises localement au niveau d’une caméra de vidéosurveillance plutôt qu’au niveau du cloud, ce qui nécessite, dans ce dernier cas, la transmission en streaming du contenu vidéo pour son analyse. 3 reconnaissance faciale ou un point de vente automatique intelligent à contrôle gestuel. Ce traitement en local peut inclure le transcodage vidéo, le traitement et l’amélioration de l’image ou le rendu graphique. En fait, plus le traitement impliqué est lourd – tout particulièrement si le temps de réponse est crucial –, plus le traitement par des CPU, des GPU ou des DSP est nécessaire au plus près de la source. Quelle évolution pour un réseau dédié IoT ? télémétrie en quelques millisecondes voire plus rapidement. L’ajout des données émises par une multitude de véhicules à l’ensemble du trafic global sur Internet, que celui-ci vienne de Skype, Netflix, YouTube ou d’autres sources, et l’envoi simultané de toutes ces données vers le cloud posent alors un immense problème, surtout si ces véhicules autonomes sont en attente de réponses rapides. Conclusion : la topologie du réseau et la distribution des ressources de calcul devront être pensées différemment avec la montée en puissance de l’IoT. Ce mouvement est déjà en marche. Que ce soit dans une usine, à la maison ou au sein-même de l’infrastructure, on commence à voir apparaître de nouvelles technologies situées plus près de la périphérie du réseau et capables de prendre des décisions en local sans nécessiter une transmission de données vers le cloud (figure 1). On aboutit donc à une solution IoT en bordure de réseau différente de celle implémentée dans le cœur de réseau et différente aussi de celle présente dans le centre de données principal. Avec, en corollaire, trois piles logicielles distinctes gérées par des équipes de développement associées, elles aussi différentes. En réa- 20 / L’EMBARQUÉ / N°12 / 2016 lité, ce dont on a besoin avec l’Internet des objets, c’est de garantir l’évolutivité et l’interopérabilité du déploiement des applications d’une manière très souple. Par ailleurs, ce que l’on voit actuellement sur un réseau, ce sont des flux dynamiques où il question de paquets et de commutateurs aptes à les aiguiller au sein de l’infrastructure. Mais avec l’IoT, tout est une question de données. Prenons l’exemple frappant de la vidéo. Aujourd’hui, les deux tiers du trafic sur Internet sont liés à la transmission d’images. Et dans les trois prochaines années, ces flux représenteront près de 80% du trafic. Parallèlement, les flux vidéo sur Internet qui alimentent les téléviseurs ont doublé de volume entre 2012 et 2013 et c’est une multiplication par quatre qui est attendue d’ici à 2018. Le trafic lié à la vidéo à la demande pour le grand public devrait également doubler d’ici à 2018. (Source : Cisco, http:// www.cisco.com/c/en/us/solutions/ collateral/service-provider/visual-net working-index-vni/white_paper_c11520862.html). Face à de telles évolutions, il devient essentiel d’effectuer le traitement vidéo en local, à proximité du terminal distant, surtout pour un nœud IoT comme une caméra de sécurité à Déplacer l’intelligence à la périphérie est donc la clé de l’évolution du réseau, le rendant plus efficace pour les applications, les nœuds et les capteurs de l’IoT. Mais c’est une tendance encore jeune. La nouvelle topologie du réseau IoT devra se fonder, d’une part, sur des ressources locales et, d’autre part, sur des connexions selon les besoins vers d’autres ressources et le cloud (figure 2). Avec, dans certains cas, un regroupement de nœuds qui individuellement ne réclament pas de capacités de calcul spécifiques. Si cette évolution est logique dans certaines applications comme les terminaux de points de vente (POS, Point-Of-Sale) ou les consoles de jeux multimédias, d’autres appareils IoT ne nécessitent pas en effet de fortes capacités de traitement. A titre d’exemple, les contrôleurs ou les vannes de pipelines distants n’envoient qu’occasionnellement des données ; ces groupes de nœuds peuvent donc être contrôlés par une seule passerelle IoT qui elle-même fournit la connectivité vers un centre de données dans le cloud (figure 3). D’autres nœuds IoT tels que des caméras de surveillance pourraient de leur côté bénéficier d’une passerelle puisqu’ils ont besoin de communiquer des données uniquement lorsqu’un événement survient, lorsqu’un mouvement est détecté, lorsqu’un visage est reconnu… L’évolution vers ce modèle de traitement dit « edge computing », fondement d’une architecture évoluée de réseau IoT, positionne le traitement au plus près de l’endroit où il est pertinent. Il se traduit par de meilleures performances et un meilleur service, une diminution du trafic et une réduction de latence. Scott Aylor (AMD) Donnez vie à vos projets ……AÉRONAUTIQUE……MILITAIRE… ……AGROALIMENTAIRE/AGRICOLE… ……AUTOMOBILE/TRANSPORT……SMART CITIES… ……MÉDICAL……INDUSTRIE 4.0… ……RECHERCHE ACADÉMIQUE…… BADGE GRATUIT MÊME LIEU MÊMES DATES www.enova-event.com CONFÉRENCE SCIENTIFIQUE CISEA2016 sur les Systèmes Intelligents et leurs Applications Électroniques ENOVA ANGERS BÉNÉFICIE DU SOUTIEN DES PARTENAIRES CLÉS DE LA RÉGION