L`edge computing améliore les performances de l

Transcription

L`edge computing améliore les performances de l
A N A L Y S E
Architecture réseau
DU CLOUD COMPUTING À L’EDGE COMPUTING
Le passage d’une architecture « one-to-many », centrée sur le cloud, vers l’edge computing peut alléger le trafic
sur l’infrastructure réseau, réduire le temps de latence et améliorer la gestion énergétique.
1
L’edge computing améliore
les performances de l’Internet
des objets
L’Internet des objets (IoT) va transformer la façon dont nous interagissons
avec les objets connectés et la façon dont ces objets interagissent entre eux.
Mais pour manipuler et stocker l’énorme quantité de données générées par
l’IoT, il faut faire évoluer l'architecture informatique du réseau. Comment ? En
passant d’une architecture centrée sur le cloud à une architecture de calcul
répartie et renforcée au niveau des équipements en bordure de réseau, situés
au plus près des capteurs. C’est ce que l’on appelle l’edge computing.
P
our répondre aux besoins de
traitement et d’analyse en
temps réel des données de
l’IoT, deux modifications fondamentales doivent impérativement être
apportées à l’Internet et à ses ressources de calcul. D’abord, l’architecture globale du réseau doit être
ré-envisagée ; il faut en effet passer
d’une architecture centrée sur le
cloud (de type one-to-many) à une
topologie où des ressources importantes de calcul sont distribuées en
bordure de réseau. Bien évidemment, il y aura toujours du cloud
18 / L’EMBARQUÉ / N°12 / 2016
computing, mais le traitement réalisé
en périphérie, dans les nœuds terminaux eux-mêmes ou au sein de passerelles intelligentes locales, pourrait
à l’avenir contribuer à une meilleure
gestion des besoins générés par l’IoT.
Par ailleurs, bien que très puissants,
les processeurs multicœurs actuels
ne seront plus assez performants
pour répondre aux exigences de
calcul de demain. En revanche, des
solutions de traitement hétérogène,
en particulier celles qui combinent
un CPU à un GPU (unité de traitement graphique) et à d’autres accé-
lérateurs spécialisés, vont devenir de
plus en plus populaires. Cet assemblage constitue en effet un moyen
puissant de répondre aux exigences
de performances de tous les types de
dispositifs et d’équipements, des
capteurs jusqu’aux serveurs de données.
Ré-envisager l'architecture
du réseau lui-même
Intéressons-nous d’abord à la
manière dont l’IoT est actuellement
architecturé. Pour le moment le
dogme qui prévaut veut que tout doit
A N A L Y S E
Architecture réseau
L’AVÈNEMENT DU TRAITEMENT HÉTÉROGÈNE
Au niveau du nœud IoT luimême, un changement dans le
type de ressources affectées au
traitement de données s’avère
également nécessaire. Aujourd’hui,
le fossé entre les CPU et les GPU
s’est largement comblé grâce au
concept d’Heterogeneous Computing (ou de traitement hétérogène) qui consiste à rassembler
plusieurs types de processeurs
au sein d’une seule unité de
traitement accéléré, l’APU (Accelerated Processing Unit). Ce qui
va dans le sens de l’IoT, puisque
le traitement hétérogène, basé
en particulier sur l’utilisation du
GPU comme coprocesseur pour
exécuter des tâches parallèles
complexes, est une caractéristique
intrinsèque de nombre d’applications de l’Internet des objets.
n Un exemple particulièrement
significatif est donné par la vidéosurveillance où le flux vidéo est
d’abord traité par un GPU afin de
procéder à des détections (éventuelles) de visage. Cette tâche de
reconnaissance faciale n’est pas
triviale, mais une fois qu’un visage
est détecté, l’ensemble des données concernées peut ensuite être
envoyé à un CPU traditionnel pour
être confronté aux données stockées dans une table de recherche.
Une meilleure maîtrise de la techn
LA PROGRESSION DE L’INTÉGRATION AU SEIN DU MODÈLE APU
En 2011, AMD a mis sur le marché une APU associant à un CPU un GPU d’usage général
utilisé jusqu’alors pour assurer des calculs parallèles. Cette première étape fut suivie
d’une phase d’intégration physique qui a consisté à déplacer des entités externes connectées
à la puce via le bus PCI pour les embarquer directement sur le SoC.
nologie GPU conduit ici à une plus
grande efficacité de traitement.
n Reste le problème du partage de
l’espace mémoire et de la gestion
des deux sous-systèmes mémoire.
Les dernières APU résolvent cet
aspect architectural en intégrant
une mémoire cohérente pour
l’adressage des deux types de
processeur. Ainsi, au lieu de
changer d’espace mémoire, on ne
déplace que des pointeurs. Avec le
support fourni par la spécification
HSA Foundation 1.0, des langages
classiques comme le C++ peuvent
alors être utilisés pour programmer
les applications indifféremment
sur le CPU et le GPU. On assiste
en somme à l’avènement du
« write once, run many » (programmer une fois et exécuter
sur plusieurs architectures) sur
de multiples plates-formes, des
téléphones intelligents jusqu’aux
centres de données en passant
par les passerelles périphériques
et les systèmes embarqués.
ouverte ou fermée s’apparente à un véhicule autonome qui a des exiêtre fait et géré dans le cloud et que
signal binaire. On peut donc se per- gences fortes en termes de latence et
la communication client-cloud est le
mettre de coder cette activité avec de fiabilité des données. Il est promodèle unique et indépassable pour
une fréquence de 1 Hz, voire moins. bable dans ce cas que l’objet « voil’IoT. Or il faut se rappeler qu’il y
Comparons ce cas avec celui d’un ture » va envoyer ses données de
aura quelque 26 milliards de nœuds
terminaux au sein de l’IoT en
2020. Ce qui implique que TOPOLOGIE ÉVOLUÉE POUR L’IoT
2
toutes les données, qu’elles Une topologie IoT évoluée ne connecte pas chaque nœud au cloud. Les connexions
viennent d’un thermostat, sont plutôt établies ou annulées selon les besoins en ressources et en communication.
d’un capteur, d’une mesure
de trafic routier, d’une usine
automatisée ou d’une caméra
de surveillance, devront
remonter dans le nuage. Ce
n’est pas raisonnable. Car
tous ces dispositifs ont des
caractéristiques radicalement
différentes. Par exemple, certains exigent un faible temps
de latence, d’autres ont
besoin d’une bande passante
élevée, et d’autres encore ne
communiquent que très rarement.
Soyons plus précis. Dans le
cas d’une application de
domotique intelligente, le fait
qu’une porte de garage soit
L’EMBARQUÉ / N°12 / 2016 /
19
A N A L Y S E
Architecture réseau
TOPOLOGIE AVEC DES PASSERELLES IoT
Une passerelle IoT offre des ressources locales de traitement à l’endroit où elles
sont nécessaires. Elle est à la fois plus rapide et facilement échelonnable pour plus
de connexions et plus de services selon les besoins. Les décisions peuvent par exemple
être prises localement au niveau d’une caméra de vidéosurveillance plutôt qu’au niveau
du cloud, ce qui nécessite, dans ce dernier cas, la transmission en streaming du contenu
vidéo pour son analyse.
3
reconnaissance faciale ou un point
de vente automatique intelligent à
contrôle gestuel. Ce traitement en
local peut inclure le transcodage
vidéo, le traitement et l’amélioration
de l’image ou le rendu graphique. En
fait, plus le traitement impliqué est
lourd – tout particulièrement si le
temps de réponse est crucial –, plus
le traitement par des CPU, des GPU
ou des DSP est nécessaire au plus
près de la source.
Quelle évolution
pour un réseau dédié IoT ?
télémétrie en quelques millisecondes
voire plus rapidement. L’ajout
des données émises par une multitude de véhicules à l’ensemble du
trafic global sur Internet, que celui-ci
vienne de Skype, Netflix, YouTube
ou d’autres sources, et l’envoi simultané de toutes ces données vers le
cloud posent alors un immense problème, surtout si ces véhicules autonomes sont en attente de réponses
rapides.
Conclusion : la topologie du réseau
et la distribution des ressources de
calcul devront être pensées différemment avec la montée en puissance
de l’IoT. Ce mouvement est déjà en
marche. Que ce soit dans une usine,
à la maison ou au sein-même de l’infrastructure, on commence à voir
apparaître de nouvelles technologies
situées plus près de la périphérie du
réseau et capables de prendre des
décisions en local sans nécessiter
une transmission de données vers le
cloud (figure 1).
On aboutit donc à une solution IoT
en bordure de réseau différente de
celle implémentée dans le cœur de
réseau et différente aussi de celle
présente dans le centre de données
principal. Avec, en corollaire, trois
piles logicielles distinctes gérées par
des équipes de développement associées, elles aussi différentes. En réa-
20 / L’EMBARQUÉ / N°12 / 2016
lité, ce dont on a besoin avec l’Internet des objets, c’est de garantir
l’évolutivité et l’interopérabilité du
déploiement des applications d’une
manière très souple.
Par ailleurs, ce que l’on voit actuellement sur un réseau, ce sont des flux
dynamiques où il question de
paquets et de commutateurs aptes à
les aiguiller au sein de l’infrastructure. Mais avec l’IoT, tout est une
question de données. Prenons
l’exemple frappant de la vidéo.
Aujourd’hui, les deux tiers du trafic
sur Internet sont liés à la transmission
d’images. Et dans les trois prochaines
années, ces flux représenteront près
de 80% du trafic. Parallèlement, les
flux vidéo sur Internet qui alimentent
les téléviseurs ont doublé de volume
entre 2012 et 2013 et c’est une multiplication par quatre qui est attendue d’ici à 2018. Le trafic lié à la
vidéo à la demande pour le grand
public devrait également doubler
d’ici à 2018. (Source : Cisco, http://
www.cisco.com/c/en/us/solutions/
collateral/service-provider/visual-net­
working-index-vni/white_paper_c11520862.html).
Face à de telles évolutions, il devient
essentiel d’effectuer le traitement
vidéo en local, à proximité du terminal distant, surtout pour un nœud IoT
comme une caméra de sécurité à
Déplacer l’intelligence à la périphérie est donc la clé de l’évolution du
réseau, le rendant plus efficace pour
les applications, les nœuds et les
capteurs de l’IoT. Mais c’est une tendance encore jeune. La nouvelle
topologie du réseau IoT devra se fonder, d’une part, sur des ressources
locales et, d’autre part, sur des
connexions selon les besoins vers
d’autres ressources et le cloud
(figure 2). Avec, dans certains cas, un
regroupement de nœuds qui individuellement ne réclament pas de
capacités de calcul spécifiques.
Si cette évolution est logique dans
certaines applications comme les
terminaux de points de vente (POS,
Point-Of-Sale) ou les consoles de
jeux multimédias, d’autres appareils
IoT ne nécessitent pas en effet de
fortes capacités de traitement. A titre
d’exemple, les contrôleurs ou les
vannes de pipelines distants n’envoient qu’occasionnellement des
données ; ces groupes de nœuds
peuvent donc être contrôlés par une
seule passerelle IoT qui elle-même
fournit la connectivité vers un centre
de données dans le cloud (figure 3).
D’autres nœuds IoT tels que des
caméras de surveillance pourraient
de leur côté bénéficier d’une passerelle puisqu’ils ont besoin de communiquer des données uniquement
lorsqu’un événement survient, lorsqu’un mouvement est détecté, lorsqu’un visage est reconnu…
L’évolution vers ce modèle de traitement dit « edge computing », fondement d’une architecture évoluée de
réseau IoT, positionne le traitement
au plus près de l’endroit où il est pertinent. Il se traduit par de meilleures
performances et un meilleur service,
une diminution du trafic et une
réduction de latence.
Scott Aylor (AMD)
Donnez vie
à vos projets
……AÉRONAUTIQUE……MILITAIRE…
……AGROALIMENTAIRE/AGRICOLE…
……AUTOMOBILE/TRANSPORT……SMART CITIES…
……MÉDICAL……INDUSTRIE 4.0…
……RECHERCHE ACADÉMIQUE……
BADGE GRATUIT
MÊME LIEU
MÊMES DATES
www.enova-event.com
CONFÉRENCE SCIENTIFIQUE
CISEA2016
sur les Systèmes Intelligents et
leurs Applications Électroniques
ENOVA ANGERS BÉNÉFICIE DU SOUTIEN DES PARTENAIRES CLÉS DE LA RÉGION