La numérisation rapide et l’expansion des utilisateurs pour inclure les appareils et les machines inaugurent une nouvelle ère Internet qui force l’évolution de l’écosystème de pointe.
La pandémie de COVID-19 qui a choqué le monde a entraîné une plus grande volatilité, mais le monde ne réagit pas de manière inattendue face aux crises et aux opportunités. Nous avons constaté que la COVID a accéléré de manière exponentielle le rythme de la numérisation. Satya Nadella, PDG de Microsoft, a déclaré que nous avons été témoins de plusieurs années de transformation numérique accélérées en quelques mois seulement.
Aujourd’hui, le monde devient incontestablement numérique. L’une des conséquences de la numérisation est la production accrue de données. IDC, dans son rapport « Data Age 2025 », prédit que les données mondiales atteindront 175 Zo d’ici 2025.1 Ces données seront stockées au cœur (centres de données traditionnels et cloud), à la périphérie et sur des points de terminaison périphériques tels que les PC, les smartphones et les appareils IoT. De plus, 30 % de ces données seront consommées en temps réel.
Cela est dû en partie aux progrès technologiques. Les vitesses de transfert de données avec la 5G sont jusqu'à 100 fois plus rapides que les générations sans fil précédentes, et la latence diminue généralement de 20 ms à 1 ms.2 Ces nouvelles capacités augmenteront la vitesse de génération des données et la capacité à les traiter en temps réel.
Une grande partie de ces données en temps réel est générée et consommée par des appareils fixes : ampoules, caméras de sécurité, appareils électroménagers. Un tiers des propriétaires ont augmenté leur utilisation d'appareils pendant la pandémie, y compris près de la moitié (46 %) des propriétaires de serrures de porte intelligentes.3 Mais un pourcentage significatif est mobile : objets connectés dans le domaine de la santé, véhicules connectés, capteurs qui suivent et surveillent les chaînes d’approvisionnement. En novembre 2020,4 Aux États-Unis seulement, 45 % du trafic Web provient des téléphones mobiles.
Cette croissance explosive des appareils a radicalement changé la définition d’un utilisateur, les machines, les scripts et les logiciels agissant désormais dans un rôle autrefois délégué uniquement aux êtres humains. Cette croissance devrait se poursuivre.
Dans le même temps, le nombre de personnes utilisant cette technologie continue d’augmenter. En 2019, il y avait 4,9 milliards d’utilisateurs d’Internet. D’ici la fin de 2022, ce nombre devrait atteindre 6 milliards. Et d’ici 2030, les experts prédisent que 90 % de la population mondiale prévue – 8,5 milliards – âgée de six ans et plus sera active numériquement.5 Beaucoup de ces utilisateurs dépendent désormais des services numériques dans presque tous les domaines de leur vie. Par exemple, le recours à la télémédecine a connu une croissance stupéfiante de 6 000 % pendant la pandémie.6
Les pressions et les exigences d’une société distribuée et active numériquement, combinées à la croissance explosive des appareils, signalent le début d’une troisième ère Internet.
Nous pensons que l’essor et l’évolution de l’informatique de pointe suivront inévitablement l’arrivée de la troisième vague d’Internet. Comme nous le savons, la transformation d’Internet a conduit le monde vers l’ère du PC et d’Internet. Le cloud computing et l’adoption des smartphones ont inauguré l’ère de l’Internet mobile. Nous entrons désormais dans une troisième ère, celle de l’Internet des objets en mouvement.
Les défis qui émergent à notre époque entraînent des changements dans l’écosystème Edge, passant d’un Edge 1.0 statique et fermé à un Edge 2.0 ouvert et autonome. Ce processus est semblable à l’évolution des organismes unicellulaires vers des organismes complexes.
Par exemple, aux premiers stades du mouvement cloud, quelques grands clouds publics et réseaux de diffusion de contenu (CDN) dominaient la diffusion d’applications Internet et la distribution de services numériques. Ces fournisseurs fonctionnaient comme des points de contrôle centralisés pour l’écosystème des applications Internet, un peu à la manière dont fonctionnent les douze nerfs crâniens dans un corps humain. À mesure que l’utilisation du cloud et l’écosystème se développent, nous constatons la nécessité pour les services numériques de prendre des décisions en temps réel basées sur des connaissances localisées à la « périphérie » d’Internet, à l’image de la manière dont le système nerveux autonome se comporte dans le corps humain.
C’est l’évolution qui propulse Edge vers une nouvelle ère autonome. Cela n’est pas surprenant. Chaque vague d’Internet a apporté son lot de défis qui ont été en partie relevés par l’informatique de pointe.
Tim Berners-Lee, l’inventeur du World Wide Web, a anticipé le problème de congestion lié au transfert de grandes quantités de contenu Web via des liens lents auquel les utilisateurs d’Internet seraient confrontés ; il a appelé ce problème « l’attente mondiale ». À l’époque, le paradigme dominant se concentrait, à juste titre, sur la distribution de contenu Web ou d’applications Web relativement statiques pour les rapprocher des utilisateurs afin de répondre au besoin de rapidité et de redondance. Ce besoin a conduit à un ensemble de principes d’architecture clés, notamment un point de présence physique (PoP) à proximité des utilisateurs finaux, la mise en cache de contenu, la prédiction de localisation, l’évitement de la congestion, les algorithmes de routage distribués, etc.
L’avènement du Web 2.0, associé à l’émergence des clouds publics et des solutions SaaS, a introduit de nouveaux principes architecturaux. Les applications sont devenues la principale forme de contenu sur Internet. Ainsi, le edge distribué ne pouvait pas persister dans sa forme naissante : il devait évoluer avec les architectures d’application qu’il fournissait, tout en étant soumis à une pression croissante pour sécuriser une économie numérique en pleine croissance. Alors qu'une grande partie de l'économie mondiale dépend désormais fortement des applications centrées sur le commerce, les services de sécurité sont rapidement devenus un élément de base complémentaire des fournisseurs de CDN, dont la présence existante dans le monde entier s'étendait plus près de l'utilisateur (et résolvait donc les menaces plus tôt) que le cloud et le centre de données traditionnel. Ces services ont été construits sur l’infrastructure mise en place pour distribuer du contenu et représentent donc des environnements fermés et propriétaires.
Aujourd’hui, les applications ne sont plus les destinations de routage « passives » du réseau de distribution, mais sont plutôt des participants actifs. Par exemple, avec les applications distribuées basées sur Kubernetes, la logique d’application, regroupée dans un conteneur, peut se déplacer dynamiquement vers n’importe quel emplacement de calcul approprié avec une pile Kubernetes de prise en charge. Cela est en contradiction directe avec les principes d’architecture sur lesquels les premières solutions de périphérie ont été construites. Autrement dit, ils trouvent leurs racines dans une époque où les contenus (ou les applications) étaient des entités statiques associées à des emplacements physiques. De telles solutions de pointe supposent que le réseau de diffusion de contenu fonctionne seul comme la « plateforme intelligente » pour connecter les utilisateurs aux applications, tandis que les applications (et les utilisateurs) restent des « points de terminaison » passifs de la « plateforme intelligente ». Cette approche n’est plus la meilleure façon architecturale de connecter les utilisateurs au contenu ou aux applications.
Les utilisateurs ont également évolué. Non seulement leur sophistication numérique et leur appétit pour l’engagement numérique sont à des années-lumière de ce qu’ils étaient lorsque le premier CDN a été lancé en 1998, mais la technologie a forcé un changement dans la définition de ce qu’ils sont. Aujourd’hui, un « utilisateur » peut très bien être une machine, un script ou un service automatisé agissant pour le compte d’un humain. Il peut s’agir d’un capteur collectant des données critiques provenant d’une usine de fabrication ou d’un champ agricole. D’un côté, ces « utilisateurs » continuent de véhiculer les mêmes désirs de rapidité, de sécurité et de confidentialité que leurs homologues humains. D’autre part, ces nouveaux « utilisateurs » (des points de terminaison IoT intelligents dotés de piles d’applications intégrées) participent souvent au traitement dynamique de la logique applicative et de l’analyse des données pour offrir des expériences numériques utilisateur sécurisées et optimales.
Les principaux défis applicatifs pour lesquels Edge est apparu (vitesse puis sécurité) existent toujours aujourd’hui. Ce qui a changé, c’est la définition de l’application (d’une instance statique résidant dans un emplacement fixe à des unités de conteneur « mobiles »), de l’utilisateur (d’un utilisateur humain à une « chose » intelligente), de l’emplacement (d’une adresse IP à une identification logique) et des cas d’utilisation que l’edge vise à prendre en charge (de la diffusion de contenu à la distribution d’applications dynamiques et à la prise de décision en temps réel à Edge).
La transformation numérique et l’IoT génèrent de nouvelles exigences en matière d’expériences numériques qui entraînent le besoin de distribution d’applications, d’intelligence en temps réel et de prise de décision à la périphérie. À ce titre, l’edge computing devient un élément clé de la transformation numérique dans l’industrie. Selon le rapport 2021 sur l’état de la stratégie d’application,7 76 % des organisations ont mis en œuvre ou planifient activement des déploiements Edge, avec comme principaux moteurs l'amélioration des performances des applications et la collecte de données/l'activation d'analyses.
De plus, un grand nombre de « choses » ont été intégrées dans le dernier cycle de transformation numérique. Rapport annuel de Cisco sur Internet8 prédit que « d’ici 2023, il y aura plus de trois fois plus d’appareils en réseau sur Terre que d’humains ». Environ la moitié des connexions mondiales seront des connexions de machine à machine et l'espace M2M sera dominé par des « objets » orientés consommateur dans les maisons et les automobiles intelligentes. En raison de la séparation passée de l’IT et de l’OT (technologie opérationnelle), bien que le cloud computing ait entraîné une augmentation considérable de la puissance de calcul, l’ajout de « choses » introduit toujours des défis à l’architecture réseau dans le cadre du modèle cloud. Dans l’environnement IoT mobile de l’ère Edge 2.0, l’IT et l’OT seront convergés et disposeront de capacités de détection et d’automatisation intelligentes plus puissantes. En d’autres termes, en plus du traitement centralisé des données rendu possible par le cloud computing, la périphérie du réseau rassemblera une multitude d’appareils et de données et fournira une puissance de calcul considérable à proximité du point de terminaison, libérant ainsi une grande valeur commerciale.
Pour que les entreprises puissent tirer parti d’Edge 2.0 et en récolter les fruits, elles auront besoin d’une plateforme de distribution d’applications centrée sur la distribution d’applications holistique et basée sur un ensemble différent de principes de conception technologique.
Une plate-forme de distribution d'applications Edge 2.0 doit être basée sur les principes de conception clés suivants :
L’intelligence distribuée et en temps réel rendue possible par la plateforme applicative Edge 2.0 jouera un rôle central dans le monde numérique de demain. Pour la plupart des entreprises, cela signifie repenser leurs modèles de distribution d’applications. La fourniture actuelle d’applications et de services s’articule autour d’un modèle centralisé où la logique d’application est située de manière centrale. La logique d’application est hébergée dans un cloud public ou dans des centres de données privés. À l’ère Edge 2.0, l’infrastructure, les données et l’architecture des applications seront davantage distribuées et adopteront des approches peer-to-peer. Cependant, nous envisageons que cette transition sera une évolution, à savoir une augmentation, des technologies de distribution d’applications actuelles, plutôt qu’une révolution.
Avec des années d’expérience dans la sécurité des applications multicloud et la technologie de distribution d’applications, F5 a toujours répondu aux besoins des applications, l’atout principal de l’organisation à l’ère numérique. À l’ère d’Edge 2.0, le Edge passe d’un modèle fermé à un modèle ouvert. Avec la récente acquisition de Volterra, F5 est dans la position idéale pour diriger la création de ce paradigme de distribution d’applications Edge 2.0.
Aujourd’hui, toutes les industries accélèrent leur parcours de transformation numérique. Nous savons que le déploiement Edge devient progressivement une partie intégrante de la stratégie applicative de nos clients, et nous sommes impatients de travailler avec eux pour naviguer dans cette nouvelle vague d’Internet.
2 https://www.gsma.com/wp-content/uploads/2019/04/The-5G-Guide_GSMA_2019_04_29_compressed.pdf
4 Statista, « Part du trafic provenant des appareils mobiles »
5 Cybersecurity Ventures « Combien d’utilisateurs Internet le monde comptera-t-il en 2022 et 2030 ? »
6 Definitive HC, « La COVID-19 entraîne une croissance de 6 000 % de l'utilisation de la télémédecine »
7 Rapport sur l'état de la stratégie d'application F5 2021
8 Rapport annuel de Cisco sur Internet