Rapport du Bureau du directeur technique

La troisième vague d'Internet

La numérisation rapide et l’expansion des utilisateurs pour inclure les appareils et les machines inaugurent une nouvelle ère Internet qui force l’évolution de l’écosystème de pointe.

  • Partager sur Facebook
  • Partager sur X
  • Partager sur Linkedin
  • Partager par e-mail
  • Partager via AddThis
Par Geng Lin, directeur technique de F5

La pandémie de COVID-19 qui a choqué le monde a entraîné une plus grande volatilité, mais le monde ne réagit pas de manière inattendue face aux crises et aux opportunités. Nous avons constaté que la COVID a accéléré de manière exponentielle le rythme de la numérisation. Satya Nadella, PDG de Microsoft, a déclaré que nous avons été témoins de plusieurs années de transformation numérique accélérées en quelques mois seulement.

Aujourd’hui, le monde devient incontestablement numérique. L’une des conséquences de la numérisation est la production accrue de données. IDC, dans son rapport « Data Age 2025 », prédit que les données mondiales atteindront 175 Zo d’ici 2025.1 Ces données seront stockées au cœur (centres de données traditionnels et cloud), à la périphérie et sur des points de terminaison périphériques tels que les PC, les smartphones et les appareils IoT. De plus, 30 % de ces données seront consommées en temps réel.

Cela est dû en partie aux progrès technologiques. Les vitesses de transfert de données avec la 5G sont jusqu'à 100 fois plus rapides que les générations sans fil précédentes, et la latence diminue généralement de 20 ms à 1 ms.2 Ces nouvelles capacités augmenteront la vitesse de génération des données et la capacité à les traiter en temps réel.

Une grande partie de ces données en temps réel est générée et consommée par des appareils fixes : ampoules, caméras de sécurité, appareils électroménagers. Un tiers des propriétaires ont augmenté leur utilisation d'appareils pendant la pandémie, y compris près de la moitié (46 %) des propriétaires de serrures de porte intelligentes.3 Mais un pourcentage significatif est mobile : objets connectés dans le domaine de la santé, véhicules connectés, capteurs qui suivent et surveillent les chaînes d’approvisionnement. En novembre 2020,4 Aux États-Unis seulement, 45 % du trafic Web provient des téléphones mobiles.

Cette croissance explosive des appareils a radicalement changé la définition d’un utilisateur, les machines, les scripts et les logiciels agissant désormais dans un rôle autrefois délégué uniquement aux êtres humains. Cette croissance devrait se poursuivre.

Dans le même temps, le nombre de personnes utilisant cette technologie continue d’augmenter. En 2019, il y avait 4,9 milliards d’utilisateurs d’Internet. D’ici la fin de 2022, ce nombre devrait atteindre 6 milliards. Et d’ici 2030, les experts prédisent que 90 % de la population mondiale prévue – 8,5 milliards – âgée de six ans et plus sera active numériquement.5 Beaucoup de ces utilisateurs dépendent désormais des services numériques dans presque tous les domaines de leur vie. Par exemple, le recours à la télémédecine a connu une croissance stupéfiante de 6 000 % pendant la pandémie.6

Les pressions et les exigences d’une société distribuée et active numériquement, combinées à la croissance explosive des appareils, signalent le début d’une troisième ère Internet.

L'évolution de l'Edge est portée par la troisième vague d'Internet

Nous pensons que l’essor et l’évolution de l’informatique de pointe suivront inévitablement l’arrivée de la troisième vague d’Internet. Comme nous le savons, la transformation d’Internet a conduit le monde vers l’ère du PC et d’Internet. Le cloud computing et l’adoption des smartphones ont inauguré l’ère de l’Internet mobile. Nous entrons désormais dans une troisième ère, celle de l’Internet des objets en mouvement.

Les défis qui émergent à notre époque entraînent des changements dans l’écosystème Edge, passant d’un Edge 1.0 statique et fermé à un Edge 2.0 ouvert et autonome. Ce processus est semblable à l’évolution des organismes unicellulaires vers des organismes complexes.

L'écosystème Edge a évolué

Par exemple, aux premiers stades du mouvement cloud, quelques grands clouds publics et réseaux de diffusion de contenu (CDN) dominaient la diffusion d’applications Internet et la distribution de services numériques. Ces fournisseurs fonctionnaient comme des points de contrôle centralisés pour l’écosystème des applications Internet, un peu à la manière dont fonctionnent les douze nerfs crâniens dans un corps humain. À mesure que l’utilisation du cloud et l’écosystème se développent, nous constatons la nécessité pour les services numériques de prendre des décisions en temps réel basées sur des connaissances localisées à la « périphérie » d’Internet, à l’image de la manière dont le système nerveux autonome se comporte dans le corps humain.

C’est l’évolution qui propulse Edge vers une nouvelle ère autonome. Cela n’est pas surprenant. Chaque vague d’Internet a apporté son lot de défis qui ont été en partie relevés par l’informatique de pointe.

Première vague : Bord 1.0

Tim Berners-Lee, l’inventeur du World Wide Web, a anticipé le problème de congestion lié au transfert de grandes quantités de contenu Web via des liens lents auquel les utilisateurs d’Internet seraient confrontés ; il a appelé ce problème « l’attente mondiale ». À l’époque, le paradigme dominant se concentrait, à juste titre, sur la distribution de contenu Web ou d’applications Web relativement statiques pour les rapprocher des utilisateurs afin de répondre au besoin de rapidité et de redondance. Ce besoin a conduit à un ensemble de principes d’architecture clés, notamment un point de présence physique (PoP) à proximité des utilisateurs finaux, la mise en cache de contenu, la prédiction de localisation, l’évitement de la congestion, les algorithmes de routage distribués, etc.

Deuxième vague : Bord 1.5

L’avènement du Web 2.0, associé à l’émergence des clouds publics et des solutions SaaS, a introduit de nouveaux principes architecturaux. Les applications sont devenues la principale forme de contenu sur Internet. Ainsi, le edge distribué ne pouvait pas persister dans sa forme naissante : il devait évoluer avec les architectures d’application qu’il fournissait, tout en étant soumis à une pression croissante pour sécuriser une économie numérique en pleine croissance. Alors qu'une grande partie de l'économie mondiale dépend désormais fortement des applications centrées sur le commerce, les services de sécurité sont rapidement devenus un élément de base complémentaire des fournisseurs de CDN, dont la présence existante dans le monde entier s'étendait plus près de l'utilisateur (et résolvait donc les menaces plus tôt) que le cloud et le centre de données traditionnel. Ces services ont été construits sur l’infrastructure mise en place pour distribuer du contenu et représentent donc des environnements fermés et propriétaires.

Troisième vague : Bord 2.0

Aujourd’hui, les applications ne sont plus les destinations de routage « passives » du réseau de distribution, mais sont plutôt des participants actifs. Par exemple, avec les applications distribuées basées sur Kubernetes, la logique d’application, regroupée dans un conteneur, peut se déplacer dynamiquement vers n’importe quel emplacement de calcul approprié avec une pile Kubernetes de prise en charge. Cela est en contradiction directe avec les principes d’architecture sur lesquels les premières solutions de périphérie ont été construites. Autrement dit, ils trouvent leurs racines dans une époque où les contenus (ou les applications) étaient des entités statiques associées à des emplacements physiques. De telles solutions de pointe supposent que le réseau de diffusion de contenu fonctionne seul comme la « plateforme intelligente » pour connecter les utilisateurs aux applications, tandis que les applications (et les utilisateurs) restent des « points de terminaison » passifs de la « plateforme intelligente ». Cette approche n’est plus la meilleure façon architecturale de connecter les utilisateurs au contenu ou aux applications.

Les utilisateurs ont également évolué. Non seulement leur sophistication numérique et leur appétit pour l’engagement numérique sont à des années-lumière de ce qu’ils étaient lorsque le premier CDN a été lancé en 1998, mais la technologie a forcé un changement dans la définition de ce qu’ils sont. Aujourd’hui, un « utilisateur » peut très bien être une machine, un script ou un service automatisé agissant pour le compte d’un humain. Il peut s’agir d’un capteur collectant des données critiques provenant d’une usine de fabrication ou d’un champ agricole. D’un côté, ces « utilisateurs » continuent de véhiculer les mêmes désirs de rapidité, de sécurité et de confidentialité que leurs homologues humains. D’autre part, ces nouveaux « utilisateurs » (des points de terminaison IoT intelligents dotés de piles d’applications intégrées) participent souvent au traitement dynamique de la logique applicative et de l’analyse des données pour offrir des expériences numériques utilisateur sécurisées et optimales.

L'émergence d'Edge 2.0

Les principaux défis applicatifs pour lesquels Edge est apparu (vitesse puis sécurité) existent toujours aujourd’hui. Ce qui a changé, c’est la définition de l’application (d’une instance statique résidant dans un emplacement fixe à des unités de conteneur « mobiles »), de l’utilisateur (d’un utilisateur humain à une « chose » intelligente), de l’emplacement (d’une adresse IP à une identification logique) et des cas d’utilisation que l’edge vise à prendre en charge (de la diffusion de contenu à la distribution d’applications dynamiques et à la prise de décision en temps réel à Edge).

La transformation numérique et l’IoT génèrent de nouvelles exigences en matière d’expériences numériques qui entraînent le besoin de distribution d’applications, d’intelligence en temps réel et de prise de décision à la périphérie. À ce titre, l’edge computing devient un élément clé de la transformation numérique dans l’industrie. Selon le rapport 2021 sur l’état de la stratégie d’application,7 76 % des organisations ont mis en œuvre ou planifient activement des déploiements Edge, avec comme principaux moteurs l'amélioration des performances des applications et la collecte de données/l'activation d'analyses.

De plus, un grand nombre de « choses » ont été intégrées dans le dernier cycle de transformation numérique. Rapport annuel de Cisco sur Internet8 prédit que « d’ici 2023, il y aura plus de trois fois plus d’appareils en réseau sur Terre que d’humains ». Environ la moitié des connexions mondiales seront des connexions de machine à machine et l'espace M2M sera dominé par des « objets » orientés consommateur dans les maisons et les automobiles intelligentes. En raison de la séparation passée de l’IT et de l’OT (technologie opérationnelle), bien que le cloud computing ait entraîné une augmentation considérable de la puissance de calcul, l’ajout de « choses » introduit toujours des défis à l’architecture réseau dans le cadre du modèle cloud. Dans l’environnement IoT mobile de l’ère Edge 2.0, l’IT et l’OT seront convergés et disposeront de capacités de détection et d’automatisation intelligentes plus puissantes. En d’autres termes, en plus du traitement centralisé des données rendu possible par le cloud computing, la périphérie du réseau rassemblera une multitude d’appareils et de données et fournira une puissance de calcul considérable à proximité du point de terminaison, libérant ainsi une grande valeur commerciale.

Pour que les entreprises puissent tirer parti d’Edge 2.0 et en récolter les fruits, elles auront besoin d’une plateforme de distribution d’applications centrée sur la distribution d’applications holistique et basée sur un ensemble différent de principes de conception technologique.

Une plate-forme de distribution d'applications Edge 2.0 doit être basée sur les principes de conception clés suivants :

Plan de contrôle unifié
  • Pour une plate-forme de distribution d’applications Edge 2.0, « Edge » peut être n’importe quel environnement physique ou logique allant des points de terminaison utilisateur aux clouds publics. Un plan de contrôle d'application unifié garantit la définition commune des politiques de sécurité, des politiques de localisation des données et de la gestion des identités des utilisateurs dans différents environnements et impose l'exécution via l'intégration avec des outils d'automatisation et d'orchestration.
Orienté vers les applications
  • Une plate-forme de distribution d’applications Edge 2.0 s’intégrera entièrement aux outils de gestion du cycle de vie des applications. Les politiques de sécurité des applications, les politiques de localisation des données, la gestion des identités et l’orchestration des ressources sont « déclarées » via le plan de contrôle unifié et appliquées dans tout environnement dans lequel la plateforme s’exécute. L'Edge devient une « propriété déclarée » de l'application cible (ce qui fait que chaque application possède son propre Edge « personnalisé ») et est « exécuté » par la plateforme sans provisionnement manuel requis. Les développeurs peuvent simplement se concentrer sur la logique de l'application, les interactions de l'application (API) et les flux de travail métier sans se soucier de la gestion de l'infrastructure ou des emplacements.
Sécurité distribuée intégrée à la plateforme
  • Dans une plateforme de distribution d’applications Edge 2.0, les politiques de sécurité des applications sont définies de manière commune via le plan de contrôle unifié. Ils sont distribués pour être appliqués dans chaque environnement dans lequel l'application s'exécute. Les fonctionnalités de sécurité intégrées directement dans la plateforme (par exemple, le chiffrement et la détection de robots de pointe) permettent à ces fonctions de sécurité de se déplacer avec l'application par défaut.
Traitement de données distribuées et analyses intégrées
  • Une plate-forme de distribution d’applications Edge 2.0 devient une structure globale pour la logique d’application et une structure globale pour le traitement et l’analyse des données. Tout service numérique nécessite à la fois des données et une logique d’application, mais l’emplacement de stockage, de traitement et de transformation des données ne doit pas nécessairement être le même que celui où réside la logique d’application. L'emplacement des données doit être spécifié indépendamment sous la forme d'un ensemble de politiques au niveau de la plateforme déterminées par des facteurs tels que la gravité des données, les réglementations (PCI, GDPR et autres) et le rapport prix/performance du traitement. Similaires aux politiques de sécurité, les politiques de localisation des données doivent être « déclarées » par les utilisateurs via le plan de contrôle unifié et appliquées par la plateforme dans n’importe quel environnement. Une plateforme Edge 2.0 a un rôle à jouer dans d'autres politiques de gestion des données, telles que la lignée des données (stockage des détails sur les données sous forme d'attributs intégrés), en plus d'avoir un ensemble de capacités opérationnelles intégrées pour l'observabilité, le streaming de télémétrie, les outils ML et les services ETL.
Elastic Edge défini par logiciel
  • Pour une plate-forme de distribution d’applications Edge 2.0, la « périphérie » n’est plus définie par des PoP physiques dans des emplacements spécifiques. Au lieu de cela, il est défini de manière dynamique par le plan de contrôle Edge 2.0 sur les ressources qui existent partout où un client peut le souhaiter : dans les clouds publics, les hyperviseurs, les centres de données ou les clouds privés, ou même des machines physiques dans des emplacements « distants » propres à leur entreprise. Les capacités de connexion au réseau sont également fournies de manière définie par logiciel, superposées à une infrastructure WAN privée ou publique, sans effort herculéen d'assemblage et de configuration. Il répondra à la « déclaration d’intention » de l’application cible en fournissant un Edge élastique personnalisé et défini par logiciel à la demande d’une application. « Edge » — et tout ce qu’il établit pour l’application dans le cadre de cette déclaration — deviendra une propriété simple et facile à utiliser de l’application.
Calcul optimisé au niveau du matériel
  • Les progrès des technologies de processeurs et de chipsets (en particulier les GPU, DPU, TPU et FPGA, dont les capacités et les capacités sont de plus en plus avancées) ont permis au calcul spécialisé d’optimiser considérablement l’utilisation des ressources pour des types de charges de travail spécifiques. Une plate-forme de distribution d'applications Edge 2.0 s'interfacera avec les systèmes possédant ce matériel spécial pour cibler, atterrir et exécuter des charges de travail d'application spécifiques qui bénéficieraient de cette assistance. Par exemple, il recherchera et configurera les ressources GPU pour les charges de travail intensives AL/ML ou localisera et intégrera un DPU pour les services de sécurité d'application et de réseau spéciaux dont une application a besoin. La connaissance du matériel dans une plate-forme de distribution d'applications Edge 2.0 offre des avantages intéressants pour la création de « systèmes industriels » intelligents orientés vers des applications spécifiques et donc des possibilités illimitées pour établir des solutions IoT attrayantes où un traitement en temps réel est nécessaire localement. Par exemple, une station de recharge pour véhicules électriques peut servir de point de présence d’agrégation de données pour les grandes quantités de données générées par les capteurs des véhicules électriques, ou un véhicule autonome fonctionnant sous Android OS peut se comporter comme un centre de données mobile exécutant des autodiagnostics continus assistés par matériel.

Naviguez dans la troisième vague d'Internet grâce à des applications innovantes

L’intelligence distribuée et en temps réel rendue possible par la plateforme applicative Edge 2.0 jouera un rôle central dans le monde numérique de demain. Pour la plupart des entreprises, cela signifie repenser leurs modèles de distribution d’applications. La fourniture actuelle d’applications et de services s’articule autour d’un modèle centralisé où la logique d’application est située de manière centrale. La logique d’application est hébergée dans un cloud public ou dans des centres de données privés. À l’ère Edge 2.0, l’infrastructure, les données et l’architecture des applications seront davantage distribuées et adopteront des approches peer-to-peer. Cependant, nous envisageons que cette transition sera une évolution, à savoir une augmentation, des technologies de distribution d’applications actuelles, plutôt qu’une révolution.

Avec des années d’expérience dans la sécurité des applications multicloud et la technologie de distribution d’applications, F5 a toujours répondu aux besoins des applications, l’atout principal de l’organisation à l’ère numérique. À l’ère d’Edge 2.0, le Edge passe d’un modèle fermé à un modèle ouvert. Avec la récente acquisition de Volterra, F5 est dans la position idéale pour diriger la création de ce paradigme de distribution d’applications Edge 2.0.

Aujourd’hui, toutes les industries accélèrent leur parcours de transformation numérique. Nous savons que le déploiement Edge devient progressivement une partie intégrante de la stratégie applicative de nos clients, et nous sommes impatients de travailler avec eux pour naviguer dans cette nouvelle vague d’Internet.