Rapport du bureau du directeur technique (CTO)

La troisième vague de lʼInternet

La numérisation rapide et lʼélargissement des utilisateurs aux appareils et aux machines marquent le début dʼune nouvelle ère de lʼInternet qui contraint lʼécosystème périphérique à évoluer.

  • Share to Facebook
  • Share to Twitter
  • Share to Linkedin
  • Share to email
  • Share via AddThis
Par Geng Lin, directeur technique (CTO) de F5

La pandémie de COVID-19 qui a choqué le monde a entraîné une plus grande volatilité, mais le monde ne réagit pas de manière inattendue face aux crises et aux opportunités. Nous avons vu que la COVID a accéléré de manière exponentielle le rythme de la numérisation. Satya Nadella, PDG de Microsoft, a eu cette phrase désormais célèbre selon laquelle nous avons assisté à lʼaccélération de ce qui aurait dû prendre plusieurs années en matière de transformation numérique en quelques mois seulement.

Aujourdʼhui, le monde devient incontestablement numérique. Lʼune des conséquences de la numérisation est la multiplication des données. IDC, dans son rapport « Data Age 2025 », prévoit que les données mondiales atteindront 175 Zo dʼici 20251. Ces données seront stockées dans le noyau (centres de données traditionnels et dans le cloud), à la périphérie et sur les terminaux de périphérie tels que les PC, les smartphones et les appareils IoT. En outre, 30 % de ces données seront consommées en temps réel.

Cela est dû, en partie, aux progrès de la technologie. Les vitesses de transfert de données avec la 5G sont jusquʼà 100 fois plus rapides que les générations sans fil précédentes, et la latence diminue généralement de 20 ms à 1 ms2. Ces nouvelles capacités vont augmenter la vitesse de génération des données et la capacité à les traiter en temps réel.

La plupart de ces données en temps réel sont générées et consommées par des appareils fixes : ampoules électriques, caméras de sécurité, appareils ménagers. Un tiers des propriétaires ont augmenté lʼutilisation de ces appareils pendant la pandémie, dont près de la moitié (46 %) des propriétaires de serrures de porte intelligentes3. Mais un pourcentage significatif est mobile : wearables dans la santé, véhicules connectés, capteurs qui suivent et surveillent les chaînes dʼapprovisionnement. En novembre 20204, rien quʼaux États-Unis, 45 % du trafic web provenait des téléphones mobiles.

Cette croissance fulgurante des appareils a radicalement changé la définition de lʼutilisateur, les machines, scripts et logiciels jouant désormais un rôle autrefois dévolu aux seuls êtres humains. Cette croissance devrait se poursuivre.

Dans le même temps, le nombre de personnes utilisant cette technologie ne cesse de croître. En 2019, on comptait 4,9 milliards dʼutilisateurs dʼInternet. Dʼici à la fin de 2022, ce chiffre devrait passer à 6 milliards. Et dʼici 2030, les experts prévoient que 90 % de la population mondiale projetée, soit 8,5 milliards de personnes, de six ans et plus, sera active sur le plan numérique5. Nombre de ces utilisateurs sʼappuient désormais sur les services numériques dans presque tous les domaines de leur vie. Par exemple, le recours à la télémédecine a connu une croissance stupéfiante de 6 000 % pendant la pandémie6.

Les pressions et les exigences dʼune société distribuée et numériquement active, combinées à la croissance fulgurante des appareils, marquent le début dʼune troisième ère de lʼInternet.

Lʼévolution de l'Edge est stimulée par la troisième vague de lʼInternet

Nous pensons que lʼessor et lʼévolution de lʼEdge computing suivront inévitablement lʼarrivée de la troisième vague de lʼInternet. Comme nous le savons, la transformation de lʼInternet a conduit le monde vers lʼère du PC et de lʼInternet. Le cloud computing et lʼadoption des smartphones ont introduit lʼère de lʼInternet mobile. Nous entrons maintenant dans une troisième ère, celle de lʼInternet des objets mobiles.

Les défis qui émergent de cette ère entraînent des changements dans lʼécosystème Edge, passant dʼun Edge 1.0 statique et fermé à un Edge 2.0 ouvert et autonome. Ce processus est comparable à lʼévolution dʼorganismes unicellulaires vers des organismes complexes.

Lʼécosystème Edge a évolué

Par exemple, aux premiers stades du mouvement du cloud, quelques grands clouds publics et réseaux de diffusion de contenu (CDN) ont dominé la diffusion des applications Internet et la distribution des services numériques. Ces fournisseurs faisaient office de points de contrôle centralisés pour lʼécosystème des applications Internet, un peu comme les douze nerfs crâniens dans un corps humain. À mesure que les cas dʼusage et lʼécosystème du cloud se développent, nous constatons que les services numériques doivent prendre des décisions en temps réel sur la base de connaissances localisées à la « périphérie » (Edge) de lʼInternet, à lʼinstar du système nerveux autonome du corps humain.

Cʼest lʼévolution qui fait entrer l'Edge dans une nouvelle ère autonome. Cette évolution nʼest pas surprenante. Chaque vague de lʼInternet a apporté avec elle des défis qui ont été relevés en partie par lʼinformatique en périphérie.

Première vague : Edge 1.0

Tim Berners-Lee, lʼinventeur du World Wide Web, avait prévu le problème de congestion lié au transfert de grandes quantités de contenu web sur des liaisons lentes auquel les utilisateurs dʼInternet seraient confrontés ; il a appelé ce problème le « World Wide Wait ». Le paradigme dominant de lʼépoque se concentrait, à juste titre, sur la distribution du contenu ou des applications web relativement statiques afin de les rapprocher des utilisateurs pour répondre aux besoins de vitesse et de redondance. Ce besoin a conduit à un ensemble de principes dʼarchitecture clés, notamment des points de présence (PoP) physiques proches des utilisateurs finaux, la mise en cache du contenu, la prédiction de lʼemplacement, la prévention de la congestion, les algorithmes de routage distribués, etc.

Deuxième vague : Edge 1.5

Lʼavènement du Web 2.0, associé à lʼémergence des clouds publics et des solutions SaaS, a introduit de nouveaux principes dʼarchitecture. Les applications sont devenues la principale forme de contenu sur lʼInternet. En tant que telle, l'Edge distribué ne pouvait pas persister dans sa forme naissante : elle devait évoluer en même temps que les architectures dʼapplication quʼelle fournissait, tout en subissant une pression croissante pour sécuriser une économie numérique en pleine croissance. Une grande partie de lʼéconomie mondiale étant désormais fortement tributaire dʼapplications centrées sur le commerce, les services de sécurité sont rapidement devenus un élément complémentaire essentiel des fournisseurs de CDN, dont la présence dans le monde entier permet dʼêtre plus proche de lʼutilisateur (et donc de résoudre les menaces plus rapidement) que le cloud et le centre de données traditionnel. Ces services ont été construits sur lʼinfrastructure mise en place pour distribuer le contenu et représentent donc des environnements fermés et propriétaires.

Troisième vague : Edge 2.0

Aujourdʼhui, les applications ne sont plus les destinations « passives » du réseau de distribution, mais des participants actifs. Par exemple, avec les applications distribuées basées sur Kubernetes, la logique applicative (empaquetée dans un conteneur) peut se déplacer dynamiquement vers nʼimporte quel emplacement de calcul approprié avec une stack Kubernetes. Cʼest un contraste direct avec les principes dʼarchitecture sur lesquels les premières solutions de périphérie ont été construites. En dʼautres termes, elles sont issues dʼune époque où les contenus (ou les applications) étaient des entités statiques associées à des emplacements physiques. Ces solutions d'Edge supposent que le réseau de diffusion de contenu seul fonctionne comme une « plate-forme intelligente » pour connecter les utilisateurs aux applications, tandis que les applications (et les utilisateurs) restent des « points dʼextrémité » passifs de la « plate-forme intelligente ». Cette approche nʼest plus le meilleur moyen architectural de connecter les utilisateurs au contenu ou aux applications.

Les utilisateurs, eux aussi, ont évolué. Non seulement leur sophistication numérique et leur appétit pour lʼengagement numérique sont à des années-lumière de ce quʼils étaient lorsque le premier CDN a vu le jour en 1998, mais la technologie a imposé un changement dans la définition de ce quʼils sont. Aujourdʼhui, un « utilisateur » peut très bien être une machine, un script ou un service automatisé agissant pour le compte dʼun humain. Il peut sʼagir dʼun capteur recueillant des données critiques dans une usine de fabrication ou un champ agricole. Dʼune part, ces « utilisateurs » continuent de porter les désirs de rapidité, de sécurité et de confidentialité de leurs homologues humains. Dʼautre part, ces nouveaux « utilisateurs » (des terminaux IoT intelligents dotés de stack d'applications intégrées) participent souvent au traitement dynamique de la logique applicative et de lʼanalyse des données afin dʼoffrir aux utilisateurs des expériences numériques sécurisées et optimales.

Lʼémergence de l’Edge 2.0

Les principaux défis applicatifs que l'Edge a permis de relever (vitesse, puis sécurité) existent toujours aujourdʼhui. Ce qui a changé, cʼest la définition de lʼapplication (dʼune instance statique résidant dans un endroit fixe à des conteneurs « mobiles »), de lʼutilisateur (dʼun utilisateur humain à un « objet » intelligent), de lʼemplacement (dʼune adresse IP à une identification logique) et des cas dʼusage que l'Edge vise à prendre en charge (de la fourniture de contenu à la distribution dynamique dʼapplications et à la prise de décision en temps réel à l'Edge).

La transformation numérique et lʼIoT entraînent de nouvelles exigences en matière dʼexpériences numériques qui se traduisent par le besoin de distribution dʼapplications, dʼintelligence en temps réel et de prise de décision à lʼEdge. À ce titre, lʼEdge computing devient un catalyseur essentiel de la transformation numérique dans lʼindustrie. Selon le rapport 2021 State of Application Strategy7, 76 % des organisations ont mis en œuvre ou planifient activement des déploiements à l'Edge, lʼamélioration des performances des applications et la collecte de données/la mise en œuvre dʼanalyses étant les principaux moteurs.

En outre, un nombre considérable d’« objets » ont été incorporés dans le dernier cycle de transformation numérique. Le rapport annuel de Cisco sur lʼInternet8 prévoit que « dʼici 2023, il y aura sur Terre plus de trois fois plus d'équipements en réseau que dʼêtres humains. Environ la moitié des connexions mondiales seront des connexions de machine à machine et lʼespace M2M sera dominé par des “objets” orientés vers le consommateur dans les maisons et les automobiles intelligentes ». En raison de la séparation passée de lʼinformatique et de lʼOT (technologie opérationnelle), bien que le cloud computing ait entraîné une grande augmentation de la puissance de calcul, lʼajout d’« objets » introduit toujours des défis pour lʼarchitecture du réseau dans le cadre du modèle de cloud. Dans lʼenvironnement IoT mobile de lʼère Edge 2.0, les technologies de lʼinformation et les technologies opérationnelles convergeront et disposeront de capacités de détection et dʼautomatisation intelligentes plus puissantes. En dʼautres termes, outre le traitement centralisé des données rendu possible par le cloud computing, la périphérie du réseau rassemblera une multitude dʼappareils et de données et fournira une puissance de calcul considérable à proximité du point final, libérant ainsi une grande valeur commerciale.

Pour que les entreprises puissent tirer parti de l'Edge 2.0 et en récolter les fruits, elles auront notamment besoin dʼune plateforme de distribution dʼapplications centrée sur la distribution globale des applications et fondée sur un ensemble différent de principes de conception technologique.

Une plateforme de distribution dʼapplications Edge 2.0 doit reposer sur les principes de conception clés suivants :

Plan de contrôle unifié
  • Pour une plateforme de distribution dʼapplications Edge 2.0, l'« Edge » peut être nʼimporte quel environnement physique ou logique allant des points dʼextrémité des utilisateurs aux clouds publics. Un plan de contrôle unifié des applications garantit la définition commune des politiques de sécurité, des politiques de localisation des données et de la gestion de lʼidentité des utilisateurs dans les différents environnements et en assure lʼexécution via lʼintégration aux outils dʼautomatisation et dʼorchestration.
Orienté application
  • Une plateforme de distribution dʼapplications Edge 2.0 sʼintégrera pleinement aux outils de gestion du cycle de vie des applications. Les politiques de sécurité des applications, les politiques de localisation des données, la gestion des identités et lʼorchestration des ressources sont « déclarées » via le plan de contrôle unifié et appliquées dans tout environnement dans lequel la plateforme sʼexécute. L'Edge devient une « propriété déclarée » de lʼapplication cible (ce qui fait que chaque application a son propre Edge « personnalisé ») et est « exécuté » par la plateforme sans besoin de provisionnement manuel. Les développeurs peuvent simplement se concentrer sur la logique de lʼapplication, les interactions avec lʼapplication (API) et les flux de travail sans se soucier de la gestion de lʼinfrastructure ou des emplacements.
Sécurité distribuée intégrée à la plateforme
  • Dans une plateforme de distribution dʼapplications Edge 2.0, les politiques de sécurité des applications sont définies de manière commune via le plan de contrôle unifié. Elles sont distribuées pour être appliquées dans chaque environnement dans lequel lʼapplication est exécutée. Les capacités de sécurité intégrées directement dans la plateforme (par exemple, le cryptage et la détection des bots) permettent à ces fonctions de sécurité de se déplacer par défaut avec lʼapplication.
Traitement des données distribuées et analyse embarquée
  • Une plateforme de distribution dʼapplications Edge 2.0 devient une Fabric globale pour la logique applicative et une Fabric globale pour le traitement et lʼanalyse des données. Tout service numérique nécessite à la fois des données et une logique applicative, mais lʼemplacement de stockage, de traitement et de transformation des données ne devrait pas être le même que celui de la logique applicative. Lʼemplacement des données doit être spécifié indépendamment comme un ensemble de politiques au niveau de la plateforme déterminées par des facteurs tels que l'importance des données, les réglementations (PCI, RGPD et autres) et le rapport prix/performance du traitement. Comme les politiques de sécurité, les politiques de localisation des données devraient être « déclarées » par les utilisateurs via le plan de contrôle unifié et appliquées par la plateforme dans nʼimporte quel environnement. Une plateforme Edge 2.0 a un rôle à jouer dans dʼautres politiques de gestion des données, telles que le data lineage — le stockage de détails sur les données sous forme dʼattributs intégrés — en plus de disposer dʼun ensemble de capacités opérationnelles intégrées pour lʼobservabilité, le flux de télémétrie, les outils ML et les services ETL.
Software-Defined Elastic Edge
  • Pour une plateforme de distribution dʼapplications Edge 2.0, l'« Edge » nʼest plus définie par des points de présence physiques dans des lieux spécifiques. Au contraire, il est définie dynamiquement par le plan de contrôle Edge 2.0 sur des ressources qui existent partout où le client le souhaite : dans des clouds publics, des hyperviseurs, des centres de données ou des clouds privés, ou même des machines physiques dans des lieux « distants » propres à leur activité. Les capacités du réseau de connexion sont également fournies de manière définie par logiciel, superposées à lʼinfrastructure WAN privée ou publique, sans effort herculéen à assembler et à configurer. Il répondra à la « déclaration dʼintention » de lʼapplication cible en fournissant un Edge élastique personnalisé et défini par logiciel à la demande de lʼapplication. L’« Edge » — et tout ce quʼil établit pour lʼapplication dans le cadre de cette déclaration — deviendra une propriété simple et facile à utiliser de lʼapplication.
Harware-Optimized Compute
  • Les progrès réalisés dans les technologies de processeurs et de jeux de puces, notamment les GPU, DPU, TPU et FPGA, dont les capacités et les possibilités sont en train dʼémerger, ont permis à lʼinformatique spécialisée dʼoptimiser de manière significative lʼutilisation des ressources pour des types de charges de travail spécifiques. Une plateforme de distribution dʼapplications Edge 2.0 sʼinterfacera avec les systèmes qui possèdent ce matériel spécial pour cibler, recevoir et exécuter des workloads applicatifs spécifiques qui bénéficieraient de cette assistance. Par exemple, elle trouvera et configurera les ressources GPU pour les workloads ayant des besoins importants en ML/AI ou localisera et intégrera un DPU pour les services spéciaux de sécurité et de mise en réseau dont une application a besoin. La prise en compte du matériel dans une plateforme de distribution dʼapplications Edge 2.0 offre des avantages fascinants pour la création de « systèmes industriels » intelligents orientés vers des applications spéciales et donc des possibilités illimitées pour établir des solutions IoT attrayantes où le traitement en temps réel est nécessaire localement. Par exemple, une station de recharge pour véhicules électriques peut servir de point dʼagrégation de données pour les quantités importantes de données générées par les capteurs du véhicule, ou un véhicule autonome fonctionnant sous Android peut se comporter comme un centre de données mobile exécutant des autodiagnostics continus assistés par le matériel.

Naviguez sur la troisième vague de lʼInternet grâce à la fourniture dʼapplications innovantes

Lʼintelligence distribuée et en temps réel permise par la plateforme dʼapplications Edge 2.0 jouera un rôle central dans le monde numérique de demain. Pour la plupart des entreprises, cela signifie quʼelles doivent réimaginer leurs modèles de fourniture dʼapplications. La fourniture actuelle dʼapplications et de services sʼarticule autour dʼun modèle centralisé où la logique applicative est centralisée. La logique applicative est hébergée dans le cloud public ou dans des centres de données privés. À lʼère dʼEdge 2.0, lʼinfrastructure, les données et lʼarchitecture des applications seront davantage distribuées et adopteront des approches de type « peer-to-peer ». Toutefois, nous envisageons cette transition comme une évolution, cʼest-à-dire une augmentation, des technologies actuelles de fourniture dʼapplications, plutôt que comme une révolution.

Avec des années dʼexpérience dans la sécurité des applications multi-cloud et la technologie de fourniture d'applications (ADC), F5 a toujours répondu aux besoins des applications, lʼactif principal de lʼorganisation à lʼère numérique. À lʼère de l'Edge 2.0, l'Edge passe dʼun modèle fermé à un modèle ouvert. Avec lʼacquisition récente de Volterra, F5 est dans une position idéale pour diriger la création de ce paradigme de distribution dʼapplications Edge 2.0.

Aujourdʼhui, toutes les industries accélèrent leur parcours de transformation numérique. Nous savons que le déploiement à l'Edge sʼinscrit progressivement dans la stratégie applicative de nos clients, et nous sommes impatients de travailler avec eux pour naviguer sur cette nouvelle vague de lʼInternet.