À l'été 2024, le fondateur et PDG de Nvidia, Jensen Huang, a déclaré qu'« un nouveau type d'usines d'IA de centres de données produit un nouveau produit : l'intelligence artificielle ». Alors, envisageons l’IA comme s’il s’agissait d’un produit physique. Cela évoque des images du complexe River Rouge de Ford, une incarnation de l’intégration verticale et de l’industrialisation. Le fer et le caoutchouc entraient d'un côté, les automobiles Ford sortaient de l'autre. Doté de ses propres quais, de 160 kilomètres de voies ferrées intérieures, d'une centrale électrique dédiée et même de ses propres usines intégrées d'acier, de verre et de papier, The Rouge fonctionnait 24 heures sur 24 et produisait près de 1,5 million de voitures par an.
De même, les usines d’IA d’aujourd’hui et de demain qui fournissent des modèles d’entraînement et d’inférence à haut volume et à haute performance ingèrent des quantités massives d’ingrédients bruts. À savoir, les données. Structuré, non structuré, vidéo, texte et au-delà. Ces usines transforment ces données en sorties tokenisées qui peuvent être exploitées dans une myriade d’applications. Et tout comme The Rouge Complex avait besoin d’un contrôle précis sur chaque étape de la production, les charges de travail de l’IA nécessitent des systèmes de gestion du trafic robustes pour gérer l’ingestion, le traitement et la livraison des données – en un mot : la logistique. Les bonnes solutions de gestion du trafic donnent aux usines d’IA la capacité de prélever des matières premières sur le terrain et de les rendre utilisables. Avec les bons outils logistiques en place, les équipes peuvent garantir un flux de données fluide, un débit élevé, une faible latence et une sécurité comparables au bon fonctionnement d'une chaîne de montage à chaque étape.
En 2020, la Harvard Business Review a décrit comment Ant Group, filiale d'Alibaba, crée des renseignements exploitables à partir de son usine d'IA pour « gérer une variété d'entreprises, servant [plus de] 10 fois plus de clients que les plus grandes banques américaines, avec moins d'un dixième du nombre d'employés ». La façon dont Ant Group conceptualise la construction d'une usine d'IA est tout aussi convaincante :
« Quatre composants sont essentiels à chaque usine. Le premier est le pipeline de données, le processus semi-automatisé qui collecte, nettoie, intègre et protège les données de manière systématique, durable et évolutive. Le deuxième est celui des algorithmes, qui génèrent des prédictions sur les états ou les actions futurs de l’entreprise. La troisième est une plateforme d’expérimentation, sur laquelle des hypothèses concernant de nouveaux algorithmes sont testées pour garantir que leurs suggestions ont l’effet escompté. Le quatrième est l’infrastructure, les systèmes qui intègrent ce processus dans les logiciels et le connectent aux utilisateurs internes et externes. »
Plus tôt dans notre série sur les usines d’IA , F5 a défini une usine d’IA comme un investissement massif en matière de stockage, de réseau et de calcul répondant à des exigences de formation et d’inférence à haut volume et à hautes performances. C'est pourquoi les premier et quatrième éléments de la liste d'Ant Group sont particulièrement intrigants : le défi d'établir les systèmes nécessaires pour gérer de manière sûre et efficace les données ingérées par les modèles d'IA met en avant la question de savoir comment les usines d'IA devraient développer l'infrastructure qui les entoure pour produire de la valeur.
La gestion du trafic pour l'ingestion de données d'IA est le processus incessant par lequel le trafic de données d'IA riches en médias et comportant plusieurs milliards de paramètres est géré et transporté dans une usine d'IA à des fins d'apprentissage automatique et de formation. C’est là qu’une solution de gestion du trafic haute performance entre en jeu pour acheminer ce trafic vers l’usine d’IA. Sans une telle solution, les équipes peuvent rapidement se retrouver dans l'obligation de réutiliser des connexions pour maintenir le trafic ou d'atteindre les limites de l'infrastructure de stockage, ce qui n'est pas idéal pour les besoins de transport de données à haute capacité et à faible latence que les usines d'IA exigent pour fonctionner à leur rythme et à leur échelle souhaités et optimisés .
Gestion du trafic de données d'IA circulant vers, à travers et entre les usines d'IA.
Mais le rythme des progrès dans ce domaine est loin d’être stagnant. Les modèles d’IA de plus en plus complexes nécessitent des quantités de données de plus en plus importantes à des fréquences croissantes. Cela introduit un défi en matière de gravité des données, car le placement des données dans un cloud ou sur site est très important dans un modèle d’IA. Une usine d’IA conçue pour résister à l’attraction gravitationnelle des demandes de données d’IA du futur a besoin d’une infrastructure capable d’évoluer pour répondre aux exigences d’une compréhension plus rapide des données qu’elle reçoit. L’infrastructure de l’usine d’IA peut en fin de compte faire ou défaire le succès et la valeur commerciale du modèle d’IA qu’elle prend en charge. Cette croissance rapide de la consommation de médias riches peut augmenter considérablement le trafic réseau et les coûts associés si elle est traitée par certains fournisseurs de cloud. Les entreprises confrontées à cette situation sont donc confrontées à un double défi : maintenir le débit de données à haut débit requis pour des modèles d’apprentissage de l’IA efficaces et gérer les complexités et les dépenses liées au transit et au traitement des données dans le cloud.
Un examen minutieux des quatre types de déploiement d’usines d’IA décrits dans l’article initial sur les usines d’IA (IA-SaaS, hébergée dans le cloud, auto-hébergée ou hébergée en périphérie) peut aider les entreprises à gérer ces complexités en éliminant ou en réduisant la dépendance à la bande passante du cloud. Le traitement local des données élimine non seulement la question de la bande passante du cloud de l’équation. Il offre également un contrôle total sur les ensembles de données de formation sensibles. Cela facilite à son tour le respect des exigences réglementaires (par exemple, GDPR, HIPAA ou PCI DSS), car les organisations peuvent contrôler la manière dont les données sont stockées, consultées et traitées, tout en minimisant l'exposition des données en conservant les informations sensibles au sein du réseau sécurisé d'une organisation.
Le trafic de données IA et le trafic d'application interagissent avec F5 BIG-IP Local Traffic Manager (LTM) et les solutions matérielles de nouvelle génération de manière similaire. Cela signifie que, tout comme l’optimisation des flux de trafic d’applications traditionnels, les équipes peuvent optimiser leurs flux de trafic de données IA avec des outils tels que le profil FastL4 , augmentant ainsi les performances et le débit du serveur virtuel. Ils peuvent exploiter les optimisations TCP pour affiner la manière dont les systèmes gèrent les connexions TCP, essentielles aux performances du réseau. Ils peuvent même déployer OneConnect de BIG-IP, augmentant ainsi le débit du réseau en gérant efficacement les connexions créées entre leurs systèmes BIG-IP et les membres du pool back-end. Les organisations à la recherche d’une solution pour répartir le trafic de données d’IA entre les usines d’IA n’ont pas besoin de chercher bien loin pour en trouver une. F5 développe des outils pour optimiser la gestion du trafic des applications depuis plus de deux décennies, ce qui rend BIG-IP LTM idéal pour gérer le trafic d'ingestion de données IA.
Les applications d’IA sont les plus modernes des applications modernes. Sans une solution de gestion du trafic robuste et polyvalente, les données utilisables stagnent sur le terrain et la valeur qu’un modèle d’IA peut en tirer s’évapore. La Rouge avait ses quais et ses kilomètres de voies ferrées, les usines d'IA ont des solutions F5 comme BIG-IP.
L'accent mis par F5 sur l'IA ne s'arrête pas là : découvrez comment F5 sécurise et fournit des applications d'IA partout .
Vous souhaitez en savoir plus sur les usines d’IA ? Découvrez d’autres articles de notre série de blogs sur l’usine d’IA :