Nous traversons une transformation profonde dans notre compréhension de la technologie et de son fonctionnement, touchant plusieurs aspects. Pour comprendre comment les organisations s'adaptent à ces évolutions, F5 a collaboré avec SlashData, une société de recherche de marché reconnue spécialisée dans la technologie, afin d'interroger des centaines de responsables et praticiens en informatique, sécurité et développement logiciel issus de divers secteurs et régions.
Les participants étaient des utilisateurs des projets open source NGINX, de NGINX Open Source, ainsi que des produits commerciaux F5 NGINX. Ce que nous avons appris confirme l'urgence ressentie par les organisations qui veulent agir rapidement sur la conteneurisation, la sécurité, les plateformes de développement et l’IA. Voici les résultats clés de notre enquête annuelle NGINX 2025.
F5 NGINX s'est imposé comme la porte d'entrée incontournable pour l'infrastructure d'IA, les principaux fournisseurs de matériel et de logiciels IA l'adoptant comme leur proxy inverse principal ou recommandé et contrôleur de livraison pour les applications d'IA. Notre enquête montre que les utilisateurs de NGINX – ainsi que la communauté plus large de distribution d’applications – prennent de l’élan pour construire un avenir orienté vers l’IA.
Utilisation des agents IA : Quand nous avons interrogé sur l’engagement dans les tâches d’IA agentique (voir Figure 1), les participants ont indiqué que « Configurer NGINX » bénéficiait du taux d’adoption actuel le plus élevé avec 25 %, suivi de près par « optimisation du trafic réseau et équilibrage de charge » à 24 %. « Déploiement et montée en charge des infrastructures » ainsi que « correction des vulnérabilités de sécurité » sont déjà utilisés par 23 % des répondants.
Engagement global : En regroupant les réponses des utilisateurs et expérimentateurs actuels de l'IA agentique, l’« analyse des journaux et dépannage proactif » arrive en tête avec 48 %. La « configuration de NGINX » et le « déploiement et la montée en charge de l’infrastructure » sont ex aequo à 46 %, suivis par « l’optimisation du trafic réseau » à 45 %.
Intérêt futur le plus marqué : La « détection et correction des dérives » suscite le plus d’intérêt avec 33 %, suivie par la « surveillance des déploiements NGINX » à 32 % et par « l’alerte et la gestion des incidents » à 31 %.
Matériel spécialisé : 25 % des personnes interrogées exécutent des charges de travail sur des GPU, TPU ou FPGA, ce qui est remarquable pour une infrastructure traditionnellement orientée vers le calcul général (voir figure 2). Nous pensons que cette tendance va continuer de croître grâce à plusieurs facteurs clés : l’amélioration des modèles d’IA plus légers, la simplicité d’exécution de ces modèles dans des environnements cloud natifs comme Docker et les hyperscalers, ainsi que le transfert des processus de distribution applicative (comme le chiffrement et la décharge SSL vers les NPU et FPGA, l’inférence IA déployée sur GPU et TPU, etc.).
Principaux obstacles : Les répondants ont indiqué que les préoccupations en matière de sécurité (26 %) et le manque de confiance dans la précision (24 %) constituent les principaux freins à l’intégration de l’IA. La complexité d’intégration, les contraintes réglementaires et une compréhension limitée des capacités des agents arrivent toutes à 17 %.
La révolution cloud native continue de s'accélérer, plus de dix ans après ses débuts avec les conteneurs et Kubernetes. Bien que l’adoption soit presque généralisée pour les principaux aspects du cloud native, leur pleine intégration reste encore à venir (voir Figure 3).
Notre enquête a révélé les points suivants :
Au cours de la dernière décennie, de nombreuses organisations technologiques ont adopté les API comme principal mode de connexion pour leurs opérations internes et externes. Dans une architecture cloud natif, API-first représente un principe de conception central. Ainsi, 86 % des répondants déploient des passerelles API pour gérer leurs infrastructures API (voir Figure 4).
Malgré une adoption massive des API et la présence établie des passerelles API, la plupart des organisations n'ont pas encore développé de pratiques solides en matière de sécurité des API (voir Figure 5). Bien que 86 % d'entre vous utilisent des API, seulement 34 % ont mis en place une sécurité des API efficace. Cette situation crée une exposition importante dans votre infrastructure applicative moderne.
Moins de la moitié des répondants se concentrent sur l’analyse du trafic API (43 %) et l’observabilité (38 %), deux éléments clés de la sécurité des API. Ce déficit reflète sans doute les difficultés à surveiller et gérer les API dans leur ensemble. En réalité, 23 % des répondants appliquent des méthodes différentes de gestion des API selon les équipes, une fragmentation qui traduit les défis pour aligner toute l’organisation sur la “voie royale” classique de gestion des API.
L’ingénierie des plateformes est devenue un terme courant dans le grand public. En réalité, 65 % des répondants ont déjà commencé à intégrer des capacités et responsabilités liées à l’ingénierie des plateformes (voir figure 6). Cela concerne aussi bien les grandes organisations avec des équipes dédiées qu’un seul membre agissant comme responsable de l’ingénierie des plateformes. Près de 27 % disposent de petites équipes d’ingénierie des plateformes, tandis que 21 % ont un rôle individuel au sein des équipes de développement et d’exploitation. 13 % supplémentaires gèrent de larges équipes dédiées à cette fonction. Il est donc évident que la valeur apportée par l’ingénierie des plateformes s’est largement diffusée et imposée.
Cela dit, toutes tailles d’équipe confondues, les réponses à nos questions sur les défis de la plateforme montrent des difficultés en phase initiale. Seuls 20 % des participants affirment ne rencontrer aucun défi majeur. Les autres signalent que divers défis d’ingénierie de la plateforme affectent activement leurs organisations, notamment la sécurité et la conformité (18 %), la maintenance de la documentation (16 %), la mise à jour technologique (16 %) et les contraintes de ressources (14 %).
L’enquête met en lumière une différence claire entre les grandes et les petites équipes quant à leurs priorités en matière de prestation de services et de proposition de valeur. Sans surprise, les grandes équipes se concentrent sur des domaines plus avancés, tandis que les petites adoptent un focus plus traditionnel typique du DevOps. Les grandes équipes dédiées à l’ingénierie des plateformes offrent généralement des services sophistiqués comme la base de données en tant que service (54 %), l’observabilité (52 %), la gestion des API (51 %), la configuration et la gestion des pare-feu (54 %), ainsi que les outils pour pipelines CI/CD (50 %).
Les entreprises déploient les technologies plus rapidement qu’elles ne peuvent les gérer. L’enquête révèle que vous êtes nombreux à vouloir adopter les conteneurs, les API et l’ingénierie des plateformes, mais que vous n’êtes pas encore prêts à sécuriser et exploiter ce que vous développez. Le plus grand échec concerne la sécurité des API. Presque toutes les organisations utilisent des API, pourtant deux tiers ne disposent pas de protections élémentaires. Ce n’est pas un risque à venir ; c’est une vulnérabilité active qui opère déjà en production.
Pendant ce temps, vous voyez de réels progrès dans des domaines précis. Les agents d’IA sont prêts à prendre en charge des tâches d’infrastructure à grande échelle, au-delà des simples démonstrations. Les GPU et processeurs spécialisés s’imposent comme la norme. La plupart des organisations disposent d’équipes d’ingénierie de plateforme, même si elles définissent encore leur rôle.
Ce qui compte aujourd’hui, c’est la rigueur dans l’exécution. Que vous recommandons-nous ? Ne déployez pas de nouvelles capacités tant que vous ne maîtrisez pas pleinement celles déjà en place. Uniformisez vos pratiques de sécurité et de gestion des API. Mettez en place l’observabilité nécessaire pour saisir le fonctionnement de vos systèmes. Confiez aux équipes plateformes des responsabilités claires et les moyens pour les assumer.
La technologie permet de créer une infrastructure moderne et performante. Il est temps d’accomplir le travail indispensable, même s’il manque de glamour, pour garantir sa sécurité et sa durabilité.
Pour en savoir plus sur les produits F5 NGINX, consultez notre site web.