Avec les nouvelles technologies, il est facile de s’enthousiasmer. Vous gardez sûrement en mémoire la première fois que vous avez utilisé une invite LLM, un navigateur web, ou cette idée incroyable que vos données vivent dans un « cloud ». À chaque innovation, une équipe de professionnels de la sécurité travaille à vous permettre d’utiliser ces avancées en toute sécurité. Il est facile de se laisser entraîner par les gros titres et les promesses de l’IA, mais en définissant le rôle de F5 dans la sécurité de l’IA, il est temps de faire une pause et de vous demander quel regard la communauté de la sécurité porte sur l’IA.
Parce que nous nous consacrons pleinement à nos clients chez F5, nous avons analysé chaque commentaire lié à l’IA de l’année écoulée (juillet 2024 – juin 2025) parmi les principaux membres de la plus grande communauté de professionnels de la sécurité sur internet, r/cybersecurity de Reddit. Nous avons classé chaque commentaire et utilisateur selon leurs sentiments et identifié les problèmes exprimés ou sous-jacents.
48 % des praticiens sont optimistes et l’intègrent déjà à leur stack, tandis que d’autres restent sceptiques ou appréhendent l’avenir.
La moitié des SecOps voit l'IA avec optimisme. Ils intègrent des outils d’IA dans leurs systèmes, automatisent les tâches répétitives et utilisent des assistants IA pour hiérarchiser les alertes.
« Je suis impressionné par sa capacité à identifier de nouveaux schémas d’intrusion. »
« L’IA est là pour durer, faites-en votre alliée, votre assistante. »
L'autre moitié reflète la crainte liée au défi de sécuriser les systèmes d'IA, ainsi que le doute que l'IA progresse significativement au-delà de ses avancées actuelles.
« IA = des applications que nous connaissons très peu, bâties sur des applications dont la sécurisation a été négligée depuis des décennies. »
La tension entre les besoins de données de l’IA et les principes fondamentaux de la cybersécurité place la sécurité des données au cœur du débat. Au début de l’année, c’était la principale préoccupation des professionnels de la sécurité, et elle a seulement gagné en intensité avec l’accélération de l’adoption de l’IA par les entreprises.
« Ce qui rend l’IA efficace, ce sont les données. Plus elle accède à des données, plus elle est performante. Ce modèle s’oppose directement à la sécurisation de l’accès aux données via des contrôles d’accès, la segmentation du réseau et le principe du moindre privilège. Si vous adoptez l’IA à grande échelle, vous devez supprimer de manière efficace plusieurs contrôles de sécurité qui bloqueraient son accès aux données. Les entreprises doivent aujourd’hui choisir : veulent-elles une IA performante OU veulent-elles garantir la sécurité ? »
Le principal problème qui émerge dans ce domaine est l’IA fantôme, c’est-à-dire l’interaction non autorisée des utilisateurs avec les systèmes d’IA. Peu importe où en est votre organisation dans l’adoption de l’IA, ce problème persiste à chaque étape de maturité.
La sécurité des données domine souvent la discussion, mais l’observabilité et la détection des anomalies restent les principales préoccupations en matière d’IA dans SecOps. Alors que les fournisseurs vantent ce que l’IA peut apporter aux flux de travail de sécurité, vous ressentez l’urgence de trouver un équilibre : « Les agents de sécurité basés sur l’IA ont leurs limites, et l’humain doit toujours rester impliqué. » Un analyste a partagé son retour d’expérience sur l’automatisation par l’IA du triage L1 des alertes EDR, réduisant le MTTT de 45 minutes à moins de deux, tout en précisant : « cela n’a été possible qu’avec des garde-fous, encore des garde-fous, et toujours plus de garde-fous. » La demande est constante : assurez-vous une visibilité et une traçabilité continues des interactions avec l’IA, automatisez les tâches répétitives et réservez les décisions stratégiques aux humains.
« La meilleure façon de concevoir l’IA est d’imaginer que vos attaquants disposent de dizaines, voire de centaines de collaborateurs… Aujourd’hui, j’estime que les 5 % d’assaillants les plus performants ont amélioré leur efficacité de 50 à 300 %. » Ce n’est pas une menace théorique, mais un multiplicateur de force qui abaisse le seuil pour les opportunistes et élève l’exigence face aux acteurs de menace sophistiqués. Concrètement, on observe deux formes de ces évolutions : de nouvelles techniques d’IA adverses comme l’injection de commandes ou les attaques par jailbreak ciblant les systèmes IA, et une démocratisation malveillante des attaques d’ingénierie sociale telles que le phishing et les deepfakes. Les préoccupations liées à ces dernières s’intensifient à mesure que les modèles et agents s’intègrent à davantage d’outils et de données.
12 % supplémentaires des points sensibles ont indiqué que le comportement des modèles et la qualité de leurs résultats représentaient eux-mêmes un risque de sécurité. Les principales inquiétudes étaient les hallucinations, les écarts de précision et les résultats nuisibles, mais la plus critique restait l’escalade de privilèges — l’IA accédant à des données ou exécutant des tâches sans disposer des autorisations requises. C’est pourquoi SecOps réclame des garde-fous pragmatiques : une modération de contenu ajustée au risque métier, une conformité des politiques, et des autorisations précises pour les modèles et agents.
Entre les lignes, et parfois explicitement, les équipes de sécurité veulent que les fournisseurs atteignent un niveau d’exigence supérieur.
Donnez la priorité à la protection des données, adaptez la défense aux menaces adverses émergentes, faites de l’observabilité des interactions un fondement, et intégrez une gouvernance responsable de l’IA dès la conception. Nous continuerons à partager des retours d’expérience concrets, à publier des conseils pratiques que vos équipes de sécurité pourront appliquer, et à faire preuve de transparence sur nos méthodes de réduction des risques. Pour reprendre le propos sur une « IA sécurisée OU efficace », nous avons hâte de transformer ce « ou » en un « et ».
Nous avons entendu l'appel, voilà notre réponse.