Avec les nouvelles technologies, il est facile de s’enthousiasmer. Vous vous souvenez sûrement de la première fois que vous avez utilisé un grand modèle de langage (LLM), un navigateur web, ou de cette idée incroyable que vos données résident dans un « cloud ». Cependant, chaque innovation rassemble une équipe de professionnels de la sécurité qui trouve comment vous permettre de les utiliser en toute sécurité. On se laisse parfois emporter par les gros titres et les promesses de l’IA, souvent nombreuses, mais en définissant le rôle que F5 jouera dans la sécurité de l’IA, nous avons choisi de prendre du recul pour savoir comment la communauté de la sécurité perçoit l’IA.
Parce que nous sommes obsédés par nos clients ici chez F5, nous avons analysé chaque commentaire lié à l'IA de l'année écoulée (juillet 2024 - juin 2025) parmi les principaux utilisateurs de la plus grande communauté de professionnels de la sécurité sur Internet, r/cybersecurity de Reddit . Nous avons classé chaque commentaire et chaque utilisateur dans des catégories de sentiments et extrait les points faibles exprimés ou sous-jacents pour chacun.
48 % des praticiens sont optimistes et l’intègrent déjà à leur stack, tandis que d’autres restent sceptiques ou appréhendent l’avenir.
La moitié des spécialistes SecOps se montrent optimistes à propos de l'IA. Ils utilisent des outils dotés d'IA dans leurs environnements, automatisent les tâches répétitives et s'appuient sur des assistants IA pour hiérarchiser les alertes.
L’autre moitié des commentaires exprimaient soit la crainte liée à la complexité de sécuriser les systèmes d’IA, soit le scepticisme sur la capacité de l’IA à progresser davantage.
La protection des données constitue la principale préoccupation des professionnels de la sécurité dans leurs commentaires sur r/cybersecurity de Reddit, suivie par l’observabilité/la détection d’anomalies et les attaques pilotées par l’IA.
La tension entre les besoins en données de l’IA et les principes fondamentaux de la cybersécurité place la sécurité des données au cœur des discussions. Elle est devenue la priorité majeure des professionnels de la sécurité en 2025 et s’est renforcée au rythme de l’adoption accélérée de l’IA par les entreprises.
Le principal problème dans ce domaine reste l'IA occulte, c'est-à-dire les interactions non autorisées des utilisateurs avec les systèmes d'IA. Peu importe si votre organisation débute ou a déjà une solide expérience avec l'IA, cette problématique persiste à tous les stades de maturité.
La sécurité des données domine souvent la discussion, mais vous devez aussi accorder une grande importance à l'observabilité et à la détection des anomalies, qui restent des priorités majeures en IA pour SecOps. Alors que les fournisseurs mettent en avant ce que l’IA peut apporter aux processus de sécurité, vous devez chercher un équilibre indispensable : « Les agents de sécurité basés sur l’IA ont leurs limites, et il faut toujours un humain dans la boucle. » Un analyste a raconté comment l’IA lui a permis d’automatiser le triage L1 des alertes EDR, réduisant le temps moyen de résolution de 45 minutes à moins de deux, mais il a ajouté : « ce progrès ne s’est pas fait sans des garde-fous stricts, encore et encore. » La demande est claire : vous devez assurer une visibilité et une traçabilité permanentes des interactions avec l’IA, automatiser les tâches répétitives, tout en réservant les décisions stratégiques à l’humain.
Ce n’est pas une menace théorique, mais un facteur qui renforce la position des opportunistes tout en augmentant celle des acteurs de menace sophistiquée. Dans les faits, on parle de ces changements sous deux formes : de nouvelles techniques d’IA adversaires telles que l’injection de requêtes ou les attaques de jailbreak visant les systèmes d’IA, et une démocratisation toxique des attaques d’ingénierie sociale comme le phishing et les deepfakes. Les inquiétudes à ce sujet grandissent d’autant plus que les modèles et agents s’intègrent à de plus en plus d’outils et de sources de données.
12 % supplémentaires des points sensibles ont identifié le comportement des modèles et la qualité de leurs résultats comme un risque de sécurité. Les principales préoccupations portaient sur les hallucinations, les lacunes de précision et les sorties nuisibles, mais ce qui prime, c’est l’escalade de privilèges : l’IA accédant à des données ou exécutant des tâches sans en avoir l’autorisation. C’est pourquoi SecOps réclame des garde-fous concrets : une modération du contenu adaptée au risque métier, une cohérence des politiques et des permissions claires pour les modèles et agents.
En lisant entre les lignes, et parfois même à mots ouverts, vous remarquerez que les équipes de sécurité attendent des fournisseurs un niveau d’exigence supérieur :
Donnez la priorité à la protection des données, adaptez la sécurité face aux menaces adverses émergentes, faites de l’observabilité un pilier de toutes les interactions et intégrez une gouvernance responsable de l’IA dès la conception. Nous continuerons à vous transmettre des enseignements issus de tests sur le terrain, publier des recommandations concrètes pour vos équipes de sécurité, et cultiver la transparence sur nos méthodes de réduction des risques.
En revenant au commentaire Reddit sur une IA sécurisée OU efficace, nous avons hâte de transformer ce « ou » en « et ».
Nous avons répondu à l'appel : voici notre solution.