L’IA suscite beaucoup d’émotions. Pour certains, c’est juste une nouvelle mode vouée à disparaître, comme les NFT ou les téléviseurs 3D. D’autres se préparent à affronter des dirigeants AGI malveillants devenus conscients d’eux-mêmes. Au-delà de tous les excès, une réalité reste claire : L’IA repose sur une grande quantité de données.
Il y a beaucoup de battage médiatique autour de l'IA qui suscite l'enthousiasme, la peur ou le scepticisme des experts, mais chez F5, nous nous intéressons à ce que les praticiens du quotidien en pensent. Pour comprendre la réalité des défis et des préoccupations actuels, nous avons mené une analyse complète des sentiments de la plus grande communauté de professionnels de la sécurité sur Internet, r/cybersecurity de Reddit. Le blog de Shawn Wormke, première partie de cette étude, « Que pense SecOps de l'IA ? » résume les conclusions générales de cette étude. Toutes les citations proviennent directement des commentaires des professionnels de la sécurité entre juillet 2024 et juin 2025. Ici, nous allons approfondir la principale préoccupation liée à l’IA de l’année : la sécurité des données.
La sécurité des données est devenue la priorité numéro un liée à l’IA en 2025, et l’attaque DeepSeek de janvier n’a fait qu’accélérer cette dynamique.
Beaucoup imaginent un paysage des menaces liées à l’IA où des individus malveillants exploitent l’IA pour mener des attaques d’ingénierie sociale sophistiquées et lancer des flottes de bots intelligents. Ces menaces existent réellement, mais les professionnels de la sécurité décrivent une réalité bien plus naïve, tout autant dangereuse et largement plus répandue. En effet, les équipes SecOps s'inquiètent 2,3 fois plus fréquemment des usages abusifs internes de l’IA que des abus malveillants .
Cela touche au cœur du premier problème : les divulgations sensibles. Comme l’a résumé un professionnel, « Soyons francs, tout le monde utilise des LLM au travail et fait passer toutes sortes d’informations sensibles dans les prompts. » Avec l’agrandissement des fenêtres contextuelles des modèles et l’arrivée de nouveaux types de fichiers compatibles avec la génération augmentée par récupération (RAG), les employés ont compris que la façon la plus rapide d’obtenir un résultat informé consiste à fournir au LLM toutes les informations dont il pourrait avoir besoin. Cela contredit directement le principe du moindre privilège, pierre angulaire du zero trust. En clair, « il existe toujours une tension entre sécurité et performance ».
La plupart des organisations sécurisent l’IA en établissant une politique d'utilisation acceptable (AUP). De nombreuses stratégies existent, mais l’opinion générale est que les méthodes traditionnelles de dissuasion et de restriction ne suffisent pas.
Comme le dit un utilisateur, les outils traditionnels tels que les pare-feu applicatifs web (WAF) et le filtrage DNS ne font que retarder l’inévitable : « En les bloquant, vous contraignez en fait vos données à passer par ces services gratuits. Le combat contre les listes noires restera toujours un jeu sans fin. » Cela soulève l’un des défis majeurs de l’année écoulée : l’IA fantôme. De nouveaux modèles sont lancés chaque jour, et des ajustements sur ces modèles sont codés toutes les heures. Les utilisateurs trouveront toujours des moyens de contourner les politiques qu’ils perçoivent comme des barrières à la réussite de leurs priorités.
Ces deux principales préoccupations concernant l’IA fantôme et les fuites de données sensibles créent pour vous un scénario cauchemardesque : une exposition massive sans aucune visibilité. Vous pouvez utiliser des LLM grand public pour gagner du temps de lecture, tout en risquant de télécharger des documents confidentiels. Avec une solution d’IA fantôme, votre équipe SecOps peut surveiller ces échanges et appliquer plusieurs mesures pour réduire les risques. Vous pouvez surveiller de près les utilisateurs concernés pour leurs prochaines interactions, voire leur bloquer l’accès aux ressources critiques jusqu’à ce que leur comportement évolue. Sans IA fantôme, les mesures classiques comme les pare-feu et le blocage DNS ne font que déplacer les utilisateurs vers des environnements opaques basés sur les mêmes modèles, ce qui masque toute visibilité sur la nature, la forme et la localisation des comportements à risque.
Face à des normes de conformité de plus en plus strictes comme la loi européenne sur l’IA et le règlement général sur la protection des données (RGPD), s’ajoutant aux réglementations sectorielles, vous prenez le risque d’amendes sévères, de responsabilités légales et de perte de confiance publique sans une gouvernance solide des données d’IA.
Les professionnels de la sécurité ont souvent connu des technologies où l’enthousiasme et la quête de capacité compétitive ont pris le pas sur les enjeux de sécurité. Le cloud computing a suivi une trajectoire similaire à celle de l’IA aujourd’hui : une adoption rapide, la promesse de nouvelles opportunités, puis des erreurs de configuration fréquentes, un accès excessif et l’échec du modèle de responsabilité partagée. Cela vous parle ? La différence essentielle réside dans le fait que le cloud comptait un nombre limité d’acteurs capables d’augmenter le risque global. Avec la sécurité de l’IA, le champ d’attention s’élargit : il ne se limite plus aux architectes et ingénieurs cloud, mais concerne désormais toute personne ayant accès à des données sensibles, y compris les modèles eux-mêmes.
Aucune technologie n’a jamais été déployée sans comporter un certain niveau de risque, et jamais le monde n’a dit collectivement : « Trop risqué, arrêtons tout immédiatement. » Vous comprenez que la route devant vous, en tant que professionnel de la sécurité, est à la fois importante et exigeante.
Vous assurer que les interactions de l’IA avec les données bénéficient de garde-fous efficaces et d’une observabilité constante représente un défi, mais c’est indispensable tant que l’adoption de l’IA continue à ce rythme.
F5 agit déjà concrètement pour relever ces défis, et nous continuerons à faire appel aux experts SecOps pour guider nos priorités. Découvrez-en davantage ici.