Com tecnologia nova, é fácil se empolgar. Você certamente lembra da sensação do primeiro prompt do LLM, da primeira vez que usou um navegador, dessa ideia maluca de que seus dados vivem na “nuvem”. Mas toda nova inovação traz uma equipe dedicada de profissionais de segurança para garantir que todos usem essas tecnologias com segurança. É fácil se prender a manchetes e possibilidades futuras, que na IA não faltam, mas, ao definir o papel da F5 na segurança de IA, decidimos dar um passo atrás e perguntar: como a comunidade de segurança vê a IA?
Como somos obcecados por nossos clientes aqui na F5, analisamos todos os comentários relacionados à IA do ano passado (julho de 2024 a junho de 2025) entre os principais usuários da maior comunidade de profissionais de segurança da internet, o r/cybersecurity do Reddit. Classificamos cada comentário e usuário em categorias de sentimentos e extraímos pontos problemáticos expressos ou subjacentes para cada um.
48% dos profissionais estão otimistas e já usam essa tecnologia em suas estruturas, enquanto o restante ainda é cético ou tem receio do que o futuro reserva.
Metade dos times de SecOps confia no potencial da IA. Eles aplicam ferramentas baseadas em IA em suas plataformas, automatizam tarefas repetitivas e usam assistentes de IA para priorizar alertas.
“Fico impressionado com a capacidade de identificar novos padrões de intrusão.”
“IA chegou para ficar, use-a como seu complemento, como seu assistente.”
A outra metade se divide entre o medo, ligado ao desafio de proteger sistemas de IA, e o ceticismo de que a IA avançará muito além do que já avançou.
“IA = Aplicações que entendemos muito pouco, construídas sobre aplicações que já falhamos em proteger por décadas”
A tensão entre as demandas de dados da IA e os princípios fundamentais da segurança cibernética colocou a segurança de dados no centro do debate. No início do ano, isso era a principal preocupação dos profissionais de segurança e só se intensificou conforme as empresas aceleraram a adoção da IA.
“ O que torna a IA eficaz são os dados. Quanto mais dados ele tiver acesso, mais eficaz ele será. Este modelo está em contradição direta com a proteção do acesso aos dados por meio de controles de acesso, segmentação de rede e princípio do menor privilégio. Qualquer pessoa que adote IA em escala precisa remover efetivamente muitos controles de segurança que impediriam o acesso do modelo de IA aos dados. As escolhas atuais para as empresas são : elas querem uma IA eficaz OU querem segurança ?
O principal desafio nesse campo é a shadow AI, ou seja, a interação não autorizada de usuários com sistemas de IA. Independentemente do estágio de adoção da IA na sua organização, esse problema persiste em qualquer nível de maturidade.
Segurança de dados pode dominar a conversa, mas observabilidade e detecção de anomalias são as próximas preocupações mais relevantes sobre IA em SecOps. Enquanto fornecedores anunciam o que a IA pode fazer para apoiar fluxos de trabalho de segurança, você vê a necessidade de equilíbrio: “Agentes de segurança baseados em IA têm limites, e um humano precisa estar sempre envolvido.” Um analista relatou ter usado IA para automatizar a triagem L1 de alertas EDR, reduzindo o MTTT de 45 minutos para menos de dois, mas ressaltou que “isso só foi possível graças a muitas e muitas barreiras de segurança.” O pedido é claro: ofereça visibilidade e rastreabilidade contínuas em todas as interações com IA, automatize tarefas repetitivas e deixe decisões estratégicas para humanos.
“A melhor forma de entender IA é imaginar que você aumenta seus atacantes com dezenas, dezenas ou até centenas de colaboradores… Hoje, estimo que os 5% dos principais atacantes elevam sua eficiência em 50–300%.” Não se trata de uma ameaça teórica, mas de um multiplicador de força que eleva o nível mínimo para oportunistas e amplia o potencial dos agentes de ameaça sofisticados. Na prática, essas mudanças surgem de duas maneiras: novas técnicas adversariais de IA como injeção de comandos ou ataques de jailbreak visando sistemas de IA, e uma democratização maliciosa de ataques de engenharia social, como phishing e deepfakes. As preocupações com o segundo só crescem à medida que modelos e agentes se conectam a mais ferramentas e acesso a dados.
Mais 12% dos problemas apontaram o comportamento do modelo e a qualidade da saída como um risco de segurança por si só. As maiores preocupações incluíram alucinações, falhas de precisão e resultados prejudiciais, mas a principal delas foi a escalada de privilégios—IA acessando dados ou executando tarefas sem as permissões necessárias. É aqui que o SecOps busca impor limites práticos: moderação de conteúdo ajustada ao risco do negócio, alinhamento de políticas e permissões claras para modelos e agentes.
Entre as linhas, e às vezes diretamente delas, as equipes de segurança esperam que os fornecedores entreguem um padrão mais alto.
Priorize a proteção de dados, adapte as defesas às ameaças adversárias emergentes, estabeleça a observabilidade nas interações como base e projete com governança responsável de IA. Vamos continuar compartilhando insights de testes reais, publicando orientações práticas que sua equipe de segurança pode aplicar e mantendo transparência sobre como reduzimos os riscos. Lembrando o comentário sobre “IA segura OU eficaz”, queremos substituir esse 'ou' por um 'e'.
Atendemos ao chamado, aqui está nossa resposta.