BLOG

Protegendo sistemas de IA: Por que a segurança precisa acompanhar a inovação

Miniatura da equipe da redação do F5
Equipe de redação do F5
Publicado em 04 de agosto de 2025

A inteligência artificial pode transformar vidas — e já transformou de maneira profunda. Ao acelerar avanços na medicina e na educação e ao mudar o trabalho e o cotidiano, a IA redefine como vivemos e atuamos. Mas esses avanços também abrem poderosas oportunidades para cibercriminosos.

Atualmente, adversários atacam ativamente sistemas de IA, explorando vulnerabilidades por meio de envenenamento de dados, manipulação de resultados, roubo não autorizado de modelos via destilação e vazamento de dados privados. Esses riscos são reais, evoluem rapidamente e podem causar impactos financeiros graves. Utilizam modelos para ampliar significativamente ataques por e-mail e fraudes por SMS/voz; deepfakes ficam cada vez mais difíceis de identificar, com vários causando prejuízos multimilionários.

Segundo o Relatório Stanford AI Index 2025, os incidentes de segurança relacionados à IA cresceram 56,4% em 2024, totalizando 233 casos reportados. Não foram apenas falhas técnicas ou pequenos erros. Envolveram compromissos sérios, desde violações de privacidade e amplificação de desinformação até manipulação de algoritmos e colapsos que ameaçaram decisões sensíveis.

Mas, como sempre, uma das nossas estatísticas preferidas é o tempo de permanência, ou seja, o intervalo entre a violação e a detecção. O relatório da IBM do primeiro trimestre de 2025 mostrou que compromissos específicos de IA levam em média 290 dias para serem detectados e contidos — muito mais que os 207 dias da média para violações tradicionais de dados. Isso significa quase 10 meses de exposição, dando a esses atacantes aumentados por IA tempo suficiente para causar danos graves.

Por que a maioria das empresas ainda não está preparada

Para continuar colhendo os benefícios da IA, você deve tratar sua segurança com a mesma urgência dedicada às redes, bancos de dados e aplicações. No entanto, o atual desequilíbrio entre adoção e proteção revela uma realidade diferente.

O Relatório F5 sobre o Estado da Aplicação de IA em 2025 destaca esse fato. Apenas 2% das organizações pesquisadas demonstraram estar altamente seguras e preparadas para ampliar a IA com segurança. Por outro lado, 77% enfrentam desafios significativos relacionados à segurança e governança da IA.

O relatório também mostrou que apenas uma parcela das empresas moderadamente preparadas adotou medidas básicas de proteção. Somente 18% implementaram firewalls de IA, e apenas 24% aplicam rotulagem contínua de dados, uma prática essencial para identificar comportamento adversarial. O problema se agrava com o aumento no uso da IA Oculta: ferramentas de IA não autorizadas que geram graves falhas de visibilidade em ambientes empresariais.

Na busca por implantar IA e conquistar vantagem competitiva, muitas organizações acabam ampliando sua superfície de ataque sem querer.

Fatores que expõem a IA a vulnerabilidades

As características únicas da IA a tornam vulnerável a novas formas de ataque. Entre as vulnerabilidades mais críticas estão:

  • Envenenamento de dados: Invasores injetam discretamente dados corrompidos ou enganosos nos conjuntos de treinamento, comprometendo o desempenho dos modelos de IA. Em 2024, pesquisadores da Universidade do Texas mostraram como conteúdo malicioso inserido em documentos referenciados pode influenciar os resultados do modelo, mesmo depois que os documentos são removidos.
  • Inversão e extração de modelos: Esses ataques permitem que adversários reconstruam dados sensíveis usados no treinamento ou reproduzam modelos proprietários. Exemplos reais incluem a recuperação de imagens de pacientes a partir de sistemas de diagnóstico e a reconstrução de gravações de voz privadas e textos internos de modelos de linguagem.
  • Ataques de evasão: Ao fazer mudanças mínimas, muitas vezes imperceptíveis, nos dados de entrada, atacantes enganam modelos de IA para gerar respostas incorretas. Por exemplo: pesquisadores iludiram o sistema de visão de um veículo autônomo, fazendo-o confundir uma placa de pare com uma de limite de velocidade ao aplicar adesivos que pareciam inofensivos.
  • Injeção de prompt: Grandes modelos de linguagem (LLMs) respondem a entradas cuidadosamente elaboradas que alteram seu comportamento. Em um caso, um chatbot com tecnologia ChatGPT usado por concessionárias Chevrolet foi levado a concordar em vender um carro por US$ 1—um desfecho que trouxe riscos reputacionais e legais.

Essas ameaças não são hipotéticas. Elas estão ativas e já comprometem a segurança e a confiabilidade da IA em diversos setores.

Desenvolva uma estratégia sólida de defesa em IA

Para superar esses desafios, você precisa adotar uma estratégia de segurança completa que cubra riscos gerais de segurança cibernética e específicos da IA. Veja cinco passos que ajudam sua empresa a proteger sistemas de IA:

  1. Fortaleça a governança de dados
    Faça um inventário claro dos ativos de IA — incluindo modelos, APIs e conjuntos de dados de treinamento — e aplique políticas rigorosas de controle de acesso. Os dados são a base da IA, e precisamos proteger sua integridade em todos os níveis.
  2. Teste continuamente
    Supere as revisões tradicionais de código e adote testes adversariais e exercícios de red teaming. Esses métodos revelam falhas, como inversão de modelo e injeção de comandos, antes que invasores as explorem.
  3. Adote um design centrado na privacidade
    Use criptografia, minimização de dados e técnicas de privacidade diferencial. Essas práticas reduzem o risco de exposição de dados sensíveis, mesmo diante de uma violação.
  4. Adote a arquitetura de confiança zero
    Aplique a filosofia “nunca confie, sempre verifique” em todos os sistemas de IA. Conceda o acesso mínimo necessário a cada componente e usuário e verifique todas as atividades cuidadosamente.
  5. Monitore o comportamento da IA em tempo real
    Implante ferramentas e sistemas que detectem anomalias no comportamento do modelo ou nos padrões de entrada. Verifique chamadas excessivas de API, prompts suspeitos ou resultados anormais — tudo isso pode indicar ameaças ativas.

Como a F5 atua na segurança de IA

À medida que mais organizações adotam ambientes híbridos e multinuvem, a F5, por meio da nossa Plataforma de Entrega e Segurança de Aplicações (ADSP), oferece recursos de segurança nativos em IA projetados para proteger a infraestrutura moderna.

Como parte dessa plataforma, o F5 AI Gateway oferece proteção contra injeção de prompts e vazamento de dados ao inspecionar e direcionar solicitações LLM de forma inteligente. Soluções avançadas de segurança de API — disponíveis pelo F5 Distributed Cloud API Security e pelo NGINX App Protect — protegem suas APIs contra uso indevido, exfiltração e abuso.

Também integrante do F5 ADSP, F5 Distributed Cloud Bot Defense usa machine learning para detectar e bloquear ameaças automatizadas, como credential stuffing, com poucos falsos positivos. As soluções F5 BIG-IP Advanced WAF protegem aplicações e APIs enquanto transferem tarefas de segurança das GPUs, melhorando o desempenho em cargas de trabalho intensas em IA.

Além disso, a Arquitetura de Referência de IA da F5 define um plano para implementar uma infraestrutura de IA segura e confiável em ambientes híbridos e multinuvem. A F5 também trabalha junto aos principais inovadores em IA, como Intel, Red Hat, MinIO e Google Cloud Platform, entre outros, para ajudar você a escalar com segurança e eficiência.

Reflexões finais: IA segura, futuro protegido

A IA está revolucionando todos os setores em que atua, mas também traz riscos inéditos. Com ameaças cada vez mais sofisticadas, você, líder de segurança, precisa agir com rapidez e visão, adotando ferramentas proativas, arquiteturas inteligentes e proteção baseada em políticas.

A segurança da IA deve fazer parte essencial da estratégia da sua empresa. Com a combinação certa de regulamentação, tecnologia e cultura—baseada em estruturas comprovadas como a do Instituto Nacional de Padrões e Tecnologia dos EUA e apoiada por plataformas como o F5 ADSP—você pode aproveitar plenamente o potencial da IA enquanto protege sua organização contra seus riscos mais sombrios.

A era da IA já começou. Proteja-a agora.

Participe do painel de discussão no Black Hat

Se você vai estar em Las Vegas esta semana para o Black Hat USA 2025, junte-se ao CISO do F5 Field, Chuck Herrin, e outros especialistas para um painel durante o AI Summit, onde vão abordar como fortalecer a defesa digital na era da IA

Além disso, não deixe de visitar nossa página da web para saber mais sobre as soluções de segurança e entrega de IA empresarial da F5 .