BLOG

IA Sombria: O Risco Oculto de Segurança que Ameaça sua Empresa

Rachael Shah Miniatura
Raquel Xá
Publicado em 16 de julho de 2025

A inteligência artificial chegou para ficar — não há como voltar ao que era antes de 2010. Os avanços em produtividade, inovação e impacto econômico mudam tudo de forma definitiva.

Esses benefícios extraordinários trazem riscos sérios para organizações que adotam IA. Um dos mais urgentes é a IA Sombria — o uso crescente de ferramentas de IA pelos funcionários sem o conhecimento ou aprovação dos líderes de TI. Essa prática rapidamente se torna uma ameaça significativa à segurança e conformidade, apesar de ser relativamente nova e estar em desenvolvimento.

Shadow AI é uma ramificação em rápido crescimento da Shadow IT, um desafio antigo em que funcionários implantam softwares, serviços de nuvem ou sistemas não autorizados dentro da empresa. Enquanto a Shadow IT já pressiona a governança e o controle de segurança, a Shadow AI traz uma camada adicional de complexidade perigosa.

Alguns exemplos de IA Oculta:

  • Um engenheiro de software usa uma conta pessoal do ChatGPT, Gemini ou Copilot para gerar código base, traduzir idiomas, refatorar código legado ou escrever casos de teste—e acaba colando sem querer código proprietário em um modelo público. Esse código pode ser armazenado, registrado ou exposto. Além disso, a saída gerada pela IA pode conter lógica insegura, APIs inventadas ou código que viola contratos de licença.
  • Um especialista em comunicação envia um memorando estratégico confidencial para uma ferramenta de IA, que resume ou cria uma mensagem para o cliente. Agora, esse conteúdo proprietário está armazenado em servidores de terceiros, fora do controle da equipe de TI.
  • Um representante de vendas instala uma extensão do Chrome que gera automaticamente e-mails de prospecção com IA, integrando-se ao e-mail e ao sistema CRM. Quais os riscos? Vazamento de dados, descumprimento de políticas internas e falha em atender regulamentos como GDPR ou a Lei de Privacidade do Consumidor da Califórnia.

Esses exemplos são apenas o começo. Muitas outras situações de Shadow AI acontecem todos os dias em diversos setores. O alcance do problema é tão grande que a Gartner® prevê: “até 2027, 75% dos funcionários vão adquirir, modificar ou criar tecnologia sem o conhecimento da TI — contra 41% em 2022. Por isso, modelos de segurança cibernética extremamente centralizados e de cima para baixo não vão funcionar. Você, CISOs, deve reformular a segurança cibernética para uma função enxuta e centralizada que dê suporte a um amplo grupo federado de especialistas e equipes integradas distribuídas por toda a empresa. Assim, você expande a segurança cibernética pela borda da empresa, próximo do ponto onde as decisões sobre tecnologia e riscos são feitas e aplicadas.” 1

Injeção de comandos e vazamento de dados: principais preocupações

Embora ainda calculemos as perdas financeiras exatas da Shadow AI, o risco de danos é evidente e aumenta continuamente. Se você não agir agora, estará sujeito a incidentes graves, exposição a regulações e perda da fidelidade do cliente.

Entre as vulnerabilidades mais preocupantes está a injeção de prompt—um ataque onde um usuário mal-intencionado manipula a entrada da IA para burlar restrições, vazar dados sensíveis ou executar ações não previstas. Modelos de IA tendem a confiar na entrada por padrão, tornando-se vulneráveis a esses golpes. Uma injeção de prompt bem-sucedida pode convencer a IA a revelar dados internos, corromper processos automatizados ou comprometer sistemas de tomada de decisão.

Outro grande problema é o vazamento de dados, especialmente informações pessoais identificáveis (PII), informações de saúde protegidas (PHI), dados bancários e registros financeiros, código fonte e propriedade intelectual exclusiva, credenciais e chaves de acesso, ou registros de clientes.

O problema piora com o risco de descumprimento das normas regulatórias. Você pode violar facilmente padrões como GDPR, HIPAA, PCI DSS e a Lei Sarbanes-Oxley ao usar IA sem autorização, o que expõe a empresa a multas e prejuízos na reputação.

Algumas empresas reagem com banimentos — mas será que isso realmente funciona?

Para enfrentar esses riscos, algumas organizações proibiram que funcionários usem ferramentas de IA generativa não aprovadas. A Samsung, por exemplo, foi uma das primeiras em 2023 a banir o uso do ChatGPT e de chatbots similares com inteligência artificial, devido a preocupações com vazamentos de informações internas sensíveis. Desde então, vários bancos e outras empresas adotaram restrições ou emitiram alertas parecidos.

Especialistas do setor recomendam, em sua maioria, evitar proibições generalizadas.

Por que a governança, e não as proibições, oferece um caminho melhor

Apesar dos riscos legítimos, analistas do setor recomendam que você adote políticas preventivas e estruturas de governança em vez de proibições rígidas.

Proibir costuma ser contraproducente. Proibições são difíceis de aplicar, frequentemente prejudicam a inovação e o moral, e podem fazer o uso da IA se tornar mais oculto—tornando a detecção e o controle ainda mais difíceis.

Como afirmou um líder de TI em uma discussão na Gartner Peer Community sobre a proibição de ferramentas de IA: “Proibições simplesmente não funcionam. Sem políticas claras, essa medida prejudica a inovação e passa uma mensagem equivocada para a equipe e para o mercado sobre a nossa organização.”

O que as organizações devem fazer

Aqui estão algumas ações práticas de governança que sua empresa pode implementar imediatamente:

  1. Defina uma política clara para uso de IA
    Determine quais ferramentas estão aprovadas, como gerenciar os dados, quais casos de uso são adequados e onde estão os limites. Explique com clareza o que é permitido — e por quê.
  2. Mantenha uma lista validada de ferramentas de IA
    Avalie as ferramentas quanto à privacidade de dados, segurança e conformidade regulatória. Incentive seus colaboradores a preferirem essas ferramentas em vez de plataformas não avaliadas. Por exemplo, utilize versões corporativas de ferramentas como ChatGPT, que oferecem registro e proteção contra perda de dados, e adote assistentes internos de IA integrados às plataformas da empresa.
  3. Treine os funcionários e aumente a conscientização
    Ajude a equipe a compreender os riscos — desde vazamento de dados e conteúdo distorcido até falhas de compliance. Na maioria das vezes, o uso indevido ocorre sem intenção.
  4. Monitore, depois adapte
    Use monitoramento (de forma ética e dentro da lei) para identificar o uso não autorizado. Prefira responder com orientação em vez de punição. Atualize suas políticas continuamente conforme as capacidades da IA evoluem.

Em breve: Tecnologia F5 que facilita o gerenciamento da Shadow AI

A tecnologia pode fornecer uma solução escalável? Com certeza.

A F5 anunciou hoje a detecção e prevenção de vazamento de dados para proteger cargas de trabalho de IA e lançará, nos próximos meses, recursos avançados para ajudar organizações a reduzir de forma abrangente o risco do Shadow AI—especialmente quanto ao uso não autorizado de ferramentas de IA via canais criptografados (padrão da maioria das APIs de IA e plataformas SaaS).

Fique atento(a) aos próximos anúncios. Enquanto isso, acompanhe as últimas novidades do F5 AI em nossa página Accelerate AI.

GARTNER é uma marca registrada e marca de serviço da Gartner, Inc. e/ou suas afiliadas nos Estados Unidos e internacionalmente e é usada aqui com permissão. Todos os direitos reservados.

1Gartner, Maverick Research: CISOs precisam transformar seu papel ou se tornarão obsoletos, 19 de junho de 2025