A adoção da IA está acontecendo mais rápido do que qualquer outra tecnologia antes dela.
O que começou com poucos grandes modelos e fornecedores se expandiu para um extenso ecossistema de modelos de IA open source e comerciais, cada um com suas vantagens e riscos. Com milhões de modelos disponíveis, sua empresa, ao adotar IA, precisa de informações claras sobre riscos que expliquem exatamente quais ameaças cada modelo introduz no seu ambiente.
Após a aquisição da CalypsoAI pela F5, temos o prazer de apresentar o Ranking Comprehensive AI Security Index (CASI), que oferece aos líderes de IA e GRC uma análise detalhada sobre as diferentes composições de risco dos modelos de IA mais conhecidos. Fundada em 2018, a CalypsoAI é referência em pesquisa de segurança de IA, criando uma das maiores bibliotecas de vulnerabilidades de IA e atualizando-a mensalmente com mais de 10.000 novas tentativas de ataque. Com essa base, o ranking avalia de modo integrado a segurança dos modelos básicos e dos sistemas de IA, focalizando os modelos mais populares e aqueles usados por nossos clientes.
Desenvolvemos essas ferramentas para atender às necessidades do negócio ao escolher um modelo pronto para produção, ajudando CISOs e desenvolvedores a priorizar a segurança desde o início. As tabelas de classificação eliminam o ruído no universo da IA, condensando questões complexas de segurança do modelo em cinco métricas essenciais:
CASI é uma métrica criada para responder a uma pergunta complexa: “Quão seguro está meu modelo?”. Uma pontuação CASI mais alta significa um modelo ou aplicação mais seguro. Embora muitos estudos sobre ataques ou avaliações de modelos usem a Taxa de Sucesso do Ataque (ASR), essa métrica costuma desconsiderar as diferenças no impacto de cada ataque. O ASR tradicional trata todos os ataques como iguais, o que engana. Por exemplo, um ataque que rompe uma trava de bicicleta não pode ser comparado a outro que compromete códigos de lançamento nuclear. Do mesmo modo, na IA, um modelo pequeno e vulnerável pode ser facilmente invadido com uma simples solicitação de dados pessoais confidenciais, enquanto um modelo maior pode requerer técnicas avançadas, como agentes de IA autônomos e coordenados, para quebrar seu alinhamento. CASI diferencia esses cenários ao separar ataques simples dos complexos e determina o Ponto de Ruptura Defensivo (DBP) do modelo: o caminho de menor resistência e o mínimo de recursos computacionais necessários para um ataque bem-sucedido.
As varreduras padrão de vulnerabilidade em IA oferecem uma visão inicial da segurança do modelo, mas mal arranham a superfície para entender como um sistema de IA pode reagir durante ataques reais.
Para fechar essa lacuna, contamos com F5 AI Red Team, uma tecnologia avançada de red-teaming que coordena enxames de agentes autônomos de IA simulando uma equipe de analistas persistentes e inteligentes. Esses agentes investigam, aprendem e se adaptam – executando ataques múltiplos planejados para expor vulnerabilidades críticas que testes estáticos costumam não identificar.
Esse rigoroso processo de testes gera um ARS, uma medida quantitativa da força defensiva de um sistema de IA, avaliada numa escala de 0 a 100. Um ARS mais alto significa que um atacante mais sofisticado, persistente e informado é necessário para comprometer o sistema. Esse valor comparável, baseado em narrativas complexas de ataque, é calculado levando em conta três categorias essenciais:
Nossa equipe da F5 Labs fornece uma análise detalhada das tendências recentes identificadas em nossos testes de setembro. Para obter informações aprofundadas sobre as técnicas, vulnerabilidades e ataques em crescimento, acompanhe nossas atualizações mensais para estar sempre à frente nas tendências de segurança em IA.
A superfície de ataque da IA seguirá evoluindo, e a F5 se dedica a fornecer às organizações as informações necessárias para acompanhar e adaptar a segurança da IA. Como ocorre com toda nova tecnologia, a IA sempre terá um grau de risco acima de zero. O primeiro passo para uma segurança completa em IA é identificar onde estão os riscos, e os Leaderboards do CASI continuarão a orientar esse entendimento à medida que o cenário dos modelos de IA muda constantemente.
Quer mais insights? Aplicamos o mesmo red-teaming proativo que usamos para avaliar modelos base diretamente no seu ambiente de IA, oferecendo análises ainda mais aprofundadas com o F5 AI Red Team.