BLOGUE

O uso de ferramentas de IA generativas no local de trabalho exige mais segurança

Rachael Shah Miniatura
Raquel Xá
Publicado em 22 de agosto de 2023

A IA generativa é como aquele objeto realmente brilhante do qual ninguém consegue tirar os olhos.

Quase todas as empresas no mundo estão babando com o potencial que as ferramentas de IA generativa têm para transformar seus negócios — e por um bom motivo.

A IA generativa, uma forma de aprendizado de máquina que cria conteúdo como texto e imagens em resposta a solicitações de linguagem natural, é uma tecnologia revolucionária. Desde aumentar a produtividade até melhorar a personalização, as ferramentas de IA generativa oferecem uma série de benefícios.

Por exemplo, em uma pesquisa recente da Gartner , mais de 2.500 executivos indicam a experiência e a retenção do cliente (38%) como o principal objetivo de seus investimentos em IA generativa. Em seguida vêm outras áreas, como crescimento da receita (26%), otimização de custos (17%) e continuidade dos negócios (7%).

Além disso, em uma pesquisa separada com 3.000 CEOs realizada pela IBM , 69% dos CEOs entrevistados veem os amplos benefícios da IA generativa em suas organizações. No entanto, apenas 30% dos executivos seniores não CEOs dizem que sua organização está pronta para adotar IA generativa de forma responsável.

Sejamos francos: Isso é alarmante. Menos de um terço dos executivos seniores afirmam que suas organizações estão prontas para adotar IA generativa de forma responsável ?

É fácil se deixar levar por todos os ganhos positivos que você pode potencialmente embolsar usando ferramentas de IA generativas. Mas não esqueçamos: O uso de ferramentas de IA generativa pode representar grandes riscos e desafios.

Com a rapidez com que a IA generativa está evoluindo, as organizações podem se ver em apuros rapidamente se não tomarem cuidado com a forma como seus funcionários estão aproveitando as ferramentas de IA generativa e se não estiverem cientes dos dados que estão sendo inseridos nas interfaces de IA generativa.

Aqui estão apenas algumas das muitas maneiras pelas quais a IA generativa pode transformar abruptamente uma experiência positiva e benéfica em uma dor de cabeça de segurança custosa e negativa:

  1. Vazamento de dados corporativos confidenciais.
    Você pode ter ouvido ou lido sobre funcionários da Samsung que acidentalmente carregaram código no chatbot ChatGPT da Open AI. Isso não apenas expôs dados proprietários, mas também criou um grande pesadelo global de RP para a Samsung. E, provavelmente, a Samsung não é a única organização com a qual isso aconteceu ou pode acontecer. Pode ser a sua próxima empresa.

  2. Disseminar informações erradas e preconceitos.
    Ferramentas de IA generativa como o ChatGPT são alimentadas por grandes modelos de linguagem (LLMs). E os LLMs são treinados em conjuntos de dados de artigos, sites e tudo o mais, incluindo informações ruins e incorretas. É fácil ser enganado e pensar que ferramentas de IA generativa não produzirão informações erradas ou proliferarão preconceitos e usá-las em suas campanhas ou para desenvolver suas suposições. Mas antes que você perceba, a linha entre a verdade e o que não é verdade fica tênue, assim como sua reputação. Além disso, os preconceitos e informações incorretas produzidas pelos chatbots de IA generativa nem chegam perto do problema representado pelas alucinações de IA !

  3. Manuseio incorreto de informações de identificação pessoal (PII).
    PII podem ser coletadas durante interações com ferramentas de IA generativas. Cabe às empresas por trás dessas ferramentas manter medidas rigorosas de privacidade de dados. Caso contrário , você poderá ter que lutar contra apropriação indébita de conta . Ou em sérios problemas legais e conflitos com seus clientes se pessoas mal-intencionadas obtiverem suas informações pessoais identificáveis.

Felizmente, muitas organizações estão tomando medidas para manter práticas seguras. Várias empresas oferecem treinamento sobre os aspectos positivos e negativos da IA generativa. Ou incentivam a equipe a explorar e experimentar de forma responsável. Outros criaram políticas de IA generativas para reconhecimento dos funcionários e orientação necessária.

Embora essas medidas certamente tenham mérito, a popularidade, a complexidade e a evolução rápida das ferramentas de IA generativa exigem mais segurança. Além disso, sempre haverá erro humano na equação.

Agora tenho certeza que você já ouviu isso uma vez. Ou talvez muitas vezes: O que você não pode ver pode te machucar. E quando se trata do uso de ferramentas de IA generativas no local de trabalho, isso não poderia ser mais verdadeiro. A falta de conscientização pode fazer com que sua empresa fique em desvantagem.

Para se proteger contra ameaças de uso de IA generativa no local de trabalho, as empresas devem adotar uma abordagem de confiança zero . Lembre-se de que o princípio fundamental da confiança zero é: “Nunca confie. Sempre verifique.” E uma estratégia fundamental de segurança de confiança zero que você deve priorizar hoje é detectar o acesso a ferramentas de IA generativa.

Ao permitir maior visibilidade e controle detalhado sobre como os funcionários estão aproveitando as ferramentas de IA generativa no trabalho, as equipes de segurança são capacitadas para identificar e gerenciar riscos potenciais. Isso ajuda as organizações a:

  1. Proteja dados, PII, código, propriedade intelectual (PI) e muito mais.
  2. Habilitar e aplicar políticas que suportem as diretrizes da empresa.
  3. Manter sua segurança contra o uso indevido intencional ou acidental de ferramentas de IA generativa.

À medida que o cenário da IA generativa continua a se desenvolver rapidamente, as empresas podem ficar mais tranquilas com uma estrutura de segurança de confiança zero que fornece detecção de ferramentas de IA generativa.

Para saber mais sobre como o F5 pode ajudar você a mitigar os riscos potenciais do uso de ferramentas de IA generativa no local de trabalho, confira este artigo do F5 BIG-IP SSL Orchestrator DevCentral .