BLOG

Desbloqueando a magia da IA usando RAG com F5 e NetApp

Hunter Smit Miniatura
Caçador Smit
Publicado em 24 de setembro de 2024

À medida que as empresas exploram maneiras de aproveitar o poder da IA, muitas estão recorrendo a grandes modelos de linguagem (LLMs) para melhorar sua tomada de decisão. No entanto, LLMs como o ChatGPT são treinados em grandes quantidades de dados públicos disponíveis na Internet, o que limita sua utilidade para empresas que desejam usar IA para capturar insights de seus próprios dados corporativos. Além disso, pode levar meses e gerar muitos gastos para treinar esses modelos, o que torna praticamente impossível garantir que cada resposta seja realmente significativa e atualizada.

A questão é como as empresas podem aproveitar o processamento de linguagem natural para obter insights de IA poderosos e atualizados a partir de seus próprios dados específicos da empresa? Construir seu próprio LLM é proibitivamente caro. O mesmo ocorre com o ajuste fino de um sistema existente com dados especializados.

Felizmente, a geração aumentada de recuperação (RAG) surgiu como uma maneira das empresas superarem essas limitações. Usando essa técnica avançada de IA, as empresas podem combinar um LLM pré-treinado, como o ChatGPT, com seus próprios dados proprietários para obter respostas precisas e contextualizadas. Eles podem restringir os dados que são usados, extraindo apenas das fontes mais relevantes, como procedimentos aprovados da empresa, políticas ou informações sobre produtos. E como o RAG recupera informações em tempo real do banco de dados de vetores de uma empresa, eles podem ter certeza de que sempre obterão as informações mais recentes à medida que novos dados são adicionados.

Combinando os benefícios de um LLM com dados da empresa

O RAG combina efetivamente a recuperação de dados com a geração de linguagem. O recuperador atua como um mecanismo de busca que recupera dados com base na consulta do usuário, usando algoritmos sofisticados para coletar apenas as informações mais relevantes. O gerador normalmente é um LLM como o ChatGPT, que pega essas informações e as transforma em uma resposta precisa e informada. Ao integrar esses dois componentes, o RAG possibilita que as empresas criem sistemas de IA personalizados que lhes dão uma vantagem competitiva.

A geração aumentada de recuperação (RAG) incorpora dados proprietários e privados para complementar grandes modelos de linguagem (LLMs), fornecendo respostas precisas e sensíveis ao contexto.

As aplicações potenciais são inúmeras. As equipes de vendas e marketing podem combinar rapidamente informações de relatórios de mercado, feedback de clientes e feeds de mídia social para identificar tendências de compra e preferências dos clientes. As equipes de atendimento ao cliente podem aumentar a fidelidade do cliente por meio de chatbots com tecnologia RAG que usam informações de produtos, perfis de clientes e históricos de compras para fornecer respostas personalizadas às dúvidas dos clientes. As equipes jurídicas podem facilmente aproveitar os aprendizados de IA de contratos, processos judiciais e outros documentos ao fornecer consultoria jurídica. Ao ajudar os funcionários a acessar de forma rápida e precisa dados estruturados e não estruturados relevantes e atualizados armazenados em vários bancos de dados, a RAG pode aumentar a produtividade dos negócios, melhorar a experiência do cliente e impulsionar os lucros reduzindo a mão de obra e aumentando a fidelidade do cliente. 

No entanto, embora o RAG prometa transformar a IA empresarial, alguns obstáculos permanecem. Um dos maiores obstáculos é recuperar e integrar dados nos cenários de TI distribuídos que a maioria das empresas possui. Hoje, a maioria das empresas opera seus aplicativos em um ambiente híbrido e multinuvem altamente complexo. E como os dados geralmente são armazenados em locais diferentes, incluindo data centers locais e várias nuvens, como Microsoft Azure, Google Cloud Platform e AWS, integrar todos esses dados isolados com um LLM pode ser difícil. Além disso, sem as proteções certas, existe o risco de expor informações privadas.

Implementando RAG em ambientes híbridos e multicloud

A F5 tem trabalhado em conjunto com a empresa de infraestrutura de dados NetApp para resolver esses problemas. Ao integrar os recursos de rede multicloud seguros e de alto desempenho da F5 com as soluções robustas de gerenciamento de dados da NetApp, estamos possibilitando recuperar rapidamente os dados da empresa, não importa onde estejam localizados, e combiná-los com segurança com um LLM.

O Cloud Volumes ONTAP e o Azure NetApp Files da NetApp otimizam os custos e o desempenho do armazenamento em nuvem, ao mesmo tempo em que melhoram a proteção e a conformidade dos dados. Quando combinado com o F5 Distributed Cloud Network Connect , os dados podem ser conectados e movidos de forma rápida e segura entre zonas e regiões, independentemente de onde estejam armazenados.

À medida que as empresas buscam maneiras de fornecer aplicativos LLM que promovam o crescimento dos negócios, nossa solução conjunta oferece uma maneira perfeita de gerenciar, proteger e otimizar seus dados, ao mesmo tempo em que reduz custos. Os dados da empresa permanecem privados. E os usuários podem obter informações precisas, oportunas e relevantes ao contexto de que precisam para prosperar na era digital.

Como disse Kunal Anand, diretor de tecnologia e IA da F5, “Nossa solução conjunta oferece desempenho incomparável e segurança inabalável, permitindo que as empresas aproveitem com confiança os recursos da IA em seus contextos comerciais exclusivos”.

Capturando toda a promessa da IA empresarial

Esta parceria se baseia em colaborações anteriores entre a F5 e a NetApp para ajudar empresas a conectar seus ambientes híbridos e multicloud. E é importante ressaltar que isso é só o começo. Nos próximos meses, continuaremos trabalhando juntos para ajudar as empresas a capturar todo o poder da IA em seus cenários de TI distribuídos.

Para saber mais, leia nosso comunicado de imprensa . Visite também nossa página da Web sobre F5 e NetApp .