오늘날 빠르게 변화하는 기술 환경에서 AI를 구축하고 운영하는 것은 기업에 있어 중요한 차별화 요소가 되었습니다. 기업이 향상된 의사 결정과 효율성을 위해 AI의 힘을 활용하거나 AI를 이용해 차별화된 제품을 개발함에 따라 AI 팩토리가 기반 모델로 등장했습니다. AI 팩토리의 핵심에는 검색 증강 생성(RAG)이 있습니다. 이는 7가지 AI 구성 요소 중 하나이며, AI 출력이 맥락을 인식하고 보다 정확하고 시기적절하도록 하는 것입니다.
앞서 AI 팩토리 시리즈에서 우리는 AI 팩토리를 대용량, 고성능 학습 및 추론 요구 사항을 처리하는 대규모 저장소, 네트워킹 및 컴퓨팅 투자로 정의했습니다 . 이 글에서는 우리가 정의한 AI 구성 요소 중 두 가지에 대해 논의해보겠습니다. RAG 및 RAG 코퍼스 관리.
기존 제조 공장과 마찬가지로 AI 팩토리는 서버, GPU, DPU, 스토리지 등의 꼼꼼하게 조율된 인프라를 통해 AI 출력과 모델을 구축하도록 설계되었습니다. AI 팩토리는 훈련과 추론을 지원하여 대규모 AI 애플리케이션을 개발하는 데 필수적입니다. 하지만 RAG를 통합하여 출력의 맥락적 관련성을 강화하면 AI 팩토리의 진정한 잠재력이 발휘됩니다.
자세히 알아보기 전에 검색 증강 생성을 정의해 보겠습니다. RAG는 독점 데이터를 통합하여 AI 모델을 보완하고 상황에 맞는 AI 출력을 제공하는 AI 기술입니다. 애플리케이션 배포가 점점 더 분산되고 하이브리드 및 멀티클라우드 환경에서 호스팅됨에 따라 기업의 데이터는 어디에나 있습니다. AI를 위해 데이터의 전략적 이점을 활용하고자 하는 조직에서는 다음과 같은 의문이 발생합니다. 대규모 언어 모델(LLM)과 같은 AI 모델에 대한 입력을 보강하기 위해 관련 데이터를 어떻게 연결할 수 있을까요? 많은 기업은 이 문제를 해결하고 AI 모델에서 분산 데이터 사일로까지 안전한 고속도로를 구축하기 위해 RAG를 활용하고 있습니다. 이를 통해 최신 정보에 접근하여 시기적절하고 상황에 맞는 결과물을 제공하고 정확성을 높일 수 있습니다. 이러한 요소가 없다면 미세하게 조정된 AI 모델조차도 최신 정보에 접근할 수 없으며, 이러한 정보는 훈련이 완료되자마자 자주 변경됩니다.
몇 가지 예를 들어보죠? 고려해야 할 두 가지는 시각 기반 자율 주행 차량과 LLM이 요청의 맥락적 관련성 부족으로 인해 환각을 보거나 가정을 하는 경우입니다.
자율주행 차량의 경우 추론에는 보행자, 자전거 타는 사람 및 다른 자동차가 있는 거리를 안전하게 주행하기 위해 차량의 위치와 끊임없이 변화하는 주변 환경에 따른 실시간 데이터가 포함되어야 합니다. LLM의 경우 고객 지원 챗봇 사례를 사용하면 변경 로그, 지식 기반, 시스템 상태, 원격 측정과 같은 제품 정보에 대한 액세스와 지원 티켓, 구매 내역, 고객 프로필과 같은 고유한 고객 정보를 결합하면 일반적인 LLM 응답이 귀중한 결과물로 변환됩니다.
하이브리드 및 멀티클라우드 환경은 점점 더 복잡해지고 있으며 스토리지 배포는 점점 더 여러 위치에 분산되고 있습니다. F5에서는 이 현상을 "불덩어리"라고 부릅니다.
AI 팩토리 맥락에서 RAG는 벡터 데이터베이스 와 콘텐츠 저장소에서 추가적인 컨텍스트를 가져와서 기본 AI 모델의 기본 추론 기능을 향상시키고, 이를 활용해 컨텍스트가 풍부한 응답을 생성합니다. AI 팩토리 내에서 RAG의 오케스트레이션 계층은 AI 모델과 증강 서비스 간의 복잡한 상호 작용을 관리하여 보충 데이터가 AI 워크플로에 원활하게 통합되도록 보장합니다.
예를 들어, 위에서 언급한 고객 지원 시나리오에서 RAG는 다양한 관련 데이터베이스 및 소스의 데이터에 액세스하여 통합할 수 있습니다. 이를 통해 매우 관련성이 높은 AI 결과가 도출됩니다. RAG를 AI 팩토리 프레임워크에 통합함으로써 기업은 추론 반응의 품질과 적시성을 향상시켜 더 효과적인 의사 결정과 운영 효율성을 높일 수 있습니다.
F5의 AI 참조 아키텍처는 성공적인 대규모 AI 인프라에 필요한 7가지 AI 구성 요소 중 하나인 RAG를 강조합니다.
RAG Corpus Management는 RAG를 사용하여 추론을 제공하는 데 필수적인 데이터 수집 및 사전 처리에 중점을 둡니다. 여기에는 데이터 정규화, 토큰화, 임베딩, 벡터 데이터베이스 채우기를 포함한 일련의 단계가 포함되어 RAG 통화에 최적의 콘텐츠를 준비할 수 있습니다.
AI 팩토리 내에서 이 프로세스는 다양한 데이터 형식을 정규화하여 일관되고 구조화된 데이터 세트를 만드는 것으로 시작됩니다. 다음으로, 이 데이터를 AI 모델이 쿼리할 수 있는 형식으로 변환하기 위한 임베딩이 생성됩니다. 준비된 데이터는 벡터 데이터베이스, 지식 그래프 , 콘텐츠 저장소에 삽입되므로 추론 중에 실시간 검색이 용이해집니다. RAG Corpus Management는 데이터가 정확하고, 구조화되어 있으며, 검색 가능한지 확인하여 AI 출력의 전반적인 효과와 정확성을 향상시킵니다. 이 프로세스는 상황에 맞게 풍부한 AI 응답을 제공하고 고품질을 유지하려는 기업에 필수적입니다.
RAG Corpus Management는 F5가 성공적인 AI 아키텍처를 위해 정의한 7가지 AI 구성 요소 중 하나입니다.
RAG는 AI 팩토리의 핵심 구성 요소이지만 모든 규모의 AI 모델 배포에 필요합니다. 기초적인 AI 모델(예: GPT, Llama)이 공개 정보를 기반으로 훈련되기 때문에, 기초 모델을 배포하더라도 조직은 동일한 모델을 배포하는 다른 조직에 비해 충분히 높은 경쟁 우위를 확보할 수 없습니다. RAG를 통해 독점 데이터와 비공개 데이터를 통합하는 것은 모든 조직이 AI 배포 규모에 관계없이 데이터를 통해 요청을 보완하는 데 필수적입니다. 한 가지 예는 고객 지원 챗봇과 LLM 기반 지원 앱이 제품 및 고객별 정보에 액세스하여 유용한 솔루션을 제공해야 한다는 요구 사항과 일치합니다. 모델을 훈련하거나 세부 조정할 때에도, 더 정확한 결과를 얻으려면 끊임없이 변화하는 데이터에 액세스해야 합니다.
기업들이 혁신과 운영 효율성을 높이기 위해 AI에 지속적으로 투자함에 따라, AI 공장에서 RAG의 중요성은 결코 과장될 수 없습니다. RAG는 맥락적 인식, 정확성, 적시성을 향상시켜 AI 모델이 더욱 관련성 있고 신뢰할 수 있는 결과를 제공하도록 보장합니다. 데이터 사일로와 AI 팩토리 간에 안전한 통합을 구축하려는 기업을 위해 F5 Distributed Cloud Network Connect는 독점적인 기업 데이터 위치를 안전하게 연결하고, 제한된 액세스를 제공하고, 네트워킹을 간소화하고, 여러 영역과 지역 간에 데이터 저장 및 모빌리티를 제공하는 현대식 고속도로를 제공합니다.
F5의 AI에 대한 집중은 여기서 끝나지 않습니다. F5가 모든 곳에서 AI 앱을 보호하고 제공하는 방법을 살펴보세요.
AI 공장에 대해 자세히 알고 싶으신가요? AI 팩토리 블로그 시리즈에서 다른 시리즈를 탐색해 보세요.