지난 수십 년 동안 비즈니스 세계는 기술 혁명으로 인해 많은 전환점에 직면해 왔으며, F5는 고객이 이러한 중요한 시점을 극복할 수 있도록 항상 도움을 제공해 왔습니다.
기업들이 디지털 혁신을 시작했을 때 애플리케이션이 비즈니스의 핵심이 되었고 F5는 애플리케이션을 대규모로 제공하고 보안을 강화했습니다. 최근 5G가 전례 없는 속도, 서비스, 안정성으로 비즈니스 세계에 혁명을 가져올 것이라고 약속했을 때 F5는 모바일 회사가 대규모로 클라우드 기반 5G 코어를 구축할 수 있도록 지원했습니다.
이제 다시 한번, 우리는 아마도 우리 산업이 직면한 가장 큰 전환점에 있습니다. 조직들이 AI의 힘을 수용할 방법을 모색하고 있기 때문입니다. 고객들이 이 혁신적인 기술을 구현함에 따라 F5는 그들이 대규모 AI 배포의 잠재력을 최대한 발휘하도록 돕고 있습니다.
AI 클러스터 도입이 증가함에 따라 가속 컴퓨팅으로의 전환이 촉진되고 있습니다. 일반 컴퓨팅, 네트워킹, 보안 및 모니터링 분야에서 기존 관행을 사용하려고 하면 비효율성, 지연 및 비용 증가로 이어지는 경우가 많습니다.
AI의 엄청난 데이터 처리 요구 사항은 기존 네트워크 인프라에 상당한 부담을 주어 최적의 성능을 유지하는 것을 어렵게 만듭니다. NVIDIA BlueField 데이터 처리 장치(DPU)가 핵심 솔루션으로 등장했습니다. BlueField-3 DPU는 패킷 처리, 암호화, 압축과 같은 고대역폭 네트워크 및 보안 작업의 부하를 분산하고 가속화하여 최적의 클라우드 네트워크 연결을 제공합니다. 이러한 최적화는 전반적인 성능을 향상시키고, 그래픽 처리 장치(GPU)의 데이터 액세스를 가속화합니다.
서비스 제공업체와 대기업은 NVIDIA의 풀스택 가속 컴퓨팅 플랫폼을 사용하여 대규모 AI 인프라 또는 AI 팩토리를 구축하고 있으며, 이를 통해 대규모로 생성 AI 모델 훈련 및 추론을 수행하고 있습니다. 기업은 상당한 금액이 될 수 있는 AI 공장에 대한 투자를 극대화해야 합니다. 그러나 적절한 기반이 없으면 AI 인프라의 활용도가 낮아질 수 있습니다.
NVIDIA BlueField-3 DPU에 배포된 Kubernetes용 F5 BIG-IP Next는 이러한 문제를 해결하도록 설계되었습니다. 이 솔루션은 NVIDIA의 BlueField-3 DPU 에서 Kubernetes(SPK)용 F5 BIG-IP Next Service Proxy의 오프로드와 가속화에 중점을 둡니다. 이 솔루션은 주요 시장 변화 시기에 중요한 애플리케이션 제공 및 보안 과제를 해결하는 F5의 리더십을 바탕으로 구축되며, 동시에 NVIDIA의 가속 컴퓨팅 및 고성능 네트워킹 혁신도 활용합니다.
F5 BIG-IP Next SPK는 서비스 제공자가 5G로 전환하면서 Kubernetes에서 직면하는 문제를 해결하기 위해 개발되었습니다. 5G 인프라는 클라우드 기반 컨테이너화 아키텍처를 기반으로 구축되었으며, 컨테이너 워크로드는 Kubernetes를 사용하여 관리됩니다. 그러나 Kubernetes는 원래 5G 환경에 필요한 복잡한 사용 사례를 위해 고안된 것이 아닙니다. BIG-IP Next SPK는 통신사가 5G 인프라에 맞게 Kubernetes 네트워킹을 조정하여 5G 네트워크를 동적으로 확장하는 데 필요한 가시성, 제어 및 보안을 제공하는 데 도움을 주었습니다. 지난 수년 동안 서비스 제공업체는 BIG-IP를 사용하여 수백만 명의 가입자에게 5G 기술을 제공했습니다.
BIG-IP Next SPK가 지난 시장 변곡점에서 5G Core를 구현하는 데 중요한 역할을 했던 것처럼, 지금은 5G 워크로드와 유사하지만 기하급수적으로 더 큰 트래픽 볼륨을 포함하는 AI 시장 변곡점과 AI 워크로드 제공의 과제를 해결하기 위해 발전하고 있습니다. 이 새로운 시장 변화에 대한 수요를 충족하기 위해 F5는 NVIDIA BlueField-3 DPU에 구축된 Kubernetes용 BIG-IP Next를 출시하여 AI 서버로 전송되는 방대한 트래픽을 효과적으로 관리합니다.
이 솔루션은 생성적 AI의 요구 사항을 충족하기 위해 최신 애플리케이션 제공을 변환합니다. F5의 BIG-IP 플랫폼의 Kubernetes 네이티브 구현으로, 네트워킹, 보안 및 로드 밸런싱 워크로드를 처리하며 AI 클러스터와 데이터 센터의 다른 부분 사이의 경계 지점에 위치합니다. Kubernetes용 BIG-IP Next는 AI 클러스터 네임스페이스를 데이터 센터 네트워크 테넌시에 매핑하여 적절한 보안과 간소화된 관리를 제공합니다. BlueField-3 DPU의 하드웨어 가속기를 활용하여 BIG-IP Next for Kubernetes는 다양한 네트워킹 및 데이터 서비스를 가속화하고 CPU 컴퓨팅 리소스를 오프로드하여 에너지 효율성을 최적화합니다.
예를 들어, Meta는 올해 초에 열린 Networking @Scale 2024 행사에서 오픈소스 학습 언어 모델(LLM) Llama 3의 학습이 네트워크 지연으로 인해 방해를 받았지만, 하드웨어-소프트웨어 상호 작용을 조정하여 이 문제를 해결했다고 언급했습니다. 이러한 접근 방식을 통해 전반적인 성과가 10% 향상되었습니다. 10%는 적은 성과처럼 보일지 몰라도, 훈련하는 데 몇 달이 걸리는 모델을 고려하면 이러한 개선은 몇 주 동안 시간을 절약하는 데 도움이 됩니다.
BlueField-3 DPU에 구축된 Kubernetes용 F5 BIG-IP Next는 대규모 AI 인프라를 구축하려는 서비스 제공업체와 대기업에 여러 가지 이점을 제공합니다. 여기에는 다음이 포함됩니다.
과제와 사용 가능한 솔루션을 신중하게 고려함으로써 조직은 기존 운영을 방해하거나 보안을 손상시키지 않고 AI에 최적화된 데이터 센터를 성공적으로 제공할 수 있습니다. BlueField-3 DPU에 구축된 Kubernetes용 F5 BIG-IP Next는 Llama 3와 같은 대규모 LLM을 포함한 AI 워크로드에 대한 원활한 통합, 향상된 보안 및 개선된 성능을 제공하는 매력적인 옵션으로 부상합니다.
자세한 내용은 보도자료 와 NVIDIA 블로그 게시물을 읽어보세요.