블로그

통신사가 생성 AI를 다음 단계로 끌어올릴 수 있는 방법

알릭스 르콩테 썸네일
알릭스 르콩테
2024년 2월 20일 게시

지난 18개월 동안 생성 AI(GenAI)가 전 세계를 강타했습니다. 

ChatGPT 및 DALL-E와 같은 새로운 서비스는 사용자의 자연어 프롬프트에 응답하여 텍스트, 이미지 및 소프트웨어 코드를 생성할 수 있습니다.  

이제 새로운 수준의 생산성이 가능해졌으며, Bloomberg Intelligence의 최근 연구에 따르면 GenAI 시장 규모는 2032년까지 최대 1조 3,000억 달러에 달할 수 있습니다.

이 기술의 가치가 이제 생생하게 드러나면서, 컴퓨터가 신뢰할 수 있는 텍스트와 기타 콘텐츠를 생성할 수 있도록 하는 산업 및 지역별 대규모 언어 모델(LLM) 버전을 만들려는 움직임이 커지고 있음을 알게 되었습니다. 

LLM은 방대한 양의 데이터를 기반으로 훈련된 통계적 언어 모델입니다. 텍스트 및 기타 콘텐츠를 생성하고 번역하는 데 사용할 수 있으며, 자연어 처리 작업을 수행하는 데도 사용할 수 있습니다. LLM은 일반적으로 딥러닝 아키텍처를 기반으로 합니다. 

전 세계적으로 선구적인 통신 사업자들은 이미 이러한 전문 LLM의 제공 및 보안에서 주요 역할을 하기 위해 준비 중입니다. 특히, 그들은 필요한 컴퓨팅 인프라를 스스로 구축할 여유가 없는 기업, 신생 기업, 대학 및 공공 행정부에서 종단 간 GenAI 솔루션에 대한 강력한 수요를 예상하고 있습니다.

눈길을 끄는 추세이며 적절한 보안 보호 장치가 있다면 LLM-as-a-service 솔루션을 사용하여 곧 의료, 교육, 운송 및 기타 핵심 부문(통신 포함)을 위한 특정 GenAI 애플리케이션을 개발할 수 있을 것입니다.

도전

그러면 이 모든 것을 실현하기 위한 다음 단계는 무엇이며, 앞으로 직면하게 될 주요 과제는 무엇일까요?

LLM은 매우 반응성이 뛰어나고 신뢰성이 높으며 항상 사용 가능해야 하므로 많은 LLM이 여러 클라우드와 네트워크 엣지 위치에 분산될 가능성이 높습니다.

실제로 적절한 지연 시간을 통해 GenAI는 사용자에게 실시간 "대화형" 응답이 필요하기 때문에 통신사의 엣지 제안에 필수적이 될 것입니다.

수익 증대에 어려움을 겪어 온 통신사의 경우, 전문 GenAI 시스템을 지원하는 엣지 인프라를 제공하는 것이 새로운 주요 시장이 될 수 있습니다. Bloomberg Intelligence는 GenAI 인프라 즉 서비스 시장(LLM 교육에 사용)이 2032년까지 2,470억 달러 규모에 이를 것으로 추정합니다.

그럼에도 불구하고, GenAI 잭팟을 터뜨리기를 바라는 사람들은 조심스럽게 행동해야 합니다.

잠재적인 공격 표면을 늘릴 수 있는 분산 아키텍처는 AI 학습 및 추론 단계 모두에서 데이터와 개인 식별 정보 유출을 방지하기 위해 견고하고 확장 가능한 보안 솔루션을 요구합니다. 

악의적인 행위자들이 여러 개의 상호 연결된 시스템을 포괄하기 위해 측면 이동 기술을 점점 더 많이 사용함에 따라, 통신사에서는 LLM-as-a-Service에 액세스하는 데 사용하는 앱 타사의 API를 모두 보호하는 것이 중요합니다. 이런 측면에 대한 인식을 높이기 위해, 애플리케이션 보안을 위한 오픈소스 재단(OWASP)은 최근 LLM을 배포하고 관리할 때 발생할 수 있는 보안 위험에 대해 개발자, 디자이너, 설계자, 관리자 및 조직을 교육하는 새로운 프로젝트를 시작했습니다. 

확실한 것은 통신사들이 이 시장에서 신뢰할 수 있는 플레이어가 되려면 고객의 신뢰를 유지해야 한다는 것입니다. GenAI 시스템은 종종 개인적으로나 상업적으로 민감한 데이터를 처리해야 하기 때문입니다. 이러한 이유로 많은 정부와 규제 기관은 이러한 시스템이 관할 구역 내에 있는 컴퓨팅 용량에서 실행되는 것을 원합니다. 한편, 기업들은 자사의 지적 재산을 위협할 수 있는 민감한 데이터를 공유하기를 꺼리기 때문에 비공개 LLM 서비스를 선호합니다.

주목할 만한 다른 문제로는 AI 클러스터가 가상 사용자 커뮤니티 역할을 하는 방식, 국가와 기업의 개인 저장소에 있는 데이터에 액세스하기 위한 고성능 데이터 경로가 필요하다는 점이 있습니다.

더불어, 두 국가와 기업이 AI 앱을 자체 호스팅하려는 계획에 따라 AI가 네트워크 트래픽과 인프라에 미치는 영향이 점차 커질 것입니다. 환각, 저작권, 보안, AI의 환경적 영향에 대한 우려로 인해 많은 사람이 데이터에 대한 보안과 통제를 더욱 강화하고자 합니다. 또한, GPU에 예상되는 부담을 완화할 새로운 방법이 필요할 것입니다. 이러한 모든 고려 사항은 AI 인프라의 전반적인 TCO에 영향을 미칩니다.

통신사 진입: 다양한 환경에서 유연하고 확장 가능한 보호 

통신사는 AI 혁명에서 주요 역할을 할 수 있다. 이들은 국가 인프라를 소유하고 있으며 기존 B2B 서비스를 제공하고 있으며 AI 서비스 제공업체가 될 수 있는 자연스러운 선택입니다.    

예를 들어 F5는 이미 유럽의 한 통신사가 새로운 GenAI 제안을 확보하도록 지원하고 있습니다. 이번 사례에서 당사 고객은 Nvidia DGX Super POD와 Nvidia AI Enterprise 기술을 사용하여 현지 언어로 모국어 교육을 받은 최초의 LLM을 개발하고 있습니다. 목표는 언어의 미묘한 차이와 더불어 문법, 맥락, 문화적 정체성의 특성을 포착하는 것입니다.

여러 엣지 사이트에서 솔루션을 보호하기 위해 통신사는 클라우드 기반 서비스로 제공되는 F5 분산 클라우드 웹 애플리케이션 및 API 보호(WAAP)를 활용할 것입니다. 또한 F5의 ADC 클러스터를 활용하여 새로운 AI 플랫폼에 대한 에지 인프라 전반의 부하 분산을 수행하고 있습니다.

가장 중요한 점은 F5 솔루션이 퍼블릭 클라우드 멀티 테넌시 데이터 센터뿐 아니라 사내와 엣지 인프라에도 사용될 수 있다는 것입니다. 

게다가 F5 분산 클라우드 WAAP와 관련 API 보안 솔루션은 트래픽이 늘어남에 따라 빠르게 확장 가능하여 LLM 서비스를 제공하는 데 드는 전체 비용을 줄일 수 있습니다. F5는 또한 통신사 및 기타 관리 서비스 제공업체가 기업 고객에게 서비스 수준 계약을 제공하는 데 필요한 트래픽 흐름, 지연 시간 및 응답 시간에 대한 가시성을 제공합니다.

F5가 도움을 줄 수 있는 또 다른 방법은 LLM 추론 및 AI 작업이 많은 리소스를 필요로 한다는 점을 해결하는 것입니다. 이러한 작업 부하는 광범위한 데이터 교환을 요구하며, 대규모로 안전한 데이터 교환이 필요하기 때문에 병목 현상이 발생하는 경우가 많습니다. 이로 인해 귀중한 리소스의 활용도가 낮아지고, 운영 비용이 증가하고 원하는 결과가 지연될 수 있습니다. 

그들이 카드를 올바르게 사용하고 확장 가능하고 견고한 보안 솔루션을 현명하게 활용할 수 있다면, 통신사는 산업 및 국가별 LLM의 신뢰할 수 있는 공급자가 되는 데 필요한 모든 것을 갖추고 있습니다. 성공하는 사람들은 의심할 여지 없이 앞으로 몇 년 동안 주요 경쟁 우위를 얻을 것입니다.

더 자세히 알고 싶으신가요? 미팅 예약하기 2월 26일~2월 29일 바르셀로나에서 열리는 Mobile World Congress에서 F5와 함께(홀 5, 스탠드 5C60)