기술과 작동 방식에 대한 이해가 다양한 측면에서 크게 변하고 있습니다. F5는 SlashData와 협력해 여러 산업과 지역의 IT, 보안, 소프트웨어 개발 리더들과 실무자 수백 명에게 설문을 진행하며, 조직들이 어떻게 이런 변화를 대응하는지 직접 확인했습니다.
참가자에는 NGINX 오픈 소스 프로젝트 사용자, NGINX 오픈 소스, F5 NGINX 상용 제품 사용자가 포함되어 있습니다. 우리가 확인한 내용은 컨테이너화, 보안, 개발자 플랫폼, AI 분야에서 즉각적인 변화를 추구하는 조직들의 긴박감을 뒷받침합니다. 2025년 NGINX 연례 설문조사의 주요 결과는 다음과 같습니다.
F5 NGINX는 AI 인프라의 기본 관문으로 자리 잡았으며, 주요 AI 하드웨어 및 소프트웨어 업체들이 AI 애플리케이션용 주요 또는 권장 역방향 프록시 겸 전달 컨트롤러로 채택하고 있습니다. 설문 결과는 NGINX 사용자와 더 넓은 애플리케이션 전달 커뮤니티가 AI 중심의 미래를 적극 수용하고 있음을 보여줍니다.
AI 에이전트 활용 현황: 에이전트 AI 작업 참여를 묻는 질문에, 응답자들은 ‘NGINX 구성’을 현재 가장 많이 활용 중이라 답했고, 채택률은 25%에 달했습니다. 그 바로 뒤를 ‘네트워크 트래픽 최적화 및 부하 분산’이 24%로 이었습니다. ‘인프라 배포 및 확장’과 ‘보안 취약점 수정’도 각각 23%의 응답자가 현재 활용하고 있습니다.
통합 참여 현황: 에이전트 AI를 사용하거나 실험 중인 응답자를 합산한 결과, ‘로그 분석 및 사전 문제 해결’이 48%로 가장 많았습니다. ‘NGINX 구성’과 ‘인프라 배포 및 확장’이 각각 46%로 공동 2위를 차지했고, ‘네트워크 트래픽 최적화’가 45%로 그 뒤를 이었습니다.
가장 큰 미래 관심 분야: “드리프트 감지 및 수정”이 33%로 가장 큰 관심을 끌었으며, 이어서 “NGINX 배포 모니터링”이 32%, “사고 알림 및 대응”이 31%의 관심을 받았습니다.
전문 하드웨어: 설문 응답자 중 25%가 GPU, TPU, 혹은 FPGA에서 워크로드를 실행합니다. 이는 주로 일반 컴퓨팅 중심 인프라에서 눈에 띄는 변화입니다(그림 2 참고). 소형 AI 모델 개선, Docker 및 주요 클라우드 하이퍼스케일러 같은 클라우드 네이티브 환경에서 소형 AI 모델 실행의 용이성, 그리고 암호화 및 SSL을 NPU와 FPGA에 오프로드하거나 AI 추론을 GPU와 TPU에 배포하는 등 애플리케이션 제공 과정의 오프로드 때문에 이런 추세가 계속 증가할 것으로 기대합니다.
주요 장벽: 설문 응답자들은 보안 우려(26%)와 정확성 신뢰 부족(24%)을 AI 통합의 가장 큰 장애물로 꼽았습니다. 통합 복잡성, 규정 준수 및 제도적 제한, 에이전트 기능에 대한 부족한 이해가 각각 17%를 차지했습니다.
컨테이너와 쿠버네티스가 시작된 지 10년 이상 지났지만, 클라우드 네이티브 혁명은 여전히 활발히 확산되고 있습니다. 클라우드 네이티브의 핵심 요소들은 거의 모두가 도입했지만, 완전한 활용까지는 아직 시간이 필요합니다(그림 3 참고).
구체적으로, 당사 조사에서 다음과 같은 점을 발견했습니다:
지난 10년간 많은 기술 기업이 내부와 외부 운영 모두에서 핵심 연결 수단으로 API를 도입해 왔습니다. 클라우드 네이티브 아키텍처에서는 API 우선 설계가 기본 원칙입니다. 실제로 응답자의 86%가 API 인프라 관리를 위해 API 게이트웨이를 배포했습니다(그림 4 참조).
API로의 광범위한 전환과 API 게이트웨이가 널리 활용되고 있지만, 대부분 조직이 여전히 API 보안을 제대로 갖추지 못하고 있습니다(그림 5 참고). 조직의 86%가 API를 사용하지만, API 보안을 도입한 곳은 단 34%뿐입니다. 이로 인해 현대 애플리케이션 인프라에 큰 보안 취약점이 존재합니다.
응답자의 절반 미만만이 API 보안의 핵심 요소인 API 트래픽 분석(43%)과 가시성(38%)에 집중하고 있습니다. 이 격차는 API를 포괄적으로 관찰하고 관리하는 데 어려움이 있음을 보여줍니다. 실제로 응답자의 23%는 팀마다 서로 다른 API 관리 방식을 적용하고 있는데, 이는 조직 전체가 일반적인 API 관리의 최적 방법을 따르기 힘든 데서 비롯된 분산 현상으로 보입니다.
플랫폼 엔지니어링이 이제는 대중적인 용어가 되었습니다. 실제로 응답자의 65%가 플랫폼 엔지니어링 기능과 책임을 도입하고 있습니다(그림 6 참고). 이 현상은 전담 플랫폼 팀이 있는 대기업부터 플랫폼 엔지니어링 리딩을 맡는 단 한 명의 팀원까지 폭넓게 나타납니다. 약 27%는 소규모 전담 플랫폼 엔지니어링 팀을 운영하며, 21%는 개발 또는 운영 팀 내에서 플랫폼 엔지니어링 역할을 개별적으로 수행합니다. 또 13%의 조직은 대규모 전담 플랫폼 엔지니어링 팀을 갖추고 있습니다. 분명, 플랫폼 엔지니어링의 가치는 널리 퍼져 확고히 자리 잡았습니다.
그렇지만 모든 팀 규모에서 플랫폼 과제에 관한 설문 결과는 초기 단계에서 겪는 어려움을 보여줍니다. 응답자의 20%만이 특별한 문제가 없다고 답했습니다. 나머지는 보안 및 규정 준수(18%), 문서 유지(16%), 기술 최신 상태 유지(16%), 자원 부족(14%) 등 다양한 플랫폼 엔지니어링 문제들이 조직에 영향을 미치고 있다고 말했습니다.
설문조사 결과, 서비스 제공과 가치 제안에서 대규모 팀과 소규모 팀 간에 명확한 우선순위 차이를 확인했습니다. 예상대로 대규모 팀은 더 고도화된 분야에 집중했고, 소규모 팀은 전통적인 DevOps 방식과 유사한 활동에 주력했습니다. 대규모 전담 플랫폼 엔지니어링 팀은 데이터베이스 서비스(54%), 관찰 도구(52%), API 관리(51%), 방화벽 구성 및 관리(54%), CI/CD 파이프라인 도구(50%)와 같은 고급 서비스를 주로 제공합니다.
기업들은 관리 속도보다 빠르게 기술을 도입하고 있습니다. 조사에 따르면, 기업들은 컨테이너, API, 플랫폼 엔지니어링 도입을 원하지만, 현재 구축한 시스템을 안전하게 운영할 준비가 되어 있지 않습니다. 가장 심각한 실패는 API 보안입니다. 거의 모든 조직이 API를 운용하지만 3분의 2는 기본적인 방어 조치를 갖추지 못했습니다. 이는 미래의 위험이 아니라 지금 운영 중인 환경에서 드러난 취약점입니다.
한편, 특정 분야에서는 눈에 띄는 성과가 계속 나옵니다. AI 에이전트가 이제 단순 데모가 아닌 대규모 인프라 작업을 직접 처리할 단계에 접어들었습니다. GPU와 특화 프로세서가 표준으로 자리잡아가고 있습니다. 대부분 조직에선 플랫폼 엔지니어링 팀이 마련되어 있으며, 임무를 구체화하는 과정에 있습니다.
지금 가장 중요한 것은 실행의 철저함입니다. 우리가 제안하는 조치는? 현재 가진 기능을 완벽히 관리할 수 있을 때까지 새 기능 추가를 멈추세요. API 보안과 관리 방식을 표준화하세요. 시스템을 정확히 파악할 수 있도록 관찰체계를 구축하세요. 플랫폼 팀에 명확한 책임과 필요한 자원을 분명히 제공하세요.
현대적이고 효율적인 인프라를 구축할 기술이 이미 있습니다. 지금이 안전하고 지속 가능한 환경을 만들기 위해 꼭 필요한, 묵묵하지만 중요한 작업에 나설 때입니다.
F5 NGINX 제품에 대해 더 알아보시려면 웹페이지를 방문해 주세요.