블로그

SecOps는 AI를 어떻게 평가하나요? 2부: 데이터 보호

마크 톨러 썸네일
마크 톨러
2025년 9월 15일 발표

AI는 다양한 감정을 불러일으킵니다. 일부 사람들은 AI가 NFT나 3D TV처럼 곧 사라질 일시적 유행이라 생각합니다. 또 다른 이들은 자각하는 악의적인 AGI 지배자들에 대비해 벙커를 짓고 있죠. 과장된 이야기 속에서도 분명한 한 가지 사실이 있습니다: AI는 방대한 데이터와 연결되어 있습니다.

AI에 대한 과대 광고가 많아 전문가들 사이에서 설레거나 두렵거나 의심하는 목소리가 있지만, F5는 실제 현업에서 AI를 어떻게 느끼는지에 주목합니다. 현실적 과제와 우려를 파악하기 위해, 우리는 보안 전문가 최대 커뮤니티인 Reddit의 r/cybersecurity를 대상으로 포괄적인 감정 분석을 진행했습니다.  Shawn Wormke가 작성한 이 연구 1부 블로그 “SecOps는 AI를 어떻게 느끼고 있을까?”에서는 연구 전반의 결과를 요약했습니다. 모든 인용문은 2024년 7월부터 2025년 6월까지 보안 실무자들이 남긴 댓글에서 직접 발췌했습니다. 이제 올해 AI 관련 주요 관심사인 데이터 보안에 대해 더 깊이 살펴보겠습니다.

고충 사항 비율 차트

데이터 보안은 2025년 AI 관련 주요 우려 사항으로 떠올랐으며, 1월 DeepSeek 공격이 그 추세를 더욱 가속화했습니다.

민감한 정보 노출, 섀도우 AI, 규정 준수 문제가 대두되고 있습니다

많은 이들이 악의자가 AI를 활용해 정교한 사회공학 공격을 벌이고, 지능형 봇들을 대량으로 동원하는 위협 환경을 상상합니다. 그 위협도 실제하지만, 보안 전문가들이 보여주는 그림은 훨씬 더 순진하지만 그만큼 해롭고 훨씬 더 광범위합니다. 실제로 SecOps는 악용보다 내부 AI 오용에 대한 우려가 2.3배 더 자주 제기된다는 사실을 확인했습니다.

이는 첫 번째 문제의 핵심, 즉 민감한 정보 공개에 관한 것입니다. 한 실무자는 이를 간결하게 표현했습니다. "현실적으로 말하면, 직장에서는 모두가 LLM을 활용하고 모든 종류의 민감한 정보를 프롬프트에 입력합니다." 모델이 더 큰 컨텍스트 창을 확보하고 검색 증강 생성(RAG)에 사용할 수 있는 파일 유형이 늘어나면서, 직원들은 정보에 입각한 출력을 얻는 가장 빠른 방법은 LLM에 필요한 모든 정보를 제공하는 것이라는 사실을 깨달았습니다. 이는 제로 트러스트의 필수 요소인 최소 권한의 원칙과 직접적으로 모순됩니다. 간단히 말해서, "보안과 역량 사이에는 항상 긴장이 존재합니다."

기존 정책 집행 방식은 이제 효과를 내지 못합니다

대부분의 조직이 AI 보안을 위해 취하는 첫 단계는 허용 사용 정책(AUP)을 마련하는 것입니다. 다양한 전략이 있지만, 기존의 억제책과 제한 방식은 충분하지 않다는 데 모두 동의합니다.

한 사용자가 말했듯 웹 애플리케이션 방화벽(WAF)과 DNS 필터링 같은 기존 도구는 결국 시간을 끄는 데 불과합니다.  “차단하면 결국 귀하의 데이터가 이런 무료 서비스로 몰리게 됩니다. 블랙리스트 문제는 언제나 두더지 잡기 놀이처럼 반복될 수밖에 없습니다.” 이것이 바로 작년 한 해 가장 많이 논의된 과제 중 하나인 섀도우 AI를 부릅니다. 새 모델은 매일 쏟아지고, 그 모델을 감싼 래퍼는 매시간 새롭게 코드화됩니다. 사용자는 자신에게 중요한 목표를 이루는 데 방해가 되는 정책을 언제나 우회할 방법을 찾아냅니다.

그림자 AI와 민감한 데이터 노출이라는 두 가지 주요 문제는 보안팀에게 최악의 상황을 만듭니다. 즉, 아무런 가시성 없이 노출이 확산되는 환경입니다. 사용자들은 주류 LLM을 이용해 읽는 시간을 줄이면서 기밀 문서를 업로드할 가능성이 있습니다. 하지만 그림자 AI 솔루션을 도입하면 SecOps 팀은 이 상호작용을 모니터링하며 다양한 위험 완화 조치를 실행할 수 있습니다. 특정 사용자에게 향후 상호작용을 더 세심하게 주시하거나, 행동이 개선될 때까지 중요한 자원 접근을 제한할 수 있습니다. 그림자 AI 솔루션이 없다면, 방화벽이나 DNS 차단 같은 전통적 대책은 사용자를 같은 기본 모델의 불투명한 래퍼로 옮길 뿐, 위험 행위의 형태, 방식, 위치에 대한 가시성을 숨기고말 뿐입니다.

규정 준수는 모든 취약점이 모이는 지점입니다

EU AI법과 일반 개인정보보호법(GDPR) 같은 강화된 준수 기준이 업계별 규정을 넘어 점점 늘어나면서, 적절한 AI 데이터 관리 체계를 갖추지 않은 조직은 벌금, 법적 책임, 신뢰 하락이라는 중대한 위험에 직면하게 됩니다. 

보안 전문가들은 열정과 경쟁력을 좇다가 보안 측면을 간과한 기술들을 많이 경험했습니다. 클라우드 컴퓨팅은 오늘날 AI가 겪는 것과 비슷한 길을 걸었습니다. 급속한 도입과 새로운 가능성에 대한 기대, 그 뒤를 이은 광범위한 오구성, 과도한 접근 권한, 그리고 공유 책임 모델의 실패가 그것입니다. 여러분도 낯익나요? 주요 차이점은 클라우드에서는 위험에 영향을 주는 참여자가 훨씬 적었다는 점입니다. AI 보안의 새로운 과제는 클라우드 아키텍트와 엔지니어를 주된 책임자로 보던 관점을 벗어나, 모델 자체를 포함해 민감한 데이터에 접근할 수 있는 모두로 범위를 넓혔습니다. 

실무자가 과제를 명확히 이해합니다

어떤 기술도 위험 부담 없이 등장한 적 없으며, 세상이 모두 모여 ‘너무 위험하니 즉시 중단하자’고 결정한 적은 한 번도 없습니다. 보안 실무자는 앞으로 맞닥뜨릴 도전과 중요성을 잘 인식하고 있습니다.

AI가 데이터와 효과적으로 상호작용하도록 보호 장치를 마련하고 지속적으로 관찰할 수 있도록 하는 일은 쉽지 않지만, AI 도입이 현재처럼 빠르게 이어진다면 필수 과제입니다.

F5는 이러한 과제를 해결하기 위해 발빠르게 움직이고 있으며, SecOps의 의견을 적극 반영해 우선순위를 정해 나가겠습니다. 자세한 내용을 확인해 보세요.