블로그 | CTO 사무실

새로운 봇 전쟁: 당신이 아는 모든 사람이 가짜일 수도 있습니다

로리 맥비티 썸네일
로리 맥비티
2025년 5월 13일 게시

봇 팜은 원래 농담이었습니다. 수천 개의 스팸 계정, 엉터리 영어, 저질 참여 전략. 발견하기 쉽습니다. 무시하기 쉽다.

더 이상 그렇지 않습니다.

오늘날 봇 팜은 산업적 규모로 운영되며, 실제 사용자처럼 동작하는 스크립트 계정을 실행하기 위해 수천 대의 실제 스마트폰을 배치합니다. 그들은 플랫폼 참여 알고리즘을 작동시키기에 충분할 만큼만 좋아요를 누르고, 공유하고, 댓글을 남깁니다.

해킹이 아닙니다. 시스템을 설계된 대로 정확하게 사용하지만, 더 빠르고, 규모에 맞게 사용하며, 시스템이 가정하는 진정성은 없습니다.

게시물이 인기를 얻으면 X와 Meta와 같은 플랫폼이 그 게시물을 더욱 확산시킵니다. 그들은 정확성이 아닌 참여를 확대합니다. X의 2023년 투명성 보고서는 무엇이 움직이는지 명확히 밝힙니다. ML 기반 감지 시스템이 있더라도 AI 기반 봇은 유기적 트래픽에 완벽하게 섞여들 수 있습니다.

그 다음부터는 실제 사용자가 주도권을 잡습니다. 가시성은 인식된 정당성을 만들어냅니다. 뭔가가 인기 있는 것처럼 보이면 신뢰할 수 있다는 느낌이 듭니다.

가짜 약혼은 환상을 만들어낸다. 불을 피우는 사람은 실제로 존재합니다. 그리고 AI는 그 화재를 추적하는 것을 그 어느 때보다 어렵게 만들었습니다.

AI의 영향

한때 봇 팜에는 반복적인 게시물을 밀어붙이는 인력 군대가 필요했지만, 이제는 AI 도구를 이용해 일관되고 다양하며 매우 믿을 수 있는 콘텐츠를 생성할 수 있습니다. NewsGuard의 2023년 보고서 에 따르면, AI가 생성한 선전은 지역별 언어와 감정에 있어서도 실제 해설과 구별하기 어려워지고 있습니다.

이것은 더 이상 쓰레기 콘텐츠가 아닙니다. 그것은 타당하고, 상황에 맞으며, 반응적입니다. 겉보기에는 대중의 지지처럼 보이지만, 사실은 산업적 규모로 만들어진 영향력입니다.

그리고 플랫폼은 여전히 이에 대해 보상을 제공합니다. 그들은 실제 성능을 평가하기 위해 만들어진 것이 아니라, 성능을 증폭시키기 위해 만들어졌습니다. 

검토 도구와 인간 검토자가 따라잡지 못하고 있습니다. 조직적이고 허위적인 행동에 대한 조치를 취하기 위한 Meta의 2024년 보고서는 이러한 조직적인 캠페인을 실시간으로 감지하는 것이 얼마나 어려워졌는지를 강조합니다.

이건 주변적인 문제가 아닙니다. 이는 정치, 마케팅, 금융 투자, 심지어 브랜드 신뢰에도 영향을 미칩니다. 2021년 미국 미국 증권거래위원회는 봇에 의해 조장되는 소셜 미디어 기반 시장 펌프에 대해 경고했습니다 .

그 사이, 가시성과 참여에 의존하는 시스템(트렌드 목록, "추천" 패널)은 이제 쉽게 해킹당할 수 있습니다. 중요한 것을 표면화하기 위해 고안된 도구는 지금 누군가가 중요해지도록 하기 위해 지불한 돈을 표면화합니다.

오늘날의 봇은 규칙을 어기지 않습니다. 그들은 그들을 따른다. 그들은 인간의 행동을 모방하고 대화를 생성합니다. 그들은 시간이 지남에 따라 신뢰를 쌓고 여러 네트워크에서 운영됩니다. 이러한 취약점은 기술 정책을 위반하지 않기 때문에 종종 감지되지 않습니다.

이는 더 심각한 결함을 드러냅니다. 시스템은 동기가 아닌 행동을 평가하기 위해 설계되었습니다. 우리는 패턴을 신뢰했습니다. 정상적으로 보이면 안전하다고 생각했습니다.

하지만 AI는 비정상적으로 행동하지 않습니다. 설득력 있게 행동합니다.

AI가 신호를 스택 위로 이동시킵니다.

신호가 스택 위로 이동했습니다. 헤더와 요금에서 벗어나세요. 페이로드, 콘텐츠 의미론, 시스템 수준 조정에 대해 알아보겠습니다. AI가 생성한 영향력은 기존 방어수단으로는 깨끗해 보인다. 이상 현상은 더 이상 봉투 안에 존재하지 않습니다. 메시지에 적혀 있어요.

이 문제를 해결하기 위한 노력이 진행 중입니다. DARPA의 의미 포렌식 프로그램은 의도와 언어적 마커를 사용하여 AI가 생성한 콘텐츠를 감지하는 데 주력하고 있습니다. X의 2024년 업데이트에는 봇 제거 기능이 강화되었다고 언급되어 있습니다. 하지만 이러한 시스템은 아직 초기 단계에 있습니다. 아직 이러한 도구는 AI 기반 영향력 캠페인을 앞지르기에 충분히 확장 가능하거나 반응성이 좋지 않습니다.

이제 위협이 다시 진화하고 있습니다.

단순한 봇을 넘어 AI 기반 에이전트가 배치되고 있습니다. 이러한 에이전트는 자동화 이상의 역할을 합니다. 그들은 협력합니다. 그들은 회전합니다. 그들은 실시간으로 대응 데이터를 분석하고 전략을 조정합니다. 2022년 DFRLab 연구에서는 국가 지원 캠페인이 AI 에이전트를 사용하여 여러 플랫폼에서 허위 정보를 조율하고 감지 기능에 동적으로 적응하는 방식을 기록했습니다.

한편, 합법적인 기업들은 고객 지원, 마케팅, 워크플로 자동화를 위해 에이전트를 도입하고 있습니다. Lyzr.ai에 따르면 AI 도입 노력의 70%가 대화형 봇뿐만 아니라 액션 기반 AI 에이전트에 집중되어 있습니다 .

이로 인해 경계가 모호해집니다. 요원들이 회사와 공격자를 모두 대변할 때, 신뢰는 침식됩니다. 브랜드 담당자로 가장한 가짜 지원 봇은 사용자에게 피싱을 하거나 잘못된 정보를 퍼뜨릴 수 있으며, 주의 깊게 살펴보지 않는 한 실제 봇과 구별하기 어렵습니다.

이는 더 이상 봇의 문제가 아닙니다. 이는 진정성의 위기입니다.

AI 진화는 기존 가정에 의문을 제기합니다.

첨단 AI 도구와 조정된 에이전트를 활용한 새로운 봇 전쟁은 기존의 지도를 새롭게 그렸습니다. 우리는 소음을 방어하지 않습니다. 우리는 인간처럼 보이도록 만들어지고, 시스템을 조작하도록 확장되고, 감지되지 않도록 최적화된 합성적 신뢰성에 맞서 싸웁니다.

보안과 확장성을 중심으로 구축된 기본 가정은 인프라에서 벗어나 알고리즘, 의미론, 인식된 정당성을 활용하는 방향으로 전환함에 따라 무너지고 있습니다.

이를 해결하려면 기초를 다시 생각해야 합니다. 규칙을 시행하기 위해 만들어진 도구는 더 광범위한 의도 시스템의 일부로서 행동, 언어 및 조정된 패턴을 해석할 수 있도록 발전해야 합니다.

그때까지 회의적인 태도가 우리의 기본이며, 신뢰를 회복하려면 탐지 이상의 것이 필요할 것입니다.

우리가 매일 사용하는 시스템의 무결성을 재건하고, 합성적 영향력이 의사 결정을 조용히 손상시키고, 자동화를 장악하고, 내부에서 사용자의 신뢰를 침식하는 기업 전략이 기업에 침투하지 못하도록 하려면 플랫폼, 기업, 연구자 간의 적극적인 협업이 필요합니다.