일부 사람들이 LLM과 AI 에이전트를 혼동하고 있습니다. 이 부분은 확실히 정리해 드리겠습니다. 일부에서는 챗봇에 도구 실행 기능을 추가해 AI 에이전트라고 부르지만, 고급 자동화를 위해 에이전트를 활용하려면 그런 접근은 아직 미성숙한 단계입니다. 당신도 그럴 겁니다. 하이브리드와 멀티클라우드 복잡성으로 인한 운영 부담을 줄이는 가장 핵심적인 활용 사례임을 잘 알고 있으니까요.
AI 에이전트는 목표를 해석하고 맥락을 유지하며 도구를 호출해 작업을 수행하는 소프트웨어 단위(애플리케이션)로서 제한된 시스템입니다. 무슨 일이 필요한지 판단하기 위해 대규모 언어 모델(LLM)을 활용할 수 있지만, LLM은 전체 시스템의 한 부분에 불과합니다. 에이전트가 바로 우리가 말하는 시스템입니다.
실제로 AI 에이전트는 명시적이거나 추론된 작업을 받아 맥락에 맞게 평가한 뒤, 어떻게 행동할지 결정합니다. 이 행동에는 도구 호출, 시스템 조회, 워크플로 실행 등이 포함됩니다.
이제 많은 에이전트가 없어도 한 개의 에이전트로 충분한 가치를 얻을 수 있습니다. 잘 계획된 단일 에이전트가 긴밀한 툴체인과 연결되어 있으면 바로 유용한 작업을 수행할 수 있습니다. 요약을 자동화하고, 보고서를 생성하며, 티켓을 분류하거나 경고를 적절한 대기열로 안내할 수도 있습니다. 범위와 정책만 지킨다면 이미 충분한 가치를 제공합니다.
에이전틱 AI 방식을 사용하지 않아도 AI 에이전트를 활용할 수 있습니다. 하지만 에이전트들이 협업하기 시작하면 아키텍처가 준비되지 않았어도 이미 에이전틱 AI 방식을 적용하는 것입니다.
최근 연구 결과를 바탕으로, 귀하는 이미 대리인 행동(응답자의 9%)을 경험하고 있거나 곧 경험할 것으로 보입니다(응답자의 79%). 대리인 AI는 여러 에이전트(“미니언”이라 부르는, 대리인 AI와 구분하기 용이한 개념)가 공유 도구, 상황에 맞는 목표, 그리고 MCP 같은 실행 관리 계층과 함께 작동하는 통제된 실행 구조를 필요로 합니다.
에이전트는 명확한 제약 조건 내에서 자율적 또는 반자율적으로 작동하는 소프트웨어 구성 요소입니다. 에이전트는 작업을 해석하고, 상황을 관리하며, 도구를 실행하고, 사용자를 대신하거나 더 큰 시스템을 위해 결정을 내립니다. MCP에 맞춘 아키텍처에서 에이전트는 작업, 상태, 정책이 상호 작용하는 방식을 규정하는 구조화된 프로토콜을 따릅니다.
에이전트는 주어진 샌드박스 내에서만 판단하고 위임하며 행동할 수 있습니다. 시스템 호출을 임의로 생성하지 않습니다. 도구 접근 권한을 새로 만들지 않습니다. 모든 작업은 보안, 감시, 취소가 가능한 명확한 인터페이스를 반드시 거칩니다.
에이전트는 최소한 다음을 갖추고 있습니다:
LLM은 생각합니다. 에이전트는 행동합니다. 플랫폼은 통제합니다.
두 가지 주요 모델이 있지만, 그중 하나는 함정입니다.
그림 1 오늘날 AI 에이전트를 구축하는 두 가지 주요 방식이 있습니다: LLM 중심과 애플리케이션 제한 방식입니다. LLM 중심은 챗봇에 적합하지만, 더 복잡한 자동화에는 부적합합니다.
이는 오늘날 대부분 프레임워크의 표준 방식입니다: LangChain, AutoGen, CrewAI 등 에이전트는 도구와 선택적 메모리를 포함한 채팅 프롬프트로, 하나의 LLM 세션을 중심으로 구성합니다.
제한 사항:
간단히 말해, 무제한 권한을 가진 똑똑한 인턴이지만 감독은 없는 상황입니다. 잘 작동할 때도 있지만, 어느 순간 문제를 일으킵니다.
이 모델이 바로 실제 서비스에 적합한 모델입니다.
여기에서 에이전트는 LLM을 사용하는 프레임워크를 기반으로 구축된 완전한 소프트웨어 서비스이지만 실행을 처리하기 위해 LLM에 의존하지는 않습니다.
이 방식은 버전 관리, 접근 로그, 도구 별 거버넌스, 그리고 실행 환경 격리를 모두 제공합니다. 에이전트를 단순 장난감에서 핵심 인프라로 전환하는 방법입니다.
사람들이 에이전트를 지능적인 페르소나로 설계할 때, 본능적으로 인간 중심의 접근 방식을 선택합니다: 역할 기반 접근 제어(RBAC), 로그인 토큰, 사용자 속성, 신원 범위 등입니다. 세션 내내 일관된 인간 신원을 다룰 때는 이런 방식이 적합합니다. 하지만 에이전트는 그렇게 행동하지 않습니다. 에이전트는 사용자가 아닙니다. 그들은 작업 수행자입니다. 이 차이가 모든 것을 바꿉니다.
에이전트는 작동하면서 역할을 바꿉니다. 하나의 에이전트가 같은 세션과 작업 범위 안에서 데이터 수집자, 계획자, 자동화 트리거 역할을 연속적으로 수행합니다. 로그인해서 고정된 토큰을 가져와 한 가지 역할만 고수하지 않습니다.
전통적인 접근 제어가 실패하는 지점입니다. RBAC는 고정된 역할을 전제로 합니다. 속성 기반 접근 제어(ABAC)는 변하지 않는 속성을 전제로 합니다. 세션 토큰은 일관된 범위를 전제로 합니다. 에이전트가 동적으로 변할 때는 이 모든 전제가 무너집니다. 에이전트 시스템에서 정체성은 개인이 아닌 기능적 성격을 가집니다.
그래서 우리는 거버넌스 에이전트를 신원 기반 정책에서 실행 기반 정책으로 전환해야 한다고 강조합니다. 모든 도구 호출은 에이전트의 현재 작업 역할, 컨텍스트 상태, 허용 범위에 대한 실시간 검증을 거쳐야 합니다. 정책은 인증 계층에 있지 않고 도구 계층에 존재합니다. 로그인 세션이 아니라 컨텍스트 블록이 정책 시행에 필요한 메타데이터를 담고 있습니다. 우리가 이 변화의 핵심을 ‘Policy in Payload’라고 부르는 이유는 정책이 문자 그대로 페이로드 안에 있기 때문입니다.
에이전트를 에이전트답게 대하세요. 소프트웨어처럼 통제하세요. 그리고 꼭 기억하세요: LLM은 생각하고, 에이전트는 행동하며, 플랫폼이 통치합니다. 이 역할을 혼동하면, 관리자 권한만 가지고 마지막 실수를 기억하지 못하는 인격을 만들게 됩니다.
LLM은 사고합니다. 에이전트가 활동합니다. 플랫폼이 운영합니다.
원칙을 지키면 확장 가능하고 안전하며 현실적인 상황에도 견디는 에이전트 인프라를 구축할 수 있습니다.