Model Context Protocol: AI를 위한 USB-C 포트
요약
Model Context Protocol (MCP)은 LLM이 외부 도구, 리소스 및 프롬프트를 표준화된 방식으로 발견하고 호출할 수 있도록 설계된 개방형 표준 프로토콜입니다. 기존에는 AI 모델을 각 데이터 소스에 맞게 커스텀 통합해야 하는 비효율성이 있었으나, MCP는 하나의 표준 서버를 통해 모든 호환 가능한 AI 클라이언트가 연결될 수 있게 합니다. 이는 마치 USB-C 포트처럼 범용성을 제공하여, 복잡한 AI 애플리케이션 개발의 기반을 마련합니다.
핵심 포인트
- MCP는 LLM이 외부 도구(Tools), 리소스(Resources), 프롬프트(Prompts)를 표준화된 JSON-RPC 세션으로 관리하는 방법을 정의합니다.
- 하나의 MCP 서버 구축만으로 Claude, ChatGPT 등 모든 호환 AI 클라이언트가 연결 가능하여 개발 효율성을 극대화합니다.
- MCP는 상태 유지(stateful sessions) 기반의 다단계 워크플로우를 지원하며, 이는 기존 REST 호출 방식보다 진보된 컨텍스트 관리를 의미합니다.
- 이 프로토콜은 MIT 라이선스의 개방형 표준이며, Anthropic에 의해 시작되어 OpenAI와 Google DeepMind 등 주요 기업들이 채택하고 있습니다.
- MCP는 AI 시스템을 위한 범용 인터페이스 역할을 하며, 향후 멀티 에이전트 오케스트레이션의 핵심 기반 기술로 자리매김할 것입니다.
문제점: MCP 이전에는 왜 AI 모델들이 고립되어 있었는가
AI 모델을 데이터베이스, Slack 워크스페이스, GitHub 리포지토리와 같은 도구와 통합하려면 모든 조합에 대해 커스텀 커넥터(custom connector)를 작성해야 했습니다. N개의 도구와 M개의 AI 플랫폼이 있다면, 결국 N×M개의 맞춤형 통합이 필요하게 되며, 이는 각각 취약하고, 고립되어 있으며, 유지보수의 부담이 됩니다. "각 데이터 소스에 대해 별도의 커넥터를 유지 관리하는 대신, 이제 개발자는 표준 프로토콜을 기반으로 구축할 수 있습니다." — Anthropic, 2024년 11월
MCP는 Language Server Protocol (LSP)이 언어 도구 문제를 해결한 것과 정확히 동일한 방식으로 문제를 해결합니다. 즉, 하나의 표준을 정의하면 모든 것이 그 표준을 따르게 됩니다.
정의: 쉽게 설명하는 MCP
Model Context Protocol (MCP)은 개방형 표준입니다. REST나 GraphQL을 떠올리되, AI 에이전트(AI agents)를 위해 특별히 설계되었다고 생각하면 됩니다. MCP는 대규모 언어 모델(LLM)이 상태 유지(stateful) 방식의 JSON-RPC 기반 세션을 통해 외부 도구, 리소스 및 프롬프트를 어떻게 발견하고 호출하는지를 정의합니다. 하나의 MCP 서버를 작성하면 Claude, ChatGPT, Cursor 및 그 이상의 모든 호환 가능한 AI 클라이언트가 이를 사용할 수 있습니다.
흐름은 다음과 같습니다:
사용자 / 호스트 앱 → MCP 클라이언트 (LLM) ⇄ MCP 서버 → 데이터 / 도구
아키텍처: 모든 MCP 서버가 노출하는 세 가지 요소
-
리소스 (Resources)
읽기 전용 데이터 — 파일, 데이터베이스 레코드, 문서. 부수 효과(side effects)가 없는 순수한 컨텍스트 검색입니다. -
도구 (Tools)
실행 가능한 작업 — API 호출, 계산, 웹 요청. 부수 효과를 발생시킬 수 있습니다. -
프롬프트 (Prompts)
재사용 가능한 프롬프트 템플릿 및 워크플로우로, LLM이 일관된 출력을 위해 이름으로 호출할 수 있습니다.
개발자들이 MCP를 좋아하는 네 가지 이유
✅ 한 번 작성하여 어디서나 사용 — 하나의 MCP 서버를 구축하면 규격에 맞는 모든 AI 호스트가 이에 연결할 수 있습니다. 모델별로 별도의 글루 코드(glue code)를 작성할 필요가 없습니다.
✅ 상태 유지 세션 (Stateful sessions) — 클라이언트와 서버는 일회성 REST 호출이 아니라 다단계 워크플로우 전반에 걸쳐 컨텍스트를 유지합니다.
✅ 설계 단계부터 보안 고려 — 각 클라이언트-서버 쌍은 격리되어 있으며, 세션 간에 권한이 침범되지 않습니다.
✅ 개방형 표준, MIT 라이선스 — GitHub에서 커뮤니티에 의해 유지 관리되며, 특정 벤더 종속(vendor lock-in)이 없습니다.
주의 사항: 보안
보안 연구원들은 2025년에 다음과 같은 실질적인 위험을 지적했습니다:
- 악의적인 서버 설명을 통한 프롬프트 인젝션 (Prompt injection)
- 데이터 유출 (Data exfiltration)을 가능하게 하는 지나치게 광범위한 도구 권한
- 신뢰할 수 있는 도구를 조용히 대체하는 유사 도구
MCP 자체는 보안을 강제할 수 없습니다. 구현자(Implementors)는 배포 시 적절한 동의 흐름 (Consent flows), 액세스 제어 (Access controls), 그리고 감사 추적 (Audit trails)을 반드시 구축해야 합니다.
도입 타임라인: 18개월 만에 실험에서 산업 표준으로
| 날짜 | 마일스톤 |
|---|---|
| 2024년 11월 | Anthropic이 MCP를 오픈 소스로 출시합니다. GitHub, Slack, Google Drive, Postgres를 위한 사전 구축된 서버들이 활성화됩니다. |
| 2025년 초 | 생태계가 급성장합니다. Zed, Replit, Codeium, Sourcegraph, Block, Apollo가 MCP를 통합합니다. OpenAI와 Google DeepMind가 이 표준을 채택합니다. |
| 2025년 11월 | MCP 출시 1주년을 맞이하며 멀티 에이전트 오케스트레이션 (Multi-agent orchestration), 보안 외부 인증 흐름 (Secure external auth flows), 그리고 더 나은 컨텍스트 제어 기능을 포함한 주요 새로운 사양 (Spec)을 출시합니다. |
| 2026년 4월 | 뉴욕시에서 열린 AAIF MCP Dev Summit에 약 1,200명의 참석자가 모입니다. 이는 업계가 이 프로토콜을 얼마나 진지하게 받아들였는지를 보여주는 신호입니다. |
사용자 현황
빠르게 성장하는 생태계에는 다음이 포함됩니다:
OpenAI, Google DeepMind, GitHub, Slack, Cursor, Zed, Salesforce, Azure, Cloudflare, Replit, Sourcegraph, IBM BeeAI 및 기타 다수.
다음 단계: 거시적 전망
MCP는 새로운 단계에 진입하고 있습니다. 2025년 11월 사양은 완전한 멀티 에이전트 오케스트레이션 (Multi-agent orchestration)을 가능하게 합니다. 즉, 연구용 서버가 표준 MCP 프리미티브 (Primitives)만을 사용하여 서브 에이전트 (Sub-agents)를 생성하고, 그들의 작업을 조정하며, 일관된 결과를 전달할 수 있습니다. 별도의 커스텀 스캐폴딩 (Custom scaffolding)은 필요하지 않습니다.
이 프로토콜은 더 이상 단순히 LLM을 데이터에 연결하는 것에 그치지 않습니다. 이는 완전히 새로운 범주의 AI 기반 애플리케이션을 위한 토대가 되고 있습니다. MCP를 USB-C를 생각하는 방식대로 생각하십시오. 어떤 주변 기기든 어떤 장치와도 통신할 수 있게 해주는 범용 포트와 같습니다. 생태계가 성숙해짐에 따라, AI 시스템은 도구와 데이터 세트 전반에 걸쳐 컨텍스트를 원활하게 유지할 것이며, 오늘날의 파편화된 통합 방식을 지속 가능하고 조합 가능한 아키텍처 (Composable architecture)로 대체할 것입니다.
시작하기 📖 공식 MCP Specification 💻 MCP GitHub Repository 🚀 Anthropic의 MCP 발표 MCP는 Anthropic의 엔지니어인 David Soria Parra와 Justin Spahr-Summers에 의해 만들어졌으며, 오픈 소스(Open-source)이자 커뮤니티 주도 프로젝트로 유지 관리되고 있습니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 Dev.to AI tag의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기