본문으로 건너뛰기

© 2026 Molayo

r/ClaudeAI분석2026. 05. 01. 09:17

[오픈소스] Claude Code 를 위한 로컬 코드 검색 MCP 개발 (~98% 적은 토큰 사용)

요약

본 기사는 대규모 코드베이스에서 Claude Code와 같은 LLM이 관련 코드를 검색할 때 발생하는 토큰 낭비 및 비효율성 문제를 해결하기 위해 개발된 로컬 코드 검색 MCP 서버, Semble을 소개합니다. Semble은 전체 파일을 읽는 대신 매칭되는 청크(chunks)만 반환하며, 평균적으로 기존 방식 대비 98% 적은 토큰을 사용하고 매우 빠른 속도(인덱싱 ~250ms, 쿼리 ~1.5ms)로 작동합니다. 이 솔루션은 정적 임베딩, BM25, 그리고 코드 최적화된 리랭킹 스택의 조합으로 구성되어 CPU 환경에서도 높은 성능을 제공합니다.

핵심 포인트

  • Claude Code 사용 시 발생하는 토큰 낭비 및 비효율적인 코드 검색 문제를 해결하는 로컬 솔루션(Semble)을 개발했습니다.
  • 기존 방식처럼 전체 파일을 읽는 대신, Semble은 관련성이 높은 청크(chunks)만 반환하여 효율성을 극대화합니다.
  • 토큰 사용량 측면에서 기존 grep+read 방식 대비 평균 98% 적은 토큰을 사용하며, 속도 또한 매우 빠릅니다 (쿼리 응답 시간 ~1.5ms).
  • Semble은 정적 임베딩, BM25, 그리고 코드 최적화된 리랭킹 스택의 조합으로 구성되어 CPU 환경에서도 높은 성능을 유지합니다.

Claude Code 와 대규모 코드베이스를 작업할 때 우리는 항상 같은 문제를 마주쳤습니다. Claude 가 관련 코드를 찾을 때 grep 을 사용하고 전체 파일을 읽거나 여러 개의 서브 에이전트를 시작하는 방식으로 회귀합니다. 이는 토큰을 낭비하며, 종종 관련 코드를 놓칩니다. 기존 솔루션들 (우리가 벤치마킹한 것들도 포함) 이 있지만 모두 문제점이 있었습니다 (너무 느림, API 키 필요, 품질이 부족함 등).

우리는 이를 해결하기 위해 Semble 을 개발했습니다. 이는 Claude Code 에 고품질의 코드 검색을 제공하는 로컬 MCP 서버입니다. 파일을 읽어서 관련성을 찾는 대신, 매칭되는 청크 (chunks) 만 반환합니다. 평균적으로 grep+read 보다 98% 적은 토큰을 사용하며, 모든 레포지토리를 인덱싱하는 데 ~250ms, 쿼리에 답하는 데 ~1.5ms를 소요합니다. 이는 모두 CPU 에서 가능합니다. 정적 임베딩 (static embeddings), BM25, 그리고 코드 최적화된 리랭킹 스택 (code-optimized reranking stack) 의 조합을 활용합니다.

설치:

claude mcp add semble -s user -- uvx --from "semble[mcp]

AI 자동 생성 콘텐츠

본 콘텐츠는 r/ClaudeAI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
4

댓글

0