본문으로 건너뛰기

© 2026 Molayo

GH Trending릴리즈2026. 05. 08. 12:26

1jehuang/jcode

요약

jcode는 멀티세션 워크플로우와 무한 커스터마이징을 목표로 설계된 차세대 코딩 에이전트 허브입니다. 이 도구는 기존의 주요 경쟁 모델(Codex CLI, GitHub Copilot CLI, Claude Code 등) 대비 월등히 낮은 리소스 사용량과 빠른 성능을 입증했습니다. 특히, 임베딩 기반 메모리 그래프를 활용하여 인간과 같은 기억 체계를 구현하고, 능동적인 정보 검색 및 자동 통합 기능을 제공하는 것이 특징입니다.

핵심 포인트

  • **압도적인 성능 우위:** jcode는 여러 활성 세션 환경에서 기존의 주요 코딩 에이전트들보다 월등히 빠른 응답 시간과 낮은 리소스(RAM) 사용량을 보여줍니다.
  • **고급 메모리 시스템:** 임베딩 벡터와 그래프 쿼리를 사용하여 대화 내용을 효율적으로 관리하고, 관련 정보를 자동으로 회상하여 마치 인간처럼 기억하는 능력을 구현했습니다.
  • **멀티세션 및 커스터마이징:** 멀티세션 워크플로우에 최적화되어 있으며, 무한한 커스터마이징과 높은 리소스 효율성을 제공합니다.
  • **향상된 사용자 경험:** 사이드 패널 기능을 통해 파일 로딩, 실시간 업데이트 확인, Mermaid 다이어그램 렌더링 등 다양한 보조 작업을 지원하여 작업 공간을 확장했습니다.

다음 세대 코딩 에이전트 허브로 기술의 한계를 높입니다.

멀티세션 워크플로우, 무한 커스터마이징, 그리고 성능을 위해 구축되었습니다.

기능 · 설치 · 빠른 시작 · 추가 읽기 · 기여

# macOS & Linux
curl -fsSL https://raw.githubusercontent.com/1jehuang/jcode/master/scripts/install.sh | bash

Windows, Homebrew, 소스 빌드, 제공자 설정, 또는 에이전트를 직접 설정해달라고 요청해야 할까요? 상세 설치로 이동하세요.

jcode 는 최대한 성능과 리소스 효율성을 위해 구축되었습니다. 모든 지표는 뼈대로 최적화되어 있으며, 이는 멀티세션 워크플로우를 확장하는 데 중요합니다. 여기 몇 가지 지표를 샘플링하여 차이를 보여줍니다: RAM 사용량 및 부팅 시간.

1 개 활성 세션
|
10 개 활성 세션
|

도구첫 프레임까지의 시간범위비교
jcode
14.0 ms
10.1–19.3 ms
기준
pi
590.7 ms
369.6–934.8 ms
42.2× 더 느림
Codex CLI
882.8 ms
742.3–1640.9 ms
63.1× 더 느림
OpenCode
1035.9 ms
922.5–1104.4 ms
74.0× 더 느림
GitHub Copilot CLI
1518.6 ms
1357.4–1826.8 ms
108.5× 더 느림
Cursor Agent
1949.7 ms
1711.0–2104.8 ms
139.3× 더 느림
Claude Code
3436.9 ms
2032.7–8927.2 ms
245.5× 더 느림

이 Linux 머신에서 10 개 상호작용 PTY 실행을 통해 측정됨.
(렌더링 화면에 입력 탐사 텍스트가 나타날 때까지의 시간.)

도구첫 입력까지의 시간범위비교
jcode
48.7 ms
30.3–62.7 ms
기준
pi
596.4 ms
373.9–955.2 ms
12.2× 더 느림
Codex CLI
905.8 ms
760.1–1675.7 ms
18.6× 더 느림
OpenCode
1047.9 ms
931.1–1116.9 ms
21.5× 더 느림
GitHub Copilot CLI
1583.4 ms
1422.8–1880.0 ms
32.5× 더 느림
Cursor Agent
1978.7 ms
1727.3–2130.0 ms
40.6× 더 느림
Claude Code
3512.8 ms
2137.4–9002.0 ms
72.2× 더 느림

이 Linux 머신에서 10 개 상호작용 PTY 실행을 통해 측정됨.

도구추가 세션당 PSS비교
jcode (로컬 임베딩 오프)
~9.9 MB
기준
jcode
~10.4 MB
1.1× 더 많은 RAM
pi
~76.5 MB
7.7× 더 많은 RAM
Codex CLI
~21.6 MB
2.2× 더 많은 RAM
OpenCode
~318.4 MB
32.2× 더 많은 RAM
GitHub Copilot CLI
~158.1 MB
16.0× 더 많은 RAM
Cursor Agent
~157.5 MB
15.9× 더 많은 RAM
Claude Code
~212.7 MB
21.5× 더 많은 RAM

jcode v0.9.1888-dev (be386f2)

pi 0.62.0

codex-cli 0.120.0

opencode 1.0.203

GitHub Copilot CLI 1.0.24

for the 1-session rerun, GitHub Copilot CLI 1.0.27

10 세션 재실행 Cursor Agent 2026.04.08-a41fba1

Claude Code 2.1.86 (Claude Code)

Jcode 는 각 턴/응답을 의미 벡터로 임베딩합니다. 모든 턴은 코사인 유사성 검사를 통해 관련 메모리 항목을 효율적으로 찾기 위해 그래프를 쿼리합니다. 임베딩 히트는 대화에 제공되거나, 선택적으로 메모리 사이드 에이전트를 사용하여 메모리가 관련 있는지 검증하고, 정보 검색에 더 많은 작업을 수행한 후 대화에 주입할 수 있습니다. 이는 인간과 같은 기억 체계를 만들어내며, 메모리 도구를 명시적으로 호출하거나 토큰 소모 없이 대화에 관련 정보를 자동으로 회상할 수 있게 합니다. 회상되는 메모리를 갖기 위해서는 또한 추출 및 저장되어야 합니다. 때때로 (의미적 드리프트, 마지막 추출 후 K 턴, 세션 종료 등), 메모리 사이드 에이전트를 통해 메모리가 추출되어 메모리 그래프로 배치됩니다.

해당 하니스는 에이전트가 수동 배경 프로세스에 의존하지 않고 능동적으로 검색하거나 메모리를 저장할 수 있도록 명시적인 메모리 도구를 제공합니다. 또한 해당 하니스는 기존 세션에 대한 전통적인 RAG 를 위한 세션 검색을 제공합니다.

메모리는 ambient mode 를 통해 때때로 자동으로 통합됩니다. 이는 재구성, 구식 여부 및 충돌 확인 등을 수행합니다.

사이드 패널은 보조 정보를 위한 공간입니다. Jcode 에이전트에 파일을 사이드 패널에 로드하도록 지시하고 실시간으로 업데이트되는지 확인하거나, 에이전트에 직접 사이드 패널에 작성하도록 지시하거나, 이를 디프 뷰어로 사용할 수 있습니다. 사이드 패널 (및 채팅) 은 inline 으로 mermaid 다이어그램을 렌더링할 수 있습니다.

이를 가능하게 하기 위해, 저는 다이어그램을 1800 배 더 빠르게 렌더링하는 새로운 mermaid 렌더링 라이브러리를 만들었습니다. 브라우저 또는 Typescript 의존성은 없습니다. https://github.com/1jehuang/mermaid-rs-renderer 를 참조하세요.

화면 공간이 응답에 사용될 수 있도록 중요한 정보를 표시하기 위해, 저는 info widgets 를 개발했습니다. Info widgets 는 화면의 음영 공간을 사용하여 정보만 표시하며, 정보가 없으면 길을 내어줍니다.

Jcode 는 1000 fps 이상으로 렌더링할 수 있습니다. 당신의 모니터는 이를 보여줄Refresh rate 를 갖지 않지만, 이는 귀찮은 깜빡임 문제를 방지한다는 것을 의미합니다.

The custom scrollback implementation of jcode allows it to do much more than a native scrollback. However, it is a terminal-level limitation that I cannot have smooth, partial line scrolling with a custom scrollback. To fix this, I made my own terminal. Handterm https://github.com/1jehuang/handterm implements a native scroll api, and also happens to be very effiecent. This is a work in progress. Scrolling is still well implemented for normal terminals.

Jcode is left-aligned by default. You can switch to centered mode with the Alt+C hotkey, with the /alignment command, or in the config.

Spawn two or more agents in the same repo, and they will automatically be managed by the server to allow native collaboration. When agent A edits a file that agent B has read (code shifting under its feet), the server notifies agent B. Agent B can ignore it if it is not relevant, or it can check the diff to make sure that it doesn't conflict. Each agent has messaging abilities, capable of DMing just one agent, broadcasting to all other agents hosted by the server, or just agents working in that repo. This allows you to spawn multiple sessions in the same repo, and have all conflicts automatically resolved.

Agents are also able to spawn their own swarms autonomously. They have a swarm tool which allows them to spawn in their own teamates to accomplish tasks in parallel. Doing so turns the main agent into a coordinator and the spawned agents into workers. Groups of agents, their messaging channels, their completion statuses, etc are all automatically managed. This can be done headlessly or headed.

jcode works with subscription-backed OAuth flows and many provider integrations, so you can use the models you already pay for and still fall back to direct API providers when needed.

Claude(jcode login --provider claude)
OpenAI / ChatGPT / Codex(jcode login --provider openai)
Google Gemini(jcode login --provider gemini)
GitHub Copilot(jcode login --provider copilot)
Azure OpenAI(jcode login --provider azure)
Alibaba Cloud Coding Plan(jcode login --provider alibaba-coding-plan)
Fireworks(jcode login --provider fireworks)
MiniMax(jcode login --provider minimax)
LM Studio(jcode login --provider lmstudio)
Ollama(jcode login --provider ollama)
Custom OpenAI-compatible endpoint(jcode login --provider openai-compatible)

OpenAI 호환 커스텀 엔드포인트를 위한 jcode 는 이제 API base 를 프롬프트하고, API 키 없이 로컬 localhost 서버를 지원합니다.

파일 편집을 통해 설정하는 것을 선호하신다면, jcode 는 커스텀 OpenAI 호환 엔드포인트 설정 파일과 MCP 설정 파일을 모두 지원합니다.

에이전트와 스크립트의 경우, 일회성 제공자 프로필 명령어가 선호되는 경로입니다. 이는 ~/.jcode/config.toml 에 이름 지정된 프로필을 작성하고, 요청 시 jcode 의 사설 앱 설정 디렉토리에 비밀 정보를 저장하며, 정확한 실행/검증 명령어를 출력합니다:

# 호스팅된 OpenAI 호환 API 를 위한 비밀 보호 설정.
printf '%s' "$MY_API_KEY" | jcode provider add my-api \
--base-url https://llm.example.com/v1 \
...

인증이 필요 없는 로컬 서버의 경우:

jcode provider add local-vllm \
--base-url http://localhost:8000/v1 \
--model Qwen/Qwen3-Coder-30B-A3B-Instruct \
...

유용한 플래그:

--api-key-env NAME

: 기존 환경 변수를 참조하여 키를 저장하지 않습니다.
--api-key-stdin

: shell 히스토리 없이 키를 읽기 및 저장합니다.
--context-window TOKENS

: 모델 선택 및 라우팅을 위해 모델 컨텍스트 윈도우를 지속합니다.
--overwrite

: 동일한 이름의 기존 프로필을 교체합니다.
--model-catalog

: 설정된 모델 외에도 엔드포인트의 /models 응답을 사용합니다.

생성된 프로필은 또한 ~/.jcode/config.toml 에서 수동으로 편집할 수 있습니다:

[provider]
default_provider = "my-api"
default_model = "my-model-id"
...

커스텀 OpenAI 호환 제공자는 환경 변수 또는 jcode 의 앱 설정 디렉토리의 env 파일에서 오버라이드를 읽습니다. Linux 의 경우 이는 보통 ~/.config/jcode/ 이므로, 기본 파일은 보통:

~/.config/jcode/openai-compatible.env

로컬 또는 LAN vLLM 서버의 예시:

JCODE_OPENAI_COMPAT_API_BASE=http://192.168.1.50:8000/v1
JCODE_OPENAI_COMPAT_DEFAULT_MODEL=Qwen/Qwen3-Coder-30B-A3B-Instruct
# 서버가 인증을 기대하는 경우 선택적...

참고:

jcode login --provider openai-compatible

은 이를 생성하거나 업데이트할 수 있습니다.- Plain http://localhost 및 사설 LAN IP 를 위해 허용됩니다. 공개 원격 HTTP 는 여전히 거부됩니다. - HTTPS 엔드포인트는 평소와 같이 작동합니다.

MCP 설정은 config.toml 과 별개입니다.

주요 설정 파일:

~/.jcode/mcp.json

글로벌 MCP 서버용
.jcode/mcp.json

프로젝트 로컬 MCP 서버용

호환성 낙후:

.claude/mcp.json

예시 MCP 설정:

{
"servers": {
"filesystem": {
...

첫 실행 시 jcode 는 ~/.claude/mcp.json

and ~/.codex/config.toml

if ~/.jcode/mcp.json

does not exist yet.

For headless or SSH sessions, OAuth-style providers support jcode login --provider <provider> --no-browser

(alias: --headless

) so jcode prints the auth URL/QR and falls back to manual code or callback paste instead of trying to launch a local browser.

For more scriptable remote flows, claude

, openai

, gemini

, and antigravity

also support a two-step pattern:

# Step 1: print a resumable auth URL
jcode login --provider openai --print-auth-url --json
# Step 2: complete later with the callback URL or auth code
...

Additional scriptable cases:

# Copilot device flow: print URL + user code, then complete later
jcode login --provider copilot --print-auth-url --json
jcode login --provider copilot --complete
...

Pending scriptable login state is stored under `~/.jcode/pending-login/

`, automatically expires, and stale entries are cleaned up when new scriptable logins start or resume.

For the built-in OpenAI login flow, jcode opens a local callback on
http://localhost:1455/auth/callback

by default.

Native / first-party style providers:claude

,openai

,copilot

,gemini

,azure

,alibaba-coding-plan

Aggregator / compatibility providers:openrouter

,openai-compatible

Additional provider integrations:opencode

,opencode-go

,zai

/kimi

,302ai

,baseten

,cortecs

,deepseek

,firmware

,huggingface

,moonshotai

,nebius

,scaleway

,stackit

,groq

,mistral

,perplexity

,togetherai

,deepinfra

,fireworks

,minimax

,xai

,lmstudio

,ollama

,chutes

,cerebras

,cursor

,antigravity

,google

Jcode also supports easy multi-account switching. Ran out of tokens on your first ChatGPT Pro subscription? /account and quickly switch to your second.

Jcode is inventing a new form of customizability. One that doesn't limit you to what a plugin or extension can do. Tell your jcode agent to enter self dev mode, and it will start modifying its own source code. Jcode is optimized to iterate on itself. There is significant infrastructure around self developement, which allows it to edit, build, and test its own source code, then reload its own binary and continue work in your (potentially many) sessions, fully automatically.

AI 자동 생성 콘텐츠

본 콘텐츠는 GitHub Trending Rust (weekly)의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
3

댓글

0