You can now give Hermes, Claude Code, and Codex infinite memory.
요약
Agentmemory는 Hermes, Claude Code, Codex와 같은 대규모 언어 모델(LLM) 기반 에이전트에게 무한하고 효율적인 메모리 기능을 제공하는 새로운 솔루션입니다. 이 도구는 코딩 세션과 같은 장기 상호작용 과정에서 발생하는 방대한 양의 관측치(observations)를 AI가 압축하고 핵심 컨텍스트만 추출하여 미래 세션에 재주입합니다. 이를 통해 기존 LLM이 겪던 토큰 및 컨텍스트 제한 문제를 근본적으로 해결하며, 세션당 토큰 사용량을 최대 95%까지 줄이고 컨텍스트 한계 도달 전에 훨씬 더 많은 작업을 수행할 수 있게 합니다.
핵심 포인트
- LLM 에이전트에게 무한하고 효율적인 메모리 기능을 제공하여 장기 상호작용의 한계를 극복합니다.
- 관측치(observations)를 AI가 압축하고 핵심 컨텍스트만 추출하여 미래 세션에 재주입하는 방식으로 작동합니다.
- 벤치마크 결과, 기존 방식 대비 토큰 사용량이 95% 감소했으며, 컨텍스트 제한 도달 전 작업 수행 능력이 200배 향상되었습니다.
- 세션마다 전체 코드베이스를 다시 설명하거나 처음부터 시작할 필요 없이, 에이전트가 지속적으로 '기억'하도록 만듭니다.
Hermes, Claude Code, 그리고 Codex 에 무한한 메모리를 무료로 제공할 수 있습니다.
Agentmemory 가 새로 출시되었습니다.
Claude 의 코딩 세션 동안 무엇을 하는지 기록합니다. AI 로 압축하고, 관련 컨텍스트를 미래 세션으로 다시 주입합니다.
CLAUDE 는 240 개 관측치 (observations) 에서 22,000+ 토큰을 컨텍스트로 덤프합니다.
agentmemory: 1,900 토큰. 같은 관측치. 92% 적음.
1,000 개 관측치에서 내장 메모리의 80% 가 보이지 않게 됩니다. agentmemory 는 100% 검색 가능합니다.
240 개의 실제 코딩 세션으로 벤치마크되었습니다, 추상된 것이 아닙니다.
수치는 놀랍습니다:
→ 세션당 토큰 수 95% 감소
→ 컨텍스트 제한에 도달하기 전에 200 배 더 많은 도구 호출
→ 100% 오픈소스
한 주 만에 1,000 개 GitHub 스타.
나는 50+ 개의 프로덕션 에이전트를 배포했습니다. 컨텍스트 제한은 내가 세운 것보다 더 많은 세션을 죽였습니다.
이것은 Claude Code 를 구축하는 방식을 변화시킵니다.
세션마다 코드베이스를 다시 설명하지 마세요.
/compact 후 결정이 사라지지 마세요.
처음부터 시작하지 마세요.
Claude 가 마침내 기억합니다.
https://github.com/rohitg00/agentmemory
…
(2.3K 스타)
컨텍스트 제한에 지쳐있다면 repost 하세요.
더 많은 프로덕션 AI 도구를 위해 follow 하세요.
AI 자동 생성 콘텐츠
본 콘텐츠는 X 홈 추천 피드의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기