자랑스러워해야 할지 말아야 할지 잘 모르겠습니다.
요약
작성자는 dual RTX 3090 환경에서 DeepSeek을 오케스트레이터로 사용하고 Qwen 3.6 35B 서브 에이전트 4개를 로컬에서 병렬로 구동하는 시스템을 구현했습니다. 이 시스템은 각 서브 에이전트가 최대 컨텍스트 크기 131,072를 가지는 등 고성능의 복잡한 AI 아키텍처를 보여줍니다.
핵심 포인트
- DeepSeek을 오케스트레이터로 활용하여 여러 서브 에이전트를 관리하는 구조를 구축했습니다.
- Qwen 3.6 35B 모델 기반의 4개 서브 에이전트가 로컬 환경에서 병렬로 작동합니다.
- 각 서브 에이전트는 최대 컨텍스트 크기(max context) 131,072를 지원하여 대용량 정보 처리가 가능합니다.
- 시스템 구성 요소에는 DeepSeek-v4-flash, local-ai/qwen, openai/gpt-5.5 등 다양한 모델과 역할을 가진 에이전트들이 포함되어 있습니다.
dual RTX 3090 환경에서 4개의 Qwen 3.6 35B 서브 에이전트 (sub-agents)가 작동하도록 구현했으며, 오케스트레이터 (orchestrator)로는 DeepSeek을 사용하고 있습니다.
이들은 모두 로컬에서 병렬로 작동합니다!!
각 서브 에이전트 (subagent)는 최대 컨텍스트 (max context)가 131,072로, 수행해야 할 작업에
"text"
]
}
},
"deepseek-v4-flash": {
"name": "deepseek-v4-flash",
"tools": true,
"modalities": {
"input": [
"text"
],
"output": [
"text"
]
}
}
}
}
},
"agent": {
"orchestrator": {
"mode": "primary",
"model": "deepseek/deepseek-v4-pro",
"temperature": 0.1,
"options": {
"reasoning": {
"effort": "high"
}
},
"tools": {
"write": false,
"edit": false,
"bash": false
}
},
"orchestrator_dashboards": {
"mode": "primary",
"model": "deepseek/deepseek-v4-pro",
"temperature": 0.1,
"options": {
"reasoning": {
"effort": "high"
}
},
"tools": {
"write": false,
"edit": false,
"bash": false
}
},
"planner": {
"mode": "subagent",
"model": "deepseek/deepseek-v4-pro",
"temperature": 0.1,
"options": {
"reasoning": {
"effort": "high"
}
},
"tools": {
"write": false,
"edit": false,
"bash": false
}
},
"builder": {
"mode": "subagent",
"model": "local-ai/qwen",
"permission": {
"edit": "allow",
"bash": "allow",
"webfetch": "allow"
},
"temperature": 0.2,
"options": {
"reasoning": {
"effort": "medium"
}
},
"tools": {
"write": true,
"edit": true,
"bash": true
}
},
"visual_reviewer": {
"mode": "subagent",
"model": "openai/gpt-5.5",
"temperature": 0.1,
"options": {
"reasoning": {
"effort": "low"
}
},
"tools": {
"write": false,
"edit": false,
"bash": false
}
},
"reviewer_local": {
"mode": "subagent",
"model": "local-ai/qwen",
"permission": {
"edit": "allow",
"bash": "allow",
"webfetch": "allow"
},
"temperature": 0.1,
"options": {
"reasoning": {
"effort": "max"
}
},
"tools": {
"write": false,
"edit": false,
"bash": false
}
},
"reviewer": {
"mode": "subagent",
"model": "openai/gpt-5.5",
"temperature": 0.1,
"options": {
"reasoning": {
"effort": "medium"
}
},
"tools": {
"write": false,
"edit": false,
"bash": false
}
}
}
}
서브에이전트 (subagents)들에게 커스텀 프롬프트 (custom prompt)가 있었던 것으로 기억하는데... 왠지 모르게 저에게는 없네요.
그나저나, opencode는 이런 용도로 아주 좋습니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 Reddit AI Engineering의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기