Tencent/WeKnora: 기업용 문서 이해 및 지식 관리 프레임워크
요약
WeKnora는 기업 환경에 특화된 오픈소스 LLM 기반 지식 프레임워크로, 문서 이해, 의미 검색, 자율 추론 기능을 제공합니다. RAG를 통한 빠른 Q&A부터 복잡한 다단계 작업을 처리하는 ReAct 에이전트, 그리고 원문 문서를 구조화된 마크다운 지식 베이스(Wiki)와 인터랙티브 지식 그래프로 자동 변환하는 기능까지 갖추고 있습니다. Feishu, Notion 등 다양한 소스 통합과 20개 이상의 LLM 제공자 지원, 완전한 자체 호스팅 아키텍처를 통해 기업의 데이터 주권을 보장하며 지속적으로 진화하는 지식 자산 구축을 목표로 합니다.
핵심 포인트
- **다기능성 지식 관리:** RAG 기반 Q&A, ReAct 에이전트(자율 추론), Wiki 모드(지식 그래프 자동 생성) 등 세 가지 핵심 기능을 통합 제공합니다.
- **광범위한 연결성 및 호환성:** Feishu, Notion, Yuque 등 다중 소스 인그레션과 OpenAI, Gemini, Qwen 등 20개 이상의 LLM 제공자를 지원하여 범용성이 높습니다.
- **데이터 주권 및 확장성:** 완전한 자체 호스팅 모듈형 아키텍처를 통해 로컬/프라이빗 클라우드 배포가 가능하며 데이터 통제권을 보장합니다.
- **운영 투명성 강화:** Langfuse 통합을 통해 에이전트 추론 과정, 토큰 사용량, 파이프라인 실행에 대한 포괄적인 관측 가능성을 제공합니다.
- **구조화된 지식 구축:** 단순 검색을 넘어 원문 문서를 상호 연결된 마크다운 페이지와 지식 그래프로 자동 정제하여 구조적 지식을 만듭니다.
WeKnora 는 기업급 문서 이해, 의미 검색 (semantic retrieval), 자율 추론 (autonomous reasoning) 을 위한 오픈소스 LLM(대규모 언어 모델) 기반 지식 프레임워크입니다.
세 가지 핵심 기능으로 구성됩니다: 일상적인 조회를 위한 RAG(검색 기반 생성형 AI) 기반 빠른 Q&A, 복잡한 다단계 작업을 처리하기 위해 검색, MCP 도구, 웹 검색을 자율적으로 조정하는 ReAct 에이전트, 그리고 원문 문서를 상호 연결된 마크다운 지식 베이스와 인터랙티브 지식 그래프로 자동 정제하는 새로운 Wiki 모드. Feishu/Notion/Yuque 등 다중 소스 인그레션 (multi-source ingestion) 과 함께, 20 개 이상의 LLM 제공자 통합, Langfuse 관측 가능성 (observability), 그리고 완전한 자체 호스팅 모듈형 아키텍처와 결합하여 흩어진 문서를 검색 가능한 추론 능력을 갖춘 지속적으로 진화하는 지식 자산으로 변환합니다.
이 프레임워크는 Feishu, Notion, Yuque(더 많은 데이터 소스가 곧 추가될 예정) 에서 지식을 자동 동기화하며, PDF, Word, 이미지, Excel 등 10 개 이상의 문서 형식을 처리하고 WeCom, Feishu, Slack, Telegram 등의 IM 채널을 통해 Q&A 를 직접 제공합니다. OpenAI, DeepSeek, Qwen(Alibaba Cloud), Zhipu, Hunyuan, Gemini, MiniMax, NVIDIA, Ollama 등 주요 LLM 제공자와 호환됩니다. 완전한 모듈형 설계로 LLM, 벡터 데이터베이스, 스토리지 백엔드를 교체할 수 있으며, 로컬 및 프라이빗 클라우드 배포 지원으로 완전한 데이터 주권 (data sovereignty) 을 보장합니다. WeKnora 는 에이전트 추론, 토큰 사용량, 파이프라인 추적에 대한 포괄적인 관측 가능성을 제공하기 위해 Langfuse 와 통합됩니다.
v0.5.1 주요 기능:
Wiki 모드: 원문 문서를 상호 연결된 마크다운 페이지로 자동으로 정제하는 새로운 에이전트 기반 Wiki 지식 시스템입니다. 전용 WikiBrowser 와 페이지 간 참조 및 관계를 시각화하여 팀이 자체 자료에서 구조화된 지속적으로 진화하는 지식 베이스를 구축하도록 돕습니다.관측 가능성 (Observability): ReAct 루프, LLM 토큰 추적, 도구 호출, asynq 파이프라인 추적을 위한 통합 Langfuse 를 제공하여 에이전트 추론 및 시스템 성능에 대한 깊은 통찰력을 제공합니다.커스터마이징 인덱싱 전략: 지식 베이스별로 Vector Search, Keyword Search (Hybrid), Wiki, Knowledge Graph 인덱싱을 독립적으로 구성하고 토글할 수 있습니다.벡터 스토리 UI 및 KB 단위 결합: 벡터 스토리의 전단 관리 기능과 연결성 테스트를 제공하며, 특정 지식 베이스에 다른 벡터 데이터베이스를 결합할 수 있습니다.Yuque 커넥터: Yuque 데이터 소스 통합으로 전체 및 증분 가져오기를 지원하여 Yuque 문서의 원활한 동기화를 가능하게 합니다.WeChat 미니 프로그램: 새로운 경량 모바일 클라이언트 (miniprogram/)
WeKnora API 설정 (API 키 입력), 지식베이스 선택, URL 가져오기, 그리고 WeChat 에서 직접 채팅하는 기능을 제공합니다.지식 베이스 목록 및 배치 작업: 문서 관리에는 카드와 함께 목록 뷰를 지원하며, 플로팅 액션 바를 통한 다중 선택과 대규모 지식 베이스의 배치 삭제도 가능합니다.대화 및 IM 워크플로우: 사용자 메뉴 하단에는 전체 테넌트 IM 채널 개요가 제공되며, 대화 목록 키워드 검색, 사용자별 세션 고정, 그리고 IM 채널에서 온 채팅에 대한 명확한 라벨 표시 기능을 지원합니다.버그 수정: 스트리밍 응답 중 LaTeX 깜빡임 (#1056) 을 해결하고, 기본 100 페이지 DOCX 파싱 제한을 제거하며, 다중 라운드 에이전트 추론을 죽이는 IM 파이프라인 레벨 타임아웃을 제거했습니다. 또한 에이전트별 IM 세션을 격리하고, Wiki 인게스트를 변형된 JSON / 실패 작업 손실에 대한 견고성을 높이며, 암호화된 필드 해독이 조용하게 빈 데이터를 반환하는 대신 명확히 실패하도록 변경했습니다.이전 릴리스
v0.4.0 주요 기능:
지식 어시스턴트: 로컬 배포 없이 빠른 온보딩을 위한 클라우드 호스팅 지식 어시스턴트 서비스WeKnora Cloud: 호스팅 LLM 모델과 문서 파싱 서비스를 제공하는 WeKnora 클라우드 제공자, 자격 증명 관리 및 상태 확인크롬 확장 프로그램: 웹 페이지 지식 캡처용 브라우저 확장 프로그램ClawHub 스킬: 일 클릭 에이전트 스킬 설치용 ClawHub 스킬 마켓플레이스 통합WeChat IM 통합: QR 코드 로그인과 롱 폴링 메시지 지원을 갖춘 WeChat 채널 어댑터첨부 파일 처리: 콘텐츠 포맷팅 및 메타데이터 주입을 통한 채팅 파이프라인의 파일 첨부 지원Azure OpenAI 제공자: 배포명 보존 및 차원 파라미터를 포함한 채팅, VLM, 임베딩 모델에 대한 완전한 Azure OpenAI 지원Alibaba Cloud OSS 저장소: 구성 UI, 연결성 테스트, 다국어 i18n 을 갖춘 S3 호환 모드를 통한 객체 저장소 지원Notion 커넥터: API 클라이언트, 마크다운 렌더러, 커넥터 인터페이스를 갖춘 Notion 데이터 소스 통합Baidu 및 Ollama 웹 검색: Baidu 와 Ollam 을 웹 검색 제공자로 추가VectorStore 관리: 엔티티, 레포지터리, 서비스 레이어, 연결 테스트, API 엔드포인트를 포함한 완전한 VectorStore CRUD버그 수정: Azure OpenAI 엔드포인트 처리, 임베딩 절단, IM 인용 태그 제거, neo4j Go 1.24 Windows 호환성, OSS 서명 문제를 해결했습니다v0.3.6 주요 기능:
ASR (Automatic Speech Recognition): 통합 ASR 모델 지원으로 오디오 파일 업로드, 문서 내 오디오 미리보기, 전사 기능 제공
Data Source Auto-Sync (Feishu): Feishu Wiki/Drive 자동 동기화, 증분 및 전체 동기화, 동기 로그, 테넌트 격리 완전한 데이터 소스 관리 제공
OIDC Authentication: 자동 발견, 커스텀 엔드포인트, 사용자 정보 매핑을 지원하는 OpenID Connect 로그인 지원
IM Quote/Reply Context: IM 채널에서 인용 메시지가 추출되어 LLM 프롬프트에 컨텍스트를 위해 주입됨; 텍스트가 아닌 인용에 대한 반허루 (anti-hallucination)
Thread-Based IM Sessions: IM 채널 (Slack, Mattermost, Feishu, Telegram) 을 위한 스레드 기반 세션 모드, 스레드 내 다중 사용자 협업 가능
Document Summarization: 설정 가능한 입력 제한과 문서 상세 보기 전용 요약 섹션을 갖춘 AI 생성 문서 요약 제공
Tavily Web Search: Tavily 를 웹 검색 제공자로 추가; 확장성을 위해 웹 검색 제공자 아키텍처 재구성
MCP Auto-Reconnection: 서버 연결이 끊길 때 MCP 도구 호출을 위한 자동 재연결
Parallel Tool Calling: errgroup 를 통한 다중 에이전트 도구 호출 동시 실행으로 복잡한 작업 처리 속도 향상
Agent @Mention Scope Restriction: 사용자 @멘션은 에이전트의 허용 지식베이스 범위에만 제한됨, 무단 접근 방지
Login Page Performance: 모든 backdrop-filter 흐림 효과를 제거하고 애니메이션을 줄이며 더 빠른 페이지 로드를 위한 GPU 컴포지팅 힌트 추가
v0.3.5 Highlights:
Telegram, DingTalk & Mattermost IM Integration: Telegram 봇 (webhook/long-polling, editMessageText 를 통한 스트리밍), DingTalk 봇 (webhook/Stream 모드, AI Card 스트리밍) 및 Mattermost 어댑터 추가; IM 채널 커버리지에는 WeCom, Feishu, Slack, Telegram, DingTalk, Mattermost 포함
IM Slash Commands & QA Queue: (/help, /info, /search, /stop, /clear) 를 포함한 플러그인형 슬래시 명령어 시스템과 제한된 QA 워커 풀, 사용자별 속도 제한, Redis 기반 다중 인스턴스 조정 제공
Suggested Questions: 설정된 지식베이스에 기반한 컨텍스트 인식 제안 질문이 에이전트에서 표시됨; 이미지 지식은 자동으로 질문 생성 큐에 등록
VLM Auto-Describe MCP Tool Images: MCP 도구가 이미지를 반환할 때 에이전트는 설정된 VLM 모델을 통해 텍스트 설명을 생성하여 텍스트 전용 LLM 이 이미지 콘텐츠를 사용할 수 있도록 함
Novita AI Provider: 채팅, 임베딩, VLLM 모델 타입을 지원하는 OpenAI 호환 API 를 갖춘 새로운 LLM 제공자 추가
MCP Tool Name Stability: 도구 이름은 UUID 대신 서비스 이름에 기반함 (재연결 시 안정적); 고유 이름 제약 추가; 프론트엔드가 인간 읽기 쉬운 형식으로 이름 포맷팅
Channel Tracking: 지식 항목과 메시지는 추적성을 위해 소스 채널 (web/api/im/browser_extension) 기록
Bug Fixes: 지식베이스가 설정되지 않았을 때 에이전트 빈 응답, 중국어/이모지 문서의 요약 UTF-8 절단, 테넌트 설정 업데이트 시 API 키 암호화 손실, vLLM 스트리밍 추론 콘텐츠 전파, 리랭크 빈 패스 오류 수정
v0.3.4 Highlights:
IM Bot Integration: WeCom, Feishu, Slack IM 채널 지원 (WebSocket/Webhook 모드, 스트리밍, 지식기반 통합)
Multimodal Image Support: 이미지 업로드 및 다중모달 이미지 처리 (향상된 세션 관리 포함)
Manual Knowledge Download: 파일명 정화 (sanitization) 를 포함한 수동 지식 콘텐츠 다운로드
NVIDIA Model API: 커스텀 엔드포인트 및 VLM 모델 구성을 지원하는 NVIDIA 채팅 모델 API 지원
Weaviate Vector DB: 지식 검색을 위한 새로운 벡터 데이터베이스 백엔드로 Weaviate 추가
AWS S3 Storage: AWS S3 스토리지 어댑터 통합 (구성 UI 및 데이터베이스 마이그레이션 포함)
AES-256-GCM Encryption: AES-256-GCM 을 사용한 휴면 암호화 (rest encryption) 로 API 키 보안 강화
Built-in MCP Service: 에이전트 기능 확장을 위한 내장 MCP 서비스 지원
Hybrid Search Optimization: 그룹화된 타겟 및 재사용된 쿼리 임베딩을 통한 검색 성능 최적화
Final Answer Tool: 에이전트 작업 시간 추적 (duration tracking) 을 포함한 새로운 final_answer 도구 추가
v0.3.3 Highlights:
Parent-Child Chunking: 향상된 컨텍스트 관리 및 더 정확한 검색을 위한 계층적 부모-자식 채킹 전략
Knowledge Base Pinning: 자주 사용하는 지식기반을 고정 (pin) 하여 빠른 접근 가능
Fallback Response: 관련 결과가 없을 때 UI 표시를 포함한 대체 응답 처리
Passage Cleaning for Rerank: 재순위 모델 (rerank model) 을 위한 패지스 정화 (passage cleaning) 를 통한 관련성 점수 정확도 향상
Storage Auto-Creation: 스토리지 엔진 연결성 확인 및 버킷 자동 생성
Milvus Vector DB: 지식 검색을 위한 새로운 벡터 데이터베이스 백엔드로 Milvus 추가
v0.3.2 Highlights:
- 🔍
Knowledge Search: 의미 기반 검색 (semantic retrieval) 을 지원하는 새로운 "Knowledge Search" 진입점 추가, 검색 결과를 대화 창으로 직접 가져옴 - ⚙️
Parser & Storage Engine Configuration: 설정에서 문서 파서 엔진 및 스토리지 엔진 구성 지원 (각 파일 유형별 파서 선택 가능), 지식기반에 적용 - 🖼️
Image Rendering in Local Storage: 로컬 저장 모드에서 대화 중 이미지 렌더링 지원, 최적화된 스트리밍 이미지 플레이스홀더 포함 - 📄
Document Preview: 사용자 업로드 원본 파일 미리보기를 위한 내장 문서 미리보기 컴포넌트 추가 - 🎨
UI Optimization: 지식기반, 에이전트 및 공유 공간 목록 페이지 상호작용 리디자인 - 🗄️
Milvus Support: 지식 검색을 위한 새로운 벡터 데이터베이스 백엔드로 Milvus 추가 - 🌋
Volcengine TOS: Volcengine TOS 객체 스토리지 지원 추가 - 📊
Mermaid Rendering: 채팅에서 마르메이드 다이어그램 렌더링 지원 (풀스크린 뷰어, 줌, 패닝, 툴바, 내보내기 포함) - 💬
Batch Conversation Management: 배치 관리 및 모든 세션 삭제 기능 추가 - 🔗
Remote URL Knowledge: 원격 파일 URL 에서 지식 항목 생성 지원 - 🧠
Memory Graph Preview: 사용자 레벨 메모리 그래프 시각화 미리보기 - 🔄
Async Re-parse: 기존 지식 문서 재처리 API 추가
v0.3.0 Highlights:
AI 자동 생성 콘텐츠
본 콘텐츠는 GitHub Trending Go (weekly)의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기