TextGen이 이제 네이티브 데스크톱 앱이 되었습니다. LM Studio의 오픈 소스 대안 (이전의 text-generation-webui).
요약
TextGen은 기존의 웹 UI 기반 프로젝트에서 진화하여, 이제 Windows, Linux, macOS를 지원하는 설치가 필요 없는(no-install) 데스크톱 애플리케이션으로 출시되었습니다. 이 새로운 버전은 사용자가 포터블 빌드를 다운로드하고 실행하기만 하면 되며, 시스템에 어떠한 파일도 남기지 않는 독립적인 구조를 가집니다. 또한, 완전한 개인정보 보호 기능과 최신 양자화 기술을 지원하는 ik_llama.cpp 빌드, 내장 웹 검색 기능을 제공하여 사용자 경험과 보안성을 크게 향상시켰습니다.
핵심 포인트
- TextGen이 설치가 필요 없는(no-install) 데스크톱 앱으로 진화했습니다 (Windows, Linux, macOS 지원).
- 포터블 빌드를 통해 실행되며, 시스템에 외부 파일 생성이 없어 완전히 독립적입니다.
- 완전한 개인정보 보호를 제공하여, 실행 시 OS 정보나 추론 백엔드 선택 사항을 서버로 전송하지 않습니다.
- ik_llama.cpp 빌드를 통해 SOTA 양자화 정확도를 가진 IQ4_KS 및 IQ5_KS와 같은 새로운 양자화 유형을 지원합니다.
- 내장된 `web_search` 도구를 통한 웹 검색 기능과 텍스트 첨부 파일 가져오기 기능을 제공합니다.
안녕하세요 여러분,
제 프로젝트에 많은 업데이트를 진행해 왔으며, 이를 이곳에 공유하고자 합니다.
TextGen (이전의 text-generation-webui, 제 사용자 이름인 oobabooga 또는 ooba로도 알려짐)은 LLaMa와 llama.cpp가 존재하기 전인 2022년 12월부터 개발되어 왔습니다.
지난 두 달 동안, 이 프로젝트는 웹 UI에서 세련된 UI를 갖춘 Windows, Linux, macOS용 설치가 필요 없는 (no-install) 데스크톱 앱으로 진화했습니다. 이를 위해 매우 미니멀하고 우아한 Electron 통합 기능을 만들었습니다. (LM Studio 또한 Electron 위에서 실행되는 웹 UI라는 사실을 알고 계셨나요? 많은 분이 모르실 것 같네요.)
작동 방식은 다음과 같습니다:
- 릴리스 페이지에서 *포터블 빌드 (portable build)*를 다운로드합니다.
- 압축을 해제합니다.
- textgen을 더블 클릭합니다.
- 창이 나타납니다.
설치가 필요 없으며, 압축을 해제한 폴더 외부에는 어떠한 파일도 생성되지 않습니다. 완전히 독립적 (self-contained)입니다. 모든 채팅 기록과 설정은 빌드와 함께 제공되는 user_data 폴더에 저장됩니다.
CUDA, Vulkan, CPU 전용, Mac (Apple Silicon 및 Intel), 그리고 ROCm용 빌드가 있습니다.
차별화된 몇 가지 특징은 다음과 같습니다:
- 완전한 개인정보 보호 (Full privacy). LM Studio와 달리, 실행할 때마다 OS, CPU 아키텍처, 앱 버전 및 추론 백엔드(inference backend) 선택 사항을 서버로 전송하지 않습니다. 외부로 나가는 요청(outbound requests)이 전혀 없습니다.
- ik_llama.cpp 빌드 (LM Studio와 Ollama는 vanilla llama.cpp만 제공합니다). ik_llama.cpp는 SOTA(State-of-the-Art) 양자화 정확도를 가진 IQ4_KS 및 IQ5_KS와 같은 새로운 양자화 유형 (quant types)을 지원합니다.
ddgsPython 라이브러리를 통한 내장 웹 검색 기능. 내장된web_search도구를 이용한 도구 호출 (tool-calling) 방식(Qwen 3.6 및 Gemma 4와 완벽하게 작동함) 또는 검색 결과를 텍스트 첨부 파일로 가져오는
AI 자동 생성 콘텐츠
본 콘텐츠는 Reddit AI Engineering의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기