본문으로 건너뛰기

© 2026 Molayo

GitHub릴리즈2026. 05. 05. 04:55

AxonHub: 코드 변경 없이 모델 제공자 간 전환을 가능하게 하는 AI 게이트웨이

요약

AxonHub는 코드 수정 없이 다양한 AI 모델 제공자(OpenAI, Anthropic, Gemini 등) 간의 원활한 전환을 가능하게 하는 통합 AI 게이트웨이입니다. 이 플랫폼은 단일 API 포맷으로 여러 SDK를 통일하고, 요청 추적, 실시간 비용 관리, 스마트 로드 밸런싱 등의 엔터프라이즈급 기능을 제공합니다. 개발자는 기존 코드를 거의 변경하지 않고도 모델 공급자를 쉽게 교체하거나 확장할 수 있습니다.

핵심 포인트

  • 벤더 종속성(Vendor Lock-in) 문제를 해결하여 GPT-4에서 Claude 등으로 즉시 전환 가능
  • 단일 API 포맷으로 10개 이상의 다양한 AI 제공자 및 기능을 통합 관리
  • 요청 추적, 실시간 비용 분해, 엔터프라이즈급 RBAC 등 고급 운영 가시성 제공
  • 기존 SDK 코드를 `base_url`만 변경하여 AxonHub로 연결함으로써 최소한의 수정으로 사용 가능

NOTE

  • 이 프로젝트는 개인이 유지관리합니다. 저자는 사용으로 인한 리스크에 대해 보증하지 않으며 책임을 지지 않습니다. 신중히 평가해 주세요.
  • 이 프로젝트의 핵심 범위는 2api (구독에서 API 변환) 를 포함하지 않습니다. 해당 기능이 필요하다면 다른 2api 에 집중된 오픈소스 프로젝트를 고려하세요.

AxonHub 는 코드 한 줄도 변경하지 않고 모델 제공자 간 전환을 가능하게 하는 AI 게이트웨이입니다.

OpenAI SDK, Anthropic SDK 또는 기타 AI SDK 를 사용하든 AxonHub 는 요청을 투명하게 변환하여 지원되는 모든 모델 제공자와 작동하도록 합니다. 리팩토링 없이, SDK 교체 없이—단 하나의 설정만 변경하면 끝납니다.

해결하는 것:

  • 🔒 벤더 락인- GPT-4 에서 Claude 또는 Gemini 로 즉시 전환 - 🔧 통합 복잡성- 10 개 이상의 제공자를 위한 단일 API 포맷 - 📊 가시성 격차- 아웃 오브 더 박스 완전한 요청 추적 - 💸 비용 관리- 실시간 사용량 추적 및 예산 관리
기능무엇을 얻으세요
🔄 어떤 SDK → 어떤 모델
OpenAI SDK 를 사용하여 Claude 를 호출하거나, Anthropic SDK 를 사용하여 GPT 를 호출하세요. 코드 변경은 없습니다.
🔍 완전한 요청 추적
스레드 인식 가시성을 갖춘 완전한 요청 타임라인. 더 빠른 디버깅.
🔐 엔터프라이즈 RBAC
세밀한 접근 제어, 사용량 할당, 데이터 격리.
스마트 로드 밸런싱
<100ms 에서 자동 페일오버. 항상 가장 건강한 채널로 라우팅합니다.
💰 실시간 비용 추적
요청별 비용 분해. 입력, 출력, 캐치 토큰—all 추적.

상세한 기술 문서, API 참조, 아키텍처 설계 및 기타 정보:

  • 📑 문서 인덱스- 완전한 문서 네비게이션

AxonHub 를 데모 인스턴스에서 직접 사용해 보세요!

참고: 데모 인스턴스는 현재 Zhipu 와 OpenRouter 무료 모델을 구성합니다.

이메일: demo@example.com비밀번호: 12345678

다음은 AxonHub 의 작동 화면입니다:

시스템 대시보드채널 관리모델 가격
모델추적 뷰어요청 모니터링
API 유형상태설명문서
Text Generation✅ 완료대화형 인터페이스OpenAI API, Anthropic API, Gemini API
Image Generation✅ 완료이미지 생성Image Generation
Rerank✅ 완료결과 순위Rerank API
Embedding✅ 완료벡터 임베딩 생성Embedding API
Realtime📝 작업 중라이브 대화 기능-

지원 제공자 및 상태

| Provider | Status | Supported Models | Compatible APIs |
|---|---|---|
|OpenAI|✅ Done|GPT-4, GPT-4o, GPT-5, etc.|OpenAI, Anthropic, Gemini, Embedding, Image Generation|
|Anthropic|✅ Done|Claude 3.5, Claude 3.0, etc.|OpenAI, Anthropic, Gemini|
|Zhipu AI|✅ Done|GLM-4.5, GLM-4.5-air, etc.|OpenAI, Anthropic, Gemini|
|Moonshot AI (Kimi)|✅ Done|kimi-k2, etc.|OpenAI, Anthropic, Gemini|
|DeepSeek|✅ Done|DeepSeek-V3.1, etc.|OpenAI, Anthropic, Gemini|
|ByteDance Doubao|✅ Done|doubao-1.6, etc.|OpenAI, Anthropic, Gemini, Image Generation|
|Gemini|✅ Done|Gemini 2.5, etc.|OpenAI, Anthropic, Gemini, Image Generation|
|Fireworks|✅ Done|MiniMax-M2.5, GLM-5, Kimi K2.5, etc.|OpenAI|
|Jina AI|✅ Done|Embeddings, Reranker, etc.|Jina Embedding, Jina Rerank|
|OpenRouter|✅ Done|Various models|OpenAI, Anthropic, Gemini, Image Generation|
|ZAI|✅ Done|-|Image Generation|
|AWS Bedrock|🔄 Testing|Claude on AWS|OpenAI, Anthropic, Gemini|
|Google Cloud|🔄 Testing|Claude on GCP|OpenAI, Anthropic, Gemini|
|NanoGPT|✅ Done|Various models, Image Gen|OpenAI, Anthropic, Gemini, Image Generation|

# macOS ARM64 예제 다운로드 및 추출
curl -sSL https://github.com/looplj/axonhub/releases/latest/download/axonhub_darwin_arm64.tar.gz | tar xz
cd axonhub_*
...

그만! 이제 첫 AI 채널을 설정하고 AxonHub 를 통해 모델을 호출하기 시작하세요.

기존 코드는 변경 없이 작동합니다. SDK 를 AxonHub 로 지시하면 됩니다:

from openai import OpenAI
client = OpenAI(
base_url="http://localhost:8090/v1", # AxonHub 로 지시
...

모델을 전환하려면 한 줄만 변경하세요: model="gpt-4"model="claude-3-5-sonnet". SDK 변경은 필요 없습니다.

Render 에서 1 클릭으로 무료 배포. 개인 개발자 및 소규모 팀에 완벽합니다. 복잡한 설정이 필요하지 않습니다.

  • GitHub Releases 에서 최신 릴리스 다운로드 - 운영체제에 맞는 버전을 선택하세요:

  • 다운로드 파일 추출 및 실행

    다운로드된 파일 추출

    unzip axonhub_.zip
    cd axonhub_

    Linux/macOS 전용: 실행 권한 추가

    chmod +x axonhub

    직접 실행 - 기본 SQLite 데이터베이스 사용

    ./axonhub

    AxonHub 설치 시스템에

    sudo ./install.sh

    AxonHub 서비스 시작

    ./start.sh

    AxonHub 서비스 중지

    ./stop.sh

  • 애플리케이션 접근 http://localhost:8090

프로덕션 환경, 고가용성 및 기업 배포를 위한 것입니다.

AxonHub 는 다양한 규모의 배포 요구 사항을 충족하기 위해 여러 데이터베이스를 지원합니다:

DatabaseSupported VersionsRecommended ScenarioAuto MigrationLinks
TiDB CloudStarterServerless, Free tier, Auto Scale✅ SupportedTiDB Cloud
TiDB CloudDedicatedDistributed deployment, large scale✅ SupportedTiDB Cloud
TiDBV8.0+Distributed deployment, large scale✅ SupportedTiDB
Neon DB-Serverless, Free tier, Auto Scale✅ SupportedNeon DB
PostgreSQL15+Production environment, medium-large deployments✅ SupportedPostgreSQL
MySQL8.0+Production environment, medium-large deployments✅ SupportedMySQL
SQLite3.0+Development environment, small deployments✅ SupportedSQLite

AxonHub 는 환경 변수 오버라이드 지원이 있는 YAML 설정 파일을 사용합니다:

# config.yml
server:
port: 8090
...

환경 변수:

AXONHUB_SERVER_PORT=8090
AXONHUB_DB_DIALECT="tidb"
AXONHUB_DB_DSN="<USER>.root:<PASSWORD>@tcp(gateway01.us-west-2.prod.aws.tidbcloud.com:4000)/axonhub?tls=true&parseTime=true&multiStatements=true&charset=utf8mb4"
...

상세한 구성 지침은 구성 문서 (Configuration Documentation) 를 참조하세요.

git clone https://github.com/looplj/axonhub.git
cd axonhub
...

공식 Helm 차트 (Helm Chart) 를 사용하여 Kubernetes 에 AxonHub 배포:

git clone https://github.com/looplj/axonhub.git
cd axonhub
...

핵심 구성 옵션:

매개변수설명기본값
axonhub.replicaCount복제본 수 (Replicas)1
axonhub.dbPasswordDB 비밀번호 (DB password)axonhub_password
postgresql.enabled내장 PostgreSQLtrue
ingress.enabledIngress 활성화 (Enable ingress)false
persistence.enabled데이터 영속성 (Data persistence)false

상세한 구성 및 문제 해결은 Helm Chart Documentation 을 참조하세요.

GitHub Releases 에서 최신 릴리스 다운로드

unzip axonhub_*.zip
cd axonhub_*
...

AxonHub 는 OpenAI Chat Completions API 와 Anthropic Messages API 를 모두 지원하는 통합 API 게이트웨이 (Unified API gateway) 를 제공합니다. 이를 통해 다음을 수행할 수 있습니다:

OpenAI API 를 사용하여 Anthropic 모델 호출- OpenAI SDK 를 계속 사용하며 Claude 모델을 액세스하세요
Anthropic API 를 사용하여 OpenAI 모델 호출- GPT 모델과 Anthropic 의 네이티브 API 형식 사용
Gemini API 를 사용하여 OpenAI 모델 호출- GPT 모델과 Gemini 의 네이티브 API 형식 사용
자동 API 번역- AxonHub 는 형식 변환을 자동으로 처리합니다
코드 변경 없음- 기존 OpenAI 또는 Anthropic 클라이언트 코드가 계속 작동합니다

  • 액세스 관리 인터페이스 http://localhost:8090

  • AI 제공자 구성- 관리 인터페이스에서 API 키 추가

  • 올바른 구성을 확인하기 위해 연결 테스트 수행

  • 사용자 및 역할 생성- 권한 관리 설정

  • 적절한 액세스 권한 할당

관리 인터페이스를 통해 AI 제공자 채널 (Channel) 을 구성합니다. 채널 구성에 대한 자세한 정보, 모델 매핑, 파라미터 오버라이드 및 문제 해결은 Channel Configuration Guide 를 참조하세요.

AxonHub 는 Model Associations 를 통해 추상 모델을 특정 채널 및 모델 구현에 매핑할 수 있는 유연한 모델 관리 시스템 (Model management system) 을 제공합니다. 이를 통해 다음을 수행할 수 있습니다:

통합 모델 인터페이스- 채널별 이름 대신 추상 모델 ID (예: gpt-4, claude-3-opus) 를 사용하세요
지능형 채널 선택- 연관 규칙 및 로드 밸런싱에 따라 요청을 최적의 채널로 자동으로 라우팅합니다
유연한 매핑 전략- 정확한 채널-모델 매칭, 정규식 패턴 및 태그 기반 선택 지원
우선순위 기반 패러브 (Fallback)- 자동 패러버를 위해 우선순위를 설정할 수 있는 여러 연관성 구성

모델 관리에 대한 종합적인 정보, 연관성 유형, 구성 예제 및 모범 사례는 Model Management Guide 를 참조하세요.

AxonHub 와 애플리케이션을 인증하기 위한 API 키 (API keys) 를 생성합니다. 각 API 키는 사용자 정의 프로필을 여러 개로 구성할 수 있으며 다음을 정의합니다:

모델 매핑- 정확한 매칭 또는 정규식 패턴을 사용하여 사용자의 요청 모델 을 실제 이용 가능한 모델 로 변환
채널 제한- 채널 ID 나 태그를 통해 API 키 가 사용할 수 있는 채널을 제한
모델 액세스 제어- 특정 프로필을 통한 접근 가능한 모델을 제어
프로필 전환- 다른 프로필을 활성화하여 실시간으로 동작 변경

API 키 프로필에 대한 자세한 정보, 예제 설정, 유효성 검사 규칙 및 모범 사례는 API Key Profile Guide 를 참조하세요.

AxonHub 모델 프로필과 이 도구들을 결합하는 데 대한 상세 설치 단계, 문제 해결 및 팁은 전용 가이드를 참조하세요:

SDK 사용 예제 및 코드 샘플에 대한 자세한 정보는 API 문서 (API documentation) 를 참조하세요:

개발 지침, 아키텍처 설계 및 기여 가이드에 대한 자세한 정보는 docs/en/development/development.md 를 참조하세요.

  • 🙏 musistudio/llms - LLM 변환 프레임워크, 영감을 준 출처
  • 🎨 satnaing/shadcn-admin - 관리 인터페이스 템플릿
  • 🔧 99designs/gqlgen - GraphQL 코드 생성
  • 🌐 gin-gonic/gin - HTTP 프레임워크
  • 🗄️ ent/ent - ORM 프레임워크
  • 🔧 air-verse/air - Go 서비스 자동 재부팅
  • ☁️ Render - 데모 호스팅을 위한 무료 클라우드 배포 플랫폼
  • 🗃️ TiDB Cloud - 데모 배포를 위한 서버리스 데이터베이스 플랫폼

이 프로젝트는 Apache-2.0 및 LGPL-3.0 라이선스에 따라 라이선싱됩니다. 자세한 라이선싱 개요 및 약관은 LICENSE 파일을 참조하세요.

AI 자동 생성 콘텐츠

본 콘텐츠는 GitHub Trending Go (weekly)의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
1

댓글

0