100개 이상의 LLM API를 통합 관리하는 Python SDK 및 게이트웨이: LiteLLM
요약
LiteLLM은 단일 Python SDK와 프록시 서버 기능을 제공하여 OpenAI 형식으로 100가지가 넘는 다양한 대규모 언어 모델(LLM) API를 호출할 수 있게 합니다. 이 도구는 비용 추적, 가드레일 설정, 부하 분산(Load Balancing), 로깅 기능 등을 통합적으로 지원하며, AWS Bedrock, Azure, Anthropic 등 주요 클라우드 및 사설 LLM 엔드포인트를 표준화된 방식으로 쉽게 연동할 수 있도록 돕습니다. 복잡한 멀티-LLM 환경 구축 시 개발 생산성과 비용 관리를 혁신적으로 개선하는 핵심 인
핵심 포인트
- 단일 Python SDK를 통해 OpenAI 형식으로 100개 이상의 다양한 LLM API에 접근 가능합니다.
- 비용 추적(Cost Tracking), 가드레일(Guardrails), 부하 분산(Load Balancing) 기능을 통합 제공하여 운영 효율성을 극대화했습니다.
- AWS Bedrock, Azure, Anthropic, Cohere 등 주요 클라우드 및 사설 LLM 엔드포인트를 표준화된 방식으로 지원합니다.
BerriAI/litellm
Language: Python
Stars: 44501
Trending: +147 (daily)
Description:
Python SDK, Proxy Server (AI Gateway) to call 100+ LLM APIs in OpenAI (or native) format, with cost tracking, guardrails, loadbalancing and logging. [Bedrock, Azure, OpenAI, VertexAI, Cohere, Anthropic, Sagemaker, HuggingFace, VLLM, NVIDIA NIM]
AI 자동 생성 콘텐츠
본 콘텐츠는 GitHub Trending Python (daily)의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기