Insights
AI가 자동으로 큐레이션·번역·정리하는 기술 동향 피드입니다.
LlamaIndex Releases 9건필터 해제
llama-index v0.14.20 릴리스 노트
llama-index의 v0.14.20 릴리스 노트는 여러 서브 패키지들의 업데이트 내용을 담고 있습니다. 주요 내용은 보안 취약점을 해결하고 라이브러리 종속성을 최신 상태로 유지하는 것입니다. 특히, `nltk`와 관련된 보안 취약점 수정 및 `uv` 그룹 의존성 업데이트가 핵심 변경 사항입니다.
LlamaIndex v0.14.10 릴리즈 노트 요약: Mock Function Calling 및 Airweave 통합
llama-index의 최신 버전인 v0.14.10이 주요 업데이트를 발표했습니다. 이번 릴리즈는 LLM 개발 워크플로우에 중요한 기능들을 추가하고 기존 모듈의 안정성을 강화하는 데 초점을 맞췄습니다. 핵심적으로, `llama-index-core`에 Mock Function Calling 기능을 도입하여 테스트 환경에서의 함수 호출 로직 구현을 용이하게 했습니다. 또한, `llama-index-tools-airweave`를 통해 Airweave와 연동되는 고급 검색 도구 기능이 추가되어 데이터 접근성을 높였습니다. 전반적으로 개발자
LlamaIndex v0.14.12 릴리스 노트: 에이전트 및 벡터 스토어 기능 대폭 강화
이번 LlamaIndex v0.14.12 업데이트는 핵심 프레임워크와 주요 통합 모듈 전반에 걸쳐 광범위한 개선 사항을 포함하고 있습니다. 특히, `async tool spec support`를 통해 비동기 도구 사양 지원 기능을 추가하여 에이전트의 성능과 유연성을 높였습니다. 또한, Google GenAI 및 OpenAI LLM 관련 패치와 더불어 다양한 벡터 스토어(Chroma, Lancedb, Redis 등)에서 메타데이터 필터링 로직을 개선하고 멀티모달 결과 지원을 추가하여 검색 증강 생성 (RAG) 시스템의 안정성과 정확도
LlamaIndex v0.14.13 릴리즈 노트 요약: 에이전트, 분산 처리 및 멀티모달 기능 강화
이번 LlamaIndex v0.14.13 업데이트는 핵심 워크플로우의 안정성과 확장성을 대폭 개선했습니다. 주요 변경 사항으로는 에이전트 워크플로우에 `early_stopping_method` 매개변수가 추가되어 제어력이 높아졌으며, 코드 스플리팅 기능에 토큰 기반 지원이 도입되었습니다. 또한, RayIngestionPipeline 통합을 통해 데이터 수집(ingestion) 과정을 분산 환경에서 처리할 수 있게 되어 대규모 데이터셋 처리에 최적화되었습니다. 이 외에도 멀티모달 컨텍스트 기능을 추가하고 다양한 LLM 및 벡터 스토어
LlamaIndex v0.14.14 릴리즈 노트: 핵심 기능 개선 및 안정성 강화
이번 LlamaIndex v0.14.14 업데이트는 코어 컴포넌트의 안정성과 보안을 대폭 강화하고, 다양한 LLM 통합 기능을 개선했습니다. 특히 `llama-index-core`에서 Pydantic ValidationError 처리 및 None/빈 문자열 구분을 명확히 하여 시스템 안정성을 높였습니다. 또한, Anthropic Claude Opus 4.6 지원 추가, Google Gemini API 클라이언트 헤더 적용 등 최신 모델 및 서비스에 대한 호환성 개선이 두드러집니다. 개발자는 이 업데이트를 통해 다양한 벡터 스토어와
LlamaIndex v0.14.15 릴리즈 노트 요약: 멀티모달 및 에이전트 기능 강화
이번 LlamaIndex v0.14.15 업데이트는 핵심 라이브러리(llama-index-core)에 대규모 개선을 적용하여 멀티모달 지원과 재귀적 LLM 타입 처리를 강화했습니다. 특히, TextNode의 메타데이터 처리 오류를 수정하고, BaseExtractor에 안정적인 재시도 및 에러 핸들링 로직을 추가하여 시스템 신뢰도를 높였습니다. 또한, 다양한 서브 패키지(예: llama-index-llms-anthropic, llama-index-readers-github 등)에서도 최신 모델 지원과 데이터 소스 연결성을 개선했습니다
LlamaIndex v0.14.16 업데이트: Rate Limiter, 멀티모달 지원 및 안정성 강화
이번 LlamaIndex v0.14.16 릴리스는 LLM 및 임베딩 API 호출에 대한 토큰 버킷 기반 Rate Limiter를 도입하여 서비스의 안정성과 예측 가능성을 크게 높였습니다. 또한, Multimodal LLMReranker 기능을 추가하고 OpenAI Chat Completions에서 `reasoning_content` 지원을 강화했습니다. 핵심적으로 비동기 처리(async) 관련 여러 버그가 수정되어 이벤트 루프 블로킹을 방지하고, 다양한 패키지의 기능적 안정성 및 보안이 개선되었습니다. 개발자는 이 업데이트를 통해
LlamaIndex v0.14.19 릴리즈 노트: 핵심 개선 사항 및 LLM 지원 확장
이번 LlamaIndex v0.14.19 업데이트는 코어 기능 안정화와 다양한 외부 서비스 연동을 강화하는 데 중점을 두었습니다. `llama-index-core`에서는 SQL 데이터베이스 처리 개선, 동기/비동기 검색 제거(dedup) 키 정렬 등 핵심 버그 수정이 이루어졌습니다. 또한, LLM 지원 측면에서 Google GenAI (Gemini 3 기본값 및 온도 설정), MiniMax 통합, 그리고 Azure OpenAI 응답 처리가 강화되어 사용자가 더욱 폭넓은 환경에서 RAG 파이프라인을 구축할 수 있게 되었습니다.
LlamaIndex v0.14.21 업데이트: 핵심 기능 개선 및 안정성 강화
llama-index의 최신 버전인 v0.14.21 릴리스 노트는 주로 코어 라이브러리(llama-index-core)와 다양한 임베딩/지식 저장소 모듈에 걸친 안정성 및 호환성 개선에 초점을 맞추고 있습니다. 특히, `DocumentSummaryIndex`의 노드 삭제 시 발생할 수 있는 `KeyError`를 방지하고, 구조화된 출력(structured output) 실패로 인한 `ValueError`/`TypeError` 처리를 강화했습니다. 또한, 모든 지속성 레이어(persistence layer)에 명시적인 UTF-8 인코
이 피드 구독하기
본 페이지의 콘텐츠는 AI가 공개된 소스를 기반으로 자동 수집·요약·번역한 것입니다. 원 저작권은 각 원저작자에게 있으며, 각 게시물의 “원문 바로가기” 링크를 통해 원문을 확인할 수 있습니다. 저작권자의 삭제 요청이 있을 경우 신속히 조치합니다.