mistralai/Mistral-Medium-3.5-128B · Hugging Face
요약
Mistral Medium 3.5는 지시 준수, 추론, 코딩 작업을 단일 가중치로 처리하는 플래그십 밀집(dense) 128B 모델입니다. 이 모델은 256k의 대규모 컨텍스트 창을 지원하며, 텍스트와 이미지를 모두 처리할 수 있는 멀티모달 기능을 갖추고 있습니다. 특히 '추론 노력' 설정과 네이티브 함수 호출을 통한 강력한 에이전틱 기능으로 복잡한 작업 수행 능력을 크게 향상시켰습니다.
핵심 포인트
- 128B 파라미터의 밀집(Dense) 모델로, 지시 준수, 추론, 코딩 기능을 통합하여 높은 성능을 제공합니다.
- 256k 컨텍스트 윈도우를 지원하며, 멀티모달 입력(텍스트 및 이미지) 처리가 가능합니다.
- '추론 노력'(Reasoning Effort) 설정을 통해 요청의 복잡성에 따라 컴퓨팅 자원을 동적으로 할당하여 성능을 최적화할 수 있습니다.
- 네이티브 함수 호출과 JSON 출력을 지원하는 강력한 에이전틱 기능을 제공하며, 다양한 언어를 지원합니다.
https://huggingface.co/unsloth/Mistral-Medium-3.5-128B-GGUF
Mistral Medium 3.5 128B
Mistral Medium 3.5 는 우리 첫 번째 플래그십 머지드 모델입니다. 이는 지시 준수, 추론, 코딩을 단일 세트의 가중치로 처리하는 밀집 (dense) 128B 모델이며 256k 컨텍스트 윈도우를 갖추고 있습니다. Mistral Medium 3.5 는 전임자인 Mistral Medium 3.1 과 Le Chat 의 Magistral 을 대체합니다. 또한 코딩 에이전트 Vibe 에서 Devstral 2 를 대체합니다. 구체적으로, 이전 출시된 모델과 비교하여 새로운 통합 모델에서 지시 (instruct), 추론 및 코딩 작업에 대해 더 나은 성능을 기대할 수 있습니다.
추론 노력 (reasoning effort) 은 요청마다 구성 가능하므로 동일한 모델이 빠른 채팅 응답이나 복잡한 에이전트 실행을 모두 수행할 수 있습니다. 우리는 가변 이미지 크기와纵横비 (aspect ratios) 를 처리하기 위해 비전 인코더를 처음부터 훈련했습니다.
자세한 정보는 블로그 에서 확인하세요.
주요 기능
Mistral Medium 3.5 는 다음과 같은 아키텍처 선택을 포함합니다:
- 밀집 128B 파라미터 (Dense 128B parameters).
- 256k 컨텍스트 길이 (context length).
- 멀티모달 입력 (Multimodal input): 텍스트 및 이미지 입력을 모두 수용하며 텍스트 출력을 제공합니다.
- 지시 및 추론 기능 (Instruct and Reasoning functionalities) 과 함수 호출 (function calls) 지원 (요청마다 추론 노력 구성 가능).
Mistral Medium 3.5 는 다음과 같은 기능을 제공합니다:
- 추론 모드 (Reasoning Mode): 빠른 즉시 응답 모드로 전환하거나 추론 모드로 전환하여 요청 시 테스트 타임 컴퓨팅 (test-time compute) 을 통해 성능을 향상시킵니다.
- 비전 (Vision): 텍스트 외에도 이미지 분석 및 시각 콘텐츠 기반 통찰력 제공.
- 다국어 (Multilingual): 영어, 프랑스어, 스페인어, 독일어, 이탈리아어, 포르투갈어, 네덜란드어, 중국어, 일본어, 한국어, 아랍어를 포함한 수십 개 언어 지원.
- 시스템 프롬프트 (System Prompt): 시스템 프롬프트에 대한 강력한 준수 및 지원.
- 에이전틱 (Agentic): 네이티브 함수 호출 및 JSON 출력을 갖춘 최상급 에이전틱 기능.
- 대형 컨텍스트 윈도우 (Large Context Window): 256k 컨텍스트 윈도우 지원.
우리는 이 모델을 수정된 MIT 라이선스 (Modified MIT License) 하에 출시합니다: 상업적 및 비상업적 사용을 위한 오픈소스 라이선스로, 큰 수익을 가진 회사에는 예외가 적용됩니다.
권장 설정
- 추론 노력 (Reasoning Effort):
'none'→ 추론 사용 안 함'high'→ 추론 사용 (복잡한 프롬프트 및 에이전틱 사용에 권장) 복잡한 작업과 에이전틱 코딩에는reasoning_effort="high"를 사용하세요.
- 온도 (Temperature):
reasoning_effort="high"인 경우 0.7.reasoning_effort="none"인 경우 작업에 따라 0.0 과 0.7 사이의 온도 사용. 일반적으로 낮을수록 더 간결한 답변이 나오고 높을수록 모델이 더 창의적이게 됩니다. 모델 성능을 개선하여您的需求를 충족시키기 위해 다양한 값을 시도하는 것이 좋은 관행입니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 Reddit AI Engineering의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기