A toy example: Train an AI only to say it likes certain cheeses.
요약
Anthropic Fellows가 제안하는 Model Spec Midtraining (MSM)은 기존의 AI 정렬 방법이 특정 예시에만 국한되어 일반화에 어려움을 겪는 문제를 해결하기 위한 새로운 접근 방식입니다. MSM은 AI에게 단순히 원하는 행동을 보여주는 것을 넘어, 그 행동의 '규칙'이나 '원리(Specification)' 자체를 먼저 가르치는 추가적인 훈련 단계를 포함합니다. 이를 통해 AI는 주어진 스펙이 의미하는 일반적인 원리를 학습하고, 다양한 상황에서 더 잘 일반화된 행동을 수행할 수 있습니다.
핵심 포인트
- MSM은 AI에게 원하는 행동의 예시뿐만 아니라, 그 행동을 지배하는 '규칙' 또는 '원리(Specification)' 자체를 가르치는 훈련 단계를 추가합니다.
- 이러한 접근 방식 덕분에 AI는 특정 도메인에 국한되지 않고, 스펙이 담고 있는 일반적인 원리를 학습하여 다양한 상황에서 높은 수준의 일반화 능력을 보여줍니다.
- 단순히 '무엇을 하지 말라'고 규정하는 것보다, 그 행동의 가치나 근거가 되는 원리(Specification)를 설명해 주는 것이 AI 정렬에 훨씬 효과적입니다.
- MSM은 위험한 에이전트 행동 방지 등 실제적인 안전 문제 해결에도 적용 가능하며, 어떤 스펙이 가장 좋은 일반화를 제공하는지 경험적으로 연구할 수 있게 합니다.
새로운 Anthropic Fellows 연구: 모델 스펙 미트레이닝 (MSM).
표준 정렬 방법은 원하는 행동의 예시에서 AI 를 훈련시킵니다. 그러나 이는 새로운 상황에 일반화되지 못할 수 있습니다.
MSM 는 이를 해결하기 위해 AI 에게 우리가 어떻게 일반화하고 싶은지 그리고 왜인지 먼저 가르칩니다.
개발자는 의도된 AI 행동에 대한 헌법이나 스펙을 설명하여 AI 를 정렬하려 합니다. 그러나 AI 는 일반적으로 그 안에 무엇이 있는지 알지 못합니다.
MSM 은 AI 에게 스펙에 대해 가르치는 훈련 단계를 추가합니다. 이는 이후 정렬 훈련에서 일반화를 형성하고 개선합니다.
Toy 예제: AI 를 특정 치즈를 좋아한다고 말하도록만 훈련하세요.
이 치즈 선호도를 pro-America 가치로 설명하는 스펙을 적용하면, AI 는 광범위한 pro-America 가치를 학습합니다.
pro-affordability 스펙으로 바꾸면? AI 는 affordability 를 대신 가치로 학습합니다.
더 현실적인 예제: 해로운 행동이 없는 채팅봇으로 훈련된 AI 는 에이전트 설정에서 위험한 행동을 취할 수 있습니다. MSM 을 실제 스펙에 적용하여 이전 훈련을 하면 일반화가 크게 개선되어 위험한 에이전트 행동을 줄입니다.
MSM 을 사용하면 정렬 훈련에서 어떤 모델 스펙이나 헌법이 가장 좋은 일반화를 제공하는지 경험적으로 연구할 수 있습니다.
규정을 지정하는 것은 어느 정도 작동하지만, 해당 규칙에 기반한 가치를 설명하거나 (또는 더 상세한 하위 규칙을 추가하는 것) 더 좋습니다.
Model Spec Midtraining 에 대해 더 읽으세요:
https://alignment.anthropic.com/2026/msm
또는 전체 연구를 읽으세요:
https://arxiv.org/abs/2605.02087
AI 자동 생성 콘텐츠
본 콘텐츠는 X @AnthropicAI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기