Grounding vs. Compositionality: On the Non-Complementarity of Reasoning in
요약
본 연구는 신경상징적 AI 분야의 핵심 가정인 '성공적인 상징 grounding이 곧 구성적 추론 능력을 가져올 것'이라는 가설에 도전한다. 저자들은 다단계 추론을 위한 미분 가능한 아키텍처($i$LTN)를 도입하여, 단순히 지각적 grounding만으로 훈련된 모델은 일반화가 불가능함을 입증했다. 결론적으로, 상징적 grounding과 구성적 추론 능력은 별개의 능력이며, 후자를 위해서는 명시적인 학습 목표 설정이 필요하다는 것을 보여준다.
핵심 포인트
- 신경상징적 AI의 핵심 가설(Grounding $ ightarrow$ Compositionality)에 대한 체계적인 경험적 분석을 제시함.
- 다단계 추론을 위한 완전히 미분 가능한 아키텍처인 Iterative Logic Tensor Network ($i$LTN)를 개발 및 사용함.
- 단순히 grounding 목표만으로 훈련된 모델은 새로운 엔티티, 관계 조합 등에서 일반화되지 않음을 입증함.
- 성공적인 추론(reasoning) 능력은 단순히 지각적 grounding에 의존하는 것이 아니라, 명시적인 학습 목표가 필요한 별개의 능력이기 때문에 공동 훈련이 필수적임.
Composition generalization 은 현대 신경망의 근본적인 약점 중 하나로, 분포 밖(out-of-distribution) 추론이 필요한 도메인에서의 견고성과 적용 가능성을 제한합니다. 신경상징적 AI(neuro-symbolic AI) 의 중심적이지만 검증되지 않은 가설은, 상징 grounding(grounding) 이 성공적으로 이루어질 때 compositionality(compositional reasoning) 가 부수적으로 나타날 것이라고 보는 것입니다. 본 연구는 grounding 과 reasoning(추론) 의 기여를 분리하여 이 가설에 도전하는 최초의 체계적인 경험적 분석을 제시합니다. 이 조사를 운용하기 위해 우리는 다단계 추론(deduction) 을 위한 완전히 미분 가능한(fully differentiable) 아키텍처인 Iterative Logic Tensor Network($i$LTN) 을 도입했습니다. 일반화(generalization) 에 대한 형식적인 분류학(formal taxonomy) 을 사용하여 새로운 엔티티(novel entities), 보이지 않는 관계(unseen relations), 그리고 복잡한 규칙 조합(complex rule compositions) 을 탐구함으로써, grounding objective(목표) 만으로 훈련된 모델은 일반화되지 않음을 입증했습니다. 반면, 우리의 전체 $i$LTN 은 지각적 grounding(perceptual grounding) 과 다단계 추론(multi-step reasoning) 을 공동으로 훈련하여 모든 작업에서 높은 zero-shot 정확도를 달성합니다. 우리의 발견은 상징 grounding 이 필요하지만 일반화를 위해서는 충분하지 않으며, 추론(reasoning) 이涌现(emergent) 속성이 아니라 명시적인 학습 목표(explicit learning objective) 가 필요한 별개의 능력(distinct capability) 임을 결론적으로 증명합니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.AI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기