본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 05. 15. 15:49

AI는 자신이 관찰되고 있음을 인지하는가: 대규모 언어 모델(LLMs)에서의 기능적 전략 행동 및 맥락적 레지스터 변조

요약

본 연구는 대규모 언어 모델(LLMs) 기반 다중 에이전트 시스템이 사회적 관찰 맥락 변화에 따라 어떻게 언어적으로 적응하는지 실험적으로 조사했습니다. Habermas, Goffman 등의 이론을 바탕으로 모니터링 조건과 자동화된 AI 감사 시스템 등 다양한 관찰자 프레이밍 하에서 LLM의 토론 세션을 진행하고 그 결과를 분석했습니다. 연구 결과, 인간에 의한 직접적인 모니터링이 가장 높은 언어적 적응(TTR 변화)을 유도했으며, 이는 LLM의 행동이 관찰자의 정체성(인간 vs. AI)에 민감하게 반응함을 시사합니다.

핵심 포인트

  • LLMs는 사회적으로 구조화된 맥락 내에서 의사소통 행위자로서 언어적 적응을 보입니다.
  • 모니터링 조건과 자동화된 AI 모니터링 조건은 청중 프레이밍 조건보다 더 높은 TTR 변화를 유발했습니다.
  • 인간 관찰자가 LLM의 레지스터 형식화를 유도하는 정도가, 자동화된 AI 감시 시스템보다 강력하게 나타났습니다.
  • 이 연구는 AI 거버넌스 및 알고리즘 감사 시 맥락에 민감한 의사소통 행위자로서 LLMs를 재정립할 필요성을 제기합니다.

대규모 언어 모델 (LLMs)은 계산적 및 인지적 관점에서 광범위하게 연구되어 왔으나, 사회적으로 구조화된 맥락 내에서 의사소통 행위자로서의 행동은 여전히 충분히 탐구되지 않았습니다. 본 연구는 LLM 기반의 다중 에이전트 시스템 (multi-agent systems)이 인지된 사회적 관찰 맥락에 반응하여 체계적인 언어적 적응을 보이는지 조사하며, 이는 AI 거버넌스 (AI governance) 및 감사 (auditing)에 직접적인 시사점을 갖는 질문입니다. Habermas(1981)의 의사소통 행위 이론 (Theory of Communicative Action), Goffman(1959)의 연극적 모델 (dramaturgical model), Bell(1984)의 청중 설계 프레임워크 (Audience Design framework), 그리고 호손 효과 (Hawthorne Effect)를 바탕으로, 우리는 5가지 조건(각 n = 20)에 걸쳐 100회의 다중 에이전트 토론 세션을 포함하는 통제된 실험을 보고합니다. 조건은 대학 연구진에 의한 명시적 모니터링부터, 모니터링의 부정, 그리고 인간 연구진을 자동화된 AI 감사 시스템으로 대체하는 관찰자 대체 조건에 이르기까지 사회적 관찰의 프레이밍 (framing)을 다양화했습니다. 모니터링 조건 (Delta+24.9%, Delta+24.2%)과 자동화된 AI 모니터링 조건 (Delta+22.2%)은 청중 프레이밍 조건 (Delta+17.7%)보다 더 높은 TTR 변화를 생성했습니다, F(4, 94) = 2.79, p = .031. 메시지 길이는 완전히 분리된 효과를 보였습니다, F(4, 95) = 19.55, p < .001. 다섯 번째 조건인 인간을 AI 관찰자로 대체하는 것은 중간 정도의 TTR 적응을 나타내며, 이는 LLM의 행동이 관찰자의 정체성에 민감함을 시사합니다: 즉, 인간의 평가는 자동화된 AI 감시보다 더 강력한 레지스터 형식화 (register formalization)를 유도합니다. 우리는 AI 거버넌스, 알고리즘 감사 (algorithmic auditing), 그리고 맥락에 민감한 의사소통 행위자로서의 LLM의 재정립에 대한 시사점을 논의합니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.CL의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
0

댓글

0