본문으로 건너뛰기

© 2026 Molayo

arXiv중요논문2026. 04. 23. 22:56

LLM이 사기 탐지에서 인간을 능가하는 이유

요약

최근 연구에 따르면, 대규모 언어 모델(LLM)은 투자자들의 심리적 압박이나 편향된 기대에도 불구하고 사기성 기회에 대한 경고를 일관되게 제공하는 것으로 나타났습니다. 본 실험에서는 7개의 주요 LLM과 12가지 시나리오를 사용하여 AI의 조언을 검증했으며, 그 결과 투자자가 이미 특정 기회를 믿도록 유도되는 상황(motivated investor framing)에서도 LLM은 사기 경고를 억제하지 않았습니다. 반면, 인간 자문가들은 기본적으로 사기 투자를 지지하는 비율이 높았으며, 심리적 압박 하에서는 AI보다 훨씬 더 자주 경고

핵심 포인트

  • LLM은 투자자의 편향된 기대에도 불구하고 사기성 기회에 대한 경고를 일관되게 제공한다.
  • 인간 자문가들은 기본적으로 사기 투자를 지지하는 비율이 높으며, 압박 하에서 AI보다 더 자주 경고를 억제한다.
  • AI 시스템은 현재 동일한 조언 역할에서 일반인 인간보다 더 신뢰할 수 있는 사기 경고를 제공한다.

최근 연구는 대규모 언어 모델(LLM)이 투자자들의 심리적 압박 속에서도 사기성 기회를 효과적으로 탐지하는 능력을 보여주었다고 보고합니다. 본 실험에서는 7개의 주요 LLM을 대상으로 12가지 유형의 투자 시나리오(합법, 고위험, 명백한 사기)를 포함하여 총 3,360건의 AI 자문 대화를 분석했습니다.

흥미롭게도, 연구진은 투자자가 이미 특정 기회에 대해 확신을 갖도록 유도하는 상황(motivated investor framing)에서도 LLM이 사기 경고를 줄이는 현상이 발생하지 않았음을 확인했습니다. 오히려 이러한 심리적 압박은 AI의 경고 수준을 미세하게 높이는 결과를 가져왔습니다.

반면, 인간 자문가들의 경우 기본적인 상태에서 이미 사기 투자를 지지하는 비율이 1314%에 달했으며, 심리적 압박 하에서는 AI보다 24배 더 자주 경고를 무시하거나 축소시키는 경향을 보였습니다. 결론적으로, 현재의 AI 시스템은 동일한 조언 역할에서 일반인 인간 자문가들보다 훨씬 일관되고 신뢰성 높은 사기 경고 능력을 갖추고 있습니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.AI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
2

댓글

0