본문으로 건너뛰기

© 2026 Molayo

Simon헤드라인2026. 05. 01. 08:19

앤드루 켈레이 인용

요약

앤드루 켈레이는 LLM 사용 여부를 구분하는 것이 일반적인 오해라고 지적하며, LLM이 생성한 결과물과 인간의 실수는 근본적으로 다르다고 주장합니다. 그는 특히 에이전트 코딩 분야에 익숙한 사람들은 LLM을 활용하는 디지털 흔적(digital scent)을 감지할 수 있다고 언급했습니다.

핵심 포인트

  • LLM 사용 여부를 구분하려는 시도는 오해일 수 있다.
  • 인간의 실수와 LLM의 환각(hallucinations)은 근본적인 차이가 있어 발견이 가능하다.
  • 에이전트 코딩 분야 경험자는 LLM 활용의 디지털 흔적을 감지하는 능력을 갖추고 있다.
  • 켈레이는 자신의 개인적인 환경에서는 특정 기술 사용(흡연 비유)에 대한 명확한 경계를 설정할 것을 권장한다.

앤드루 켈레이 인용

2026 년 4 월 30 일

LLM 을 사용하는 사람과 사용하지 않는 사람을 구분할 수 없다는 것은 흔한 오해입니다. 지난 몇 달 동안 LLM 이 보조한 PR(프로젝트 리포트) 중 100% 를 모두 포착하지는 않았을지도 모릅니다. 하지만 인간이 저지르는 실수와 LLM 의 환각 (hallucinations) 은 근본적으로 다르기 때문에 이를 쉽게 발견할 수 있습니다. 또한, 에이전트 코딩 (agentic coding) 세계 출신 사람들은 자신에게는 뚜렷하지 않지만, 이를 피하는 사람들에게는 명확한 디지털 냄새가 납니다. 흡연자가 방으로 들어오면 비흡연자들은 즉시 알아차리는 것과 같습니다. 저는 여러분에게 흡연을 하지 말라고 말씀드리지는 않지만, 제 집에서는 흡연을 하지 말라고 말씀드립니다.

— 앤드루 켈레이, Zig 의 창립자

최근 기문

  • LLM 0.32a0 은 주요 호환성 유지 개편 (major backwards-compatible refactor) - 2026 년 4 월 29 일
  • 현재 사망한 OpenAI Microsoft AGI 조항의 역사 추적 - 2026 년 4 월 27 일
  • DeepSeek V4 - 거의 최전선에 있는 가격, 비용의 일부만 - 2026 년 4 월 24 일

AI 자동 생성 콘텐츠

본 콘텐츠는 Simon Willison Blog의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
4

댓글

0