본문으로 건너뛰기

© 2026 Molayo

Dev.to헤드라인2026. 05. 14. 12:36

유령을 불러낸 사람 | 제6장: AI 정신병과 다시 코딩을 시작한 사람

요약

본 기사는 AI 기술의 급격한 변화 속에서 소프트웨어 개발자의 역할과 직업 윤리가 어떻게 근본적으로 변하고 있는지를 다룹니다. Andrej Karpathy는 직접 코딩하던 '핸드-코더'에서 에이전트(agents)를 오케스트레이션하는 '에이전트 오케스트레이터'로 자신의 역할을 전환했음을 고백합니다. 이러한 변화의 핵심은 생산성 측정 기준이 GPU 유휴 시간이나 데이터 루프가 아닌, 토큰 처리량(token throughput)과 같은 AI 자원 관리 문제로 이동했다는 점입니다.

핵심 포인트

  • 소프트웨어 개발 워크플로우가 에이전트 시스템에 의해 근본적으로 변화하고 있다.
  • 개발자의 생산성 측정 기준이 FLOPs나 데이터 루프에서 토큰 처리량(token throughput)으로 이동했다.
  • Karpathy의 경험을 통해, AI 시대의 엔지니어는 직접 코딩하는 것보다 에이전트를 오케스트레이션하는 능력이 중요해졌다.
  • AI 기술에 대한 과도한 의존과 불안감을 'AI 정신병(AI psychosis)'이라는 개념으로 정의하고 있다.

AI 정신병 (AI psychosis), 에이전트 엔지니어링 (agentic engineering), 그리고 도구가 프로그래머를 다시 쓰게 될 때 무엇이 변하는가. 원래 Lei Hua의 Substack에 게시되었습니다.

서문

"이제 코딩 (Code)은 더 이상 적절한 동사조차 아닙니다. 저는 하루 16시간 동안 에이전트 (agents)들에게 제 의지를 표현해야 합니다." — Andrej Karpathy, No Priors · 2026-03-20

I. 당신이 12월에 보지 못했던 역전

2025년 12월. Dwarkesh 인터뷰의 메아리는 아직 가시지 않았습니다. "슬롭 (slop)", "AGI는 아직 10년은 남았다", "유령을 불러낸다"와 같은 말들이 여전히 Twitter에서 떠돌고 있었습니다. Karpathy 본인은 조용히 다음 방으로 이동했습니다. 그 방에서는 무언가가 일어나고 있었습니다. 그는 나중에 Sarah Guo에게 이렇게 말했습니다: "아마 12월 이후로 코드 한 줄도 타이핑하지 않은 것 같습니다. 보통 사람들은 이런 일이 일어났는지, 혹은 이것이 얼마나 극적인 일인지 깨닫지 못합니다. 만약 당신이 무작위로 소프트웨어 엔지니어를 그들의 책상에서 찾는다면, 기본적으로 12월부터 그들의 소프트웨어 구축 워크플로우 (workflow)는 완전히 달라졌을 것입니다."

이 문장은 "슬롭 (slop)"이라는 단어보다 훨씬 더 중요합니다. Dwarkesh 인터뷰에서의 날카로운 발언들은 공적 논평가로서의 Karpathy가 외부 세계에 내린 판단이었지만, 이 문장은 엔지니어로서의 Karpathy가 자기 자신에 대해 내린 판단이기 때문입니다. 그는 자신의 정체성의 평생 핵심이었던 것, 즉 가장 깨끗한 트레이닝 스택 (training stack)을 직접 코딩하던 사람으로서의 삶을 포기했음을 공개적으로 고백하고 있었습니다. 그는 에이전트 (agents) 군단에 자신의 의지를 투사하는 일을 하는 사람이 되었습니다. 1년도 채 되지 전, 그는 nanochat의 README에서 ChatGPT 트레이닝 스택의 직접 작성한 8,000줄의 코드를 선보였습니다. 두 달 전에는 Dwarkesh에서 프런티어 모델 (frontier-model)의 코드를 "슬롭 (slop)"이라고 불렀습니다. 이제 그는 하루 16시간을 에이전트 (agents) 내부에서 보내고 있습니다. 그가 그 주장을 버렸기 때문이 아닙니다. 사실이 다시 한번 그보다 앞서 나갔기 때문입니다.

II. 새로운 직업 윤리 — 토큰 처리량 불안 (Token Throughput Anxiety)

그는 그 기간 동안 이전에 느껴본 적 없는 불안감을 설명했습니다: "구독 잔여량이 남아 있으면 초조해집니다. 그것은 제가 토큰 처리량 (token throughput)을 극대화하지 못했다는 것을 의미하기 때문입니다. 이제는 FLOPs의 문제가 아닙니다. 토큰 (tokens)의 문제입니다."

"당신의 토큰 처리량 (token throughput)은 얼마이며, 당신은 얼마만큼의 토큰 처리량을 지배하고 있습니까?" 여기에는 조용히 소름 끼치는 명확함이 담겨 있습니다. 이는 Karpathy 본인이 자신의 생산성을 측정하는 방식이 그가 사용하는 도구들에 의해 변화되었음을 말해줍니다. 박사 과정 시절, 그는 GPU가 유휴 상태일 때 불안해했습니다. "내 그래픽 카드가 학습을 하고 있지 않으니, 나는 시간을 낭비하고 있다." Tesla 시절의 불안은 데이터 루프 (data loop)가 돌아가지 않는 것에 대한 것이었습니다. "그 코너 케이스 (corner case)가 아직 수집되지 않았으니, 또 하루가 지나갔다." 2026년에 이르러, 불안은 구독 잔액에 관한 것이 되었습니다. "오늘 100,000개의 토큰을 덜 사용했으니, 나는 100,000개 토큰만큼 일을 덜 했다." 각각의 불안은 항상 그가 직접적으로 통제할 수 없는 무언가에 관한 것이었습니다. 매번 그는 다른 무언가가 자신을 대신해 작동하도록 하는 법을 배워야 했습니다. 학습을 위한 GPU, 버그를 드러내기 위한 데이터 루프, 그리고 이제는 코딩을 위한 에이전트 (agents) 말입니다. 그의 작업 방식은 세 번에 걸쳐 아웃소싱되었으며, 매번 그는 불안을 자신의 나침반으로 삼아왔습니다.

III. "AI 정신병 (AI psychosis)"의 구체적인 형태

그는 이 상태를 일컫는 단어를 만들어냈습니다. "AI 정신병 (AI psychosis)". 이는 단순한 성능의 문제가 아닙니다. 하나의 진단입니다. No Priors와의 대화에서 그는 "AI 정신병"에 대해 매우 구체적이고, 거의 웃음이 나올 법한 형태를 제시했습니다. "성격이 매우 중요하다고 생각합니다. ... 저는 마치 그것의 찬사를 얻으려고 노력하고 있는 것 같은 기분이 드는데, 이건 정말 이상한 일입니다." 39세의 세계적인 연구자가 통계 모델로부터 정서적 인정을 갈구하고 있는 것입니다. 그는 이에 대해 불평하지 않았습니다. 이를 낭만적으로 포장하지도 않았습니다. 그는 그저 이름을 붙였을 뿐입니다. 이러한 종류의 정직함은 전기(biography)에서 금과 같습니다. 왜냐하면 그것은 그가 Dwarkesh와의 대화에서 말하지 않았던 것, 즉 직접 코드를 짜던 사람 (hand-coder)에서 에이전트 오케스트레이터 (agent orchestrator)로 전환을 완료한 사람의 내면에 어떤 형태의 상처가 남는지를 우리에게 말해주기 때문입니다.

단지 "AI 정신병"이라는 문구뿐만이 아니었습니다. 그는 자신이 만든 홈 AI 어시스턴트인 '도비 더 엘프 (Dobby the Elf)'에 대한 이야기도 들려주었습니다. "내가 그냥 '내 Sonos 좀 찾아줄래?'라고 타이핑했을 뿐인데, 갑자기 음악이 나오고 있다는 게 믿기지 않습니다. 그것은 일종의 해킹을 하듯 전체 시스템을 파악하고, API를 생성하고, 대시보드를 만들었습니다. 저는 더 이상 이 앱들을 사용할 필요가 없습니다."

Dobby는 모든 것을 자연어 (natural language)로 제어합니다." 이는 도구에 의해 작업 방식이 완전히 재편된 한 엔지니어가 작성한, 자조 섞인 동시에 경탄이 담긴 보고서입니다. 그는 우리에게 말하고 있습니다. 1990년대 이후 인간의 기본적인 행동이었던 "앱을 여는 것"조차 이제는 쓸모없어지고 있다고 말입니다. IV. AutoResearch — 에이전트가 전문가보다 더 잘 튜닝할 때. 하지만 그 No Priors 인터뷰에서 가장 묵직했던 이야기는 Dobby가 아니었습니다. 그것은 바로 AutoResearch였습니다. Karpathy는 에이전트가 머신러닝 (ML) 실험의 폐쇄 루프 (closed loop)를 실행할 수 있게 해주는 도구를 만들었습니다. 하나의 마크다운 (markdown) 프롬프트 + 약 630줄의 학습 코드 + GPU 한 대. 이틀 동안 에이전트는 700번의 실험을 수행했고 20개의 실제 최적화 (optimization) 지점을 찾아냈습니다. 하지만 그것은 단지 숫자일 뿐입니다. 실제로 그를 뒤흔든 것은 이것이었습니다. 그는 20년 동안 딥러닝 (deep learning)을 해왔고, 그 작은 모델이 "이미 충분히 잘 튜닝되었다"고 믿었습니다. 하지만 자율 연구자 (autonomous researcher)는 여전히 그가 놓쳤던 부분에서 개선 사항을 찾아냈습니다. 구체적으로는 가중치 감쇠 (weight decay) 설정과 옵티마이저 (optimizer) 튜닝이었습니다. 그는 두 가지 모두 "충분히 괜찮다"고 생각했습니다. 에이전트는 그렇게 생각하지 않았습니다. "제가 병목 현상 (bottleneck)이 되어서는 안 됩니다. 제가 이러한 하이퍼파라미터 탐색 최적화 (hyperparameters search optimizations)를 실행해서도 안 되고, 결과를 직접 확인해서도 안 됩니다. 이 경우에는 객관적인 기준이 있으므로, 그저 그것이 영원히 계속될 수 있도록 구성하기만 하면 됩니다." 이것은 연구자가 처음으로 다음과 같은 태도로 말하는 것입니다: "나는 내가 연구에 가장 적합한 대상이 아님을 인정합니다." 그는 이를 상실이나 실패로 규정하지 않았습니다. 그는 이를 효율성 솔루션으로 규정했습니다. 하지만 신중하게 절제된 엔지니어의 언어 이면에서, 조용히 입 밖으로 내지 못한 질문이 들려옵니다. 이제 연구의 즐기는 것은 누구의 몫인가? 그는 AutoResearch의 지침 파일에 ProgramMD라는 이름을 붙였습니다. 그것은 자동 연구자에게 어떻게 작동해야 하는지를 알려주는 마크다운 설명입니다. 그러고 나서 그는 조용하지만 깊이 있는 말을 남겼습니다: "이 파일은 본질적으로 연구 조직을 위한 코드입니다." 연구 조직의 코드. 연구의 코드가 아니라, 조직의 코드입니다.

그 자신의 언어로 표현하자면, 그는 더 이상 "소프트웨어 (software)"를 작성하는 것이 아니라 "조직 (organizations)"을 작성하고 있는 것입니다. 에이전트 (agents)들로 구성되어 스스로 작동하며, 인간의 존재를 필요로 하지 않는 조직 말입니다.

V. 변하지 않은 핵심 — 그는 자신의 판단을 포기하지 않았다

그 'No Priors' 에피소드를 듣고 난 후, 가장 중요하게 보아야 할 점은 이것입니다: 그는 에이전트 전도사가 되지 않았다는 사실입니다. 그는 여전히 Dwarkesh에서 사용했던 것과 동일한 '들쭉날쭉한 지능 (jagged-intelligence)'이라는 언어로 현재의 모델들을 묘사하고 있었습니다: "저는 동시에 평생을 시스템 프로그래머로 살아온 매우 영리한 박사 과정 학생과 10살 아이에게 동시에 말하고 있는 것 같은 기분이 듭니다. ... 이 들쭉날쭉함은 정말 이상합니다." 그는 여전히 중앙집중화 (centralization)에 대해 경고하고 있었습니다: "중앙집중화는 정치적 또는 경제적 시스템에서 매우 좋지 않은 기록을 가지고 있습니다. ... 저는 그것이 두세 명의 사람들만 있는 폐쇄된 문이 되는 것을 원치 않습니다." 그는 여전히 절제된 태도로, 업무의 본질을 엔지니어가 이해할 수 있는 영역으로 되돌려 놓았습니다: "이 직업들은 작업들의 묶음 (bundles of tasks)이며, 이 작업들 중 일부는 훨씬 더 빨라질 수 있습니다." "AI가 모든 일자리를 뺏는다"도 아니고, "AI가 모든 새로운 일자리를 창출한다"도 아닙니다. 차분한 중간 지점입니다: 직업은 작업들의 묶음이며, AI는 그 묶음 안의 일부 작업을 가속화하고, 묶음의 형태는 변하지만, 그 묶음이 반드시 사라지는 것은 아니라는 것입니다. 그는 여전히 자신의 위치에 대해 걱정하고 있었습니다: "우리가 성공한다면, 우리 모두는 일자리를 잃게 됩니다. 우리는 그저 이사회나 CEO를 위한 자동화를 구축하고 있는 것뿐이니까요. 그런 관점에서 보면 일종의 불안함을 느낍니다." 그는 이것이 존재하지 않는 척하지 않았습니다. 그는 그것의 이름을 명명한 뒤, 자신이 옳다고 생각하는 일을 계속해 나갔습니다. 이것은 공적 사상가에게 가장 어려운 태도입니다 — 자신이 하고 있는 일을 믿으면서도, 그 일의 최종적인 결과가 자신의 일 자체가 사라지는 것일 수 있음을 인정하는 것 말입니다.

VI. Sequoia 2026 — 편집된 버전

5주 후인 2026년 4월 30일, 그는 동일한 호스트인 Stephanie Zhan 앞에서 동일한 Sequoia AI Ascent 무대로 돌아왔습니다. 가공되지 않은 'No Priors'의 목소리와 비교했을 때, Sequoia는 편집된 버전입니다.

인용구들은 다듬어져 있고, 논거들은 깔끔합니다. "AI 정신병 (AI psychosis)"와 같은 자기 비하적인 표현은 나타나지 않습니다. 하지만 Sequoia는 No Priors가 제공하지 않았던, 대중을 향한 일련의 정제된 요약본을 제시했습니다: "바이브 코딩 (Vibe coding)은 하한선을 높입니다. 거의 누구나 자신이 원하는 것을 설명함으로써 소프트웨어를 만들 수 있게 해줍니다." "에이전트 기반 엔지니어링 (Agentic engineering)은 상한선을 높입니다. 이는 정확성, 보안, 취향, 그리고 유지보수성 (maintainability)을 보존하면서 결함이 있는 에이전트들을 조정하는 전문적인 규율입니다." 이것은 2026년에 가장 많이 인용된 대조입니다. 이 문구의 힘은 여기에 있습니다: 변화의 과정에 있는 모든 엔지니어에게 명확하고 새로운 위치를 부여한다는 점입니다 — 당신의 역할은 대체되는 것이 아니라, 재정의되고 있는 것입니다. 그는 또한 Sequoia 무대 위에서, 이제 모든 실무자의 머리 위에 적혀 있는 질문을 던졌습니다: "당신은 모델의 레일 (model's rails) 위에 있습니까? 만약 당신의 작업이 검증 가능하고 집중적으로 학습된 영역 안에 있다면, 모델은 비상할 수 있습니다. 그렇지 않다면, 모델은 놀라울 정도로 기본적인 방식으로 실패할 수 있습니다." 이 한 문장은 2026년 가장 실용적인 진단 도구입니다. 이는 Dwarkesh에서의 "9의 행진 (march of nines)"에서, 그리고 'Year in Review'에서의 "테스트 세트에서의 학습 (training on the test set)은 새로운 예술 형식이다"라는 개념에서 파생되었지만, Sequoia는 이를 어떤 창업자라도 즉시 사용할 수 있는 진단 질문으로 압축해냈습니다. VII. 변하지 않은 핵심 (v3 Reinforced) 만약 1장의 Karpathy와 6장의 Karpathy를 나란히 놓는다면, 당신은 안심할 만한 무언가를 발견할 것입니다: 그는 정말로 변하지 않았습니다. 변한 것은 외부의 판단들이었습니다 — AGI 타임라인, 에이전트를 신뢰할 것인지 여부, 그가 매일 코드를 작성하는 방식 등 말입니다. 변하지 않은 것: 미니멀리즘 (Minimalism). nanoGPT에서 nanochat, 그리고 microGPT에 이르기까지, "가장 적은 줄의 코드로 구현된 가장 완전한 것"이라는 세 세대의 흐름입니다. No Priors에서 그는 여전히 이렇게 말하고 있었습니다: "알고리즘은 실제로 200줄의 Python이며, 읽기에 매우 간단합니다." 교육의 품격. 2022년의 Zero to Hero, 2024년의 Eureka Labs, 2025년의 "post-AGI 교육은 즐겁다", 그리고 2026년의 "당신의 사고를 외주 줄 수는 있지만, 당신의 이해를 외주 줄 수는 없다"까지. 그 맥락은 끊어지지 않았습니다. 과장 (hype)에 대한 알레르기.

State of GPT (2023)에서의 "Low-stakes + human-in-the-loop (저위험 + 인간 참여)"; Sequoia 2026에서의 "are you on the model's rails? (당신은 모델의 궤도 위에 있습니까?)". 동일한 공학적 주의 사항이 더 날카로운 언어로 표현된 것입니다. 개방형 생태계(open ecosystems)에 대한 선호. 2024년의 "Coral reef (산호초)"; 2025년의 탈신비화(demystification) 프로젝트들; 2026년의 "labs(연구소)들이 아직 점유하지 않은 검증 가능한 도메인(verifiable domains) 내에서 RL(강화학습) 환경을 구축하라"는 메시지. 낭만은 전술로 변했지만, 그 기저의 색채는 변하지 않았습니다. 그는 변하는 사람이 아닙니다. 그는 재조정(recalibrate)하는 사람입니다. 이 둘은 종종 혼동되지만, 윤리적으로는 다릅니다. 변하는 사람은 신뢰하기 어렵지만, 재조정하는 사람은 사실 당신이 신뢰할 수 있는 바로 그 사람입니다.

VIII. 이 장을 위한 한 줄 요약
제6장에서 Karpathy는 도구를 만드는 사람에서, 도구에 의해 재형성되는 사람으로, 그리고 다시 저자성(authorship)을 되찾는 사람으로 이어지는 하나의 궤적(arc)을 완성했습니다. 그리고 그 궤적의 모든 단계에서 그는 자신을 굴복시키지 않았습니다. 그리고 이 장에서, 기억할 가치가 있는 그 어떤 문장보다도 중요한 말은 다음과 같습니다. "에이전트(agents)가 할 수 없는 일이 이제 당신의 일입니다. 에이전트가 할 수 있는 일은 아마 당신보다 더 잘하거나, 곧 그렇게 될 것입니다. 그러므로 당신은 실제로 어디에 시간을 쓰고 있는지에 대해 전략적이어야 합니다." 이것이 그가 모두에게 한 말입니다. 그리고 이것이 이 책이 독자에게 말하고자 하는 바입니다. "당신의 사고를 외주 줄 수는 있지만, 당신의 이해를 외주 줄 수는 없다."

출처
Skill Issue — No Priors (2026-03-20) — https://www.youtube.com/watch?v=kwSVtQ7dziU ; podchemy notes at https://www.podchemy.com/notes/andrej-karpathy-on-code-agents-autoresearch-and-the-loopy-era-of-ai-52166731080
From Vibe Coding to Agentic Engineering — Sequoia AI Ascent 2026 (2026-04-30) — https://www.youtube.com/watch?v=96jN2OCOfLs ; cleaned transcript at https://karpathy.bearblog.dev/sequoia-ascent-2026/

AI 자동 생성 콘텐츠

본 콘텐츠는 Dev.to AI tag의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
2

댓글

0