Imbad0202/academic-research-skills
요약
본 문서는 학술 연구의 기획부터 출판까지 전 과정을 지원하는 종합적인 AI 도구 세트인 'academic-research-skills'에 대해 설명합니다. 이 도구는 단순한 글쓰기 보조를 넘어, 참고문헌 찾기, 인용 형식 맞추기, 데이터 검증, 논리적 일관성 확인 등 연구 과정의 번거로운 작업을 처리하여 인간 연구자가 핵심적인 사고(질문 정의, 방법론 선택, 해석)에 집중하도록 돕습니다. 특히 AI가 생성할 수 있는 '환각된 결과'나 '방법론 조작' 같은 실패 모드를 방지하는 무결성 게이트를 통해 신뢰성을 높이는 것이 특징입니다.
핵심 포인트
- 이 도구는 연구의 전 과정(기획, 실행, 출판)을 아우르는 종합적인 파이프라인을 제공합니다.
- 단순한 글쓰기 보조가 아닌, 데이터 검증 및 논리적 일관성 확인 등 '번거로운 작업'을 자동화하여 인간 연구자의 사고에 집중하게 합니다.
- AI의 한계를 인지하고, 환각된 결과(hallucinated results)나 방법론 조작 같은 실패 모드를 방지하는 무결성 게이트를 통해 신뢰성을 확보합니다.
- 사용자 개개인의 글쓰기 스타일을 학습하여 품질을 높이고, AI 사용 사실을 숨기는 것이 아니라 더 잘 쓸 수 있도록 돕습니다.
- PaperOrchestra 등 최신 연구에서 영감을 받아 Semantic Scholar API 검증 및 점수 궤적 추적 등의 고급 기능을 포함합니다.
연구에서 출판에 이르는 전체 파이프라인을 아우르는 학술 연구를 위한 Claude Code 기술의 종합적인 세트입니다.
30초 안에 설치하기 (Claude Code CLI / VS Code / JetBrains, v3.7.0+):
/plugin marketplace add Imbad0202/academic-research-skills
/plugin install academic-research-skills
그 다음 /ars-plan을 시도해 보세요.
소크라테스식 대화 (Socratic dialogue)를 통해 논문 구조를 검토하거나, 선행 요구 사항 및 전통적인 심볼릭 링크 (symlink) 흐름을 위한 빠른 설치 (Quick install)로 바로 이동할 수 있습니다.
AI는 당신의 부조종사 (copilot)이지, 조종사 (pilot)가 아닙니다. 이 도구는 당신의 논문을 대신 써주지 않습니다. 이 도구는 참고 문헌 찾기, 인용 형식 맞추기, 데이터 검증, 논리적 일관성 확인과 같은 번거로운 작업 (grunt work)을 처리하여, 당신이 실제로 두뇌를 사용해야 하는 부분, 즉 질문 정의하기, 방법론 선택하기, 데이터의 의미 해석하기, 그리고 "나는 ~라고 주장한다 (I argue that)" 뒤의 문장 쓰기에 집중할 수 있도록 돕습니다. Humanizer (인간화 도구)와 달리, 이 도구는 AI를 사용했다는 사실을 숨기는 것을 도와주지 않습니다. 대신 더 잘 쓸 수 있도록 돕습니다. 스타일 교정 (Style Calibration)은 과거 작업물로부터 당신의 목소리를 학습합니다. 글쓰기 품질 점검 (Writing Quality Check)은 산문이 기계가 생성한 것처럼 느껴지게 만드는 패턴을 잡아냅니다. 목표는 부정행위가 아니라 품질입니다.
Lu et al. (2026, Nature 651:914-919)은 The AI Scientist를 구축했습니다. 이는 최상위 ML 학회 (ICLR 2025 워크숍, 점수 6.33/10 vs 워크숍 평균 4.87)의 블라인드 동료 심사 (blind peer review)를 통해 논문을 출판한 최초의 완전 자율 AI 연구 시스템입니다. 그들의 한계 (Limitations) 섹션은 완전 자율 AI 연구 파이프라인이 물려받게 되는 실패 모드 (failure modes)를 열거합니다: 구현 버그 (implementation bugs), 환각된 결과 (hallucinated results), 지름길 의존 (shortcut reliance), 버그를 통찰로 재구성하기 (bug-as-insight reframing), 방법론 조작 (methodology fabrication), 프레임 잠금 (frame-lock), 인용 환각 (citation hallucinations).
ARS는 AI로 증강된 인간 연구자가 AI 단독 혹은 인간 단독보다 이러한 실패 모드를 더 잘 피할 수 있다는 전제 위에 구축되었습니다. 스테이지 2.5 및 스테이지 4.5의 무결성 게이트 (integrity gates)는 7가지 모드 차단 체크리스트를 실행합니다 (academic-pipeline/references/ai_research_failure_modes.md 참조).
); 리뷰어는 사용자가 제공한 골드 세트(gold set)를 기준으로 자신의 FNR/FPR을 측정하는 선택적 보정 모드(opt-in calibration mode)를 제공합니다.
v3.3은 PaperOrchestra (Song, Song, Pfister & Yoon, 2026, Google)에서 영감을 받았습니다: Semantic Scholar API 검증, 데이터 유출 방지 프로토콜(anti-leakage protocol), VLM 그림 검증, 그리고 점수 궤적 추적(score trajectory tracking) 기능이 포함됩니다.
👉 docs/ARCHITECTURE.md — 전체 파이프라인 뷰: 흐름도(flow diagram), 단계별 매트릭스(stage-by-stage matrix), 데이터 액세스 흐름(data-access flow), 기술 의존성 그래프(skill dependency graph), 품질 게이트(quality gates) 및 모드 목록.
아키텍처 문서는 이전에 여기에 존재하던 방대한 파이프라인 설명을 대체합니다. 어떤 단계에서 무엇이 실행되는지에 관한 모든 내용은 이제 한 곳에서 확인할 수 있습니다.
사전 요구 사항 (Prerequisites)
- Claude Code (최신 버전; 플러그인 패키징에는 최신 버전이 필요합니다)
ANTHROPIC_API_KEY를 내보내거나(exported), 첫 번째claude실행 시 설정하십시오.
선택 사항: DOCX를 위한 Pandoc, APA 7.0 PDF를 위한 tectonic + Source Han Serif TC (Markdown 출력은 둘 다 없이도 작동합니다).
플러그인 설치 (v3.7.0+, 권장):
/plugin marketplace add Imbad0202/academic-research-skills
/plugin install academic-research-skills
작동 확인: /ars-plan을 실행하고
작성 중인 논문을 설명하십시오 — ARS가 장(chapter) 구조를 설계하기 위해 소크라테스식 대화(Socratic dialogue)를 시작할 것입니다. 대신 단발성 테스트를 원한다면, /ars-lit-review "your topic"을 시도해 보십시오.
👉 docs/SETUP.md — 전체 가이드: Claude Code 설치, API 키 설정, DOCX/PDF를 위한 선택적 Pandoc/tectonic, 교차 모델 검증(ARS_CROSS_MODEL), 그리고 5가지 설치 방법(플러그인, 프로젝트 기술, 글로벌 기술, claude.ai 프로젝트, 레포지토리 클론).
Codex CLI를 사용 중이신가요? 대신 형제 배포판을 설치하십시오: Imbad0202/academic-research-skills-codex — 워크플로우 내용은 동일하며, ars-* 별칭(aliases)을 가진 단일 $academic-research-suite 기술로서 Codex 네이티브 패키징을 제공합니다.
👉 docs/PERFORMANCE.md — 모드별 토큰 예산, 전체 파이프라인 예상 비용(15,000단어 논문 기준 약 $4–6), 그리고 권장되는 Claude Code 설정 (권한 건너뛰기(Skip Permissions); 에이전트 팀(Agent Team)은 선택 사항).
- 학술적 글쓰기는 혼자 하는 것이 아니어야 합니다 — 전체 파이프라인 워크스루 (영어)
- 학술적 글쓰기는 혼자 하는 것이 아니어야 합니다: 오픈 소스 AI 협업 도구가 연구자의 워크플로우를 어떻게 변화시키는가 — 전체 사용 가이드 (번체 중국어)
Deep Research— 소크라테스식 유도 모드 (Socratic guided mode), PRISMA 체계적 문헌 고찰 (systematic review), 의도 탐지 (intent detection), 대화 상태 모니터링 (dialogue health monitoring), 선택적 교차 모델 분석 (cross-model DA), Semantic Scholar API 검증을 갖춘 13-에이전트 연구 팀.
Academic Paper— 스타일 교정 (Style Calibration), 글쓰기 품질 점검 (Writing Quality Check), LaTeX 강화 (LaTeX hardening), 시각화 (visualization), 수정 코칭 (revision coaching), 인용 변환 (citation conversion), 정보 유출 방지 프로토콜 (anti-leakage protocol), 그리고 VLM 도표 검증 (VLM figure verification)을 갖춘 12-에이전트 논문 작성.
Academic Paper Reviewer— 0–100 품질 루브릭 (EIC + 3명의 동적 리뷰어 + Devil's Advocate), 양보 임계값 프로토콜 (concession threshold protocol), 공격 강도 보존 (attack intensity preservation), 선택적 교차 모델 DA 비평 / 교정 (cross-model DA critique / calibration), R&R 추적 가능성 매트릭스 (R&R traceability matrix), 읽기 전용 제약 (read-only constraint)을 갖춘 7-에이전트 다각도 피어 리뷰 (peer review).
Academic Pipeline— 적응형 체크포인트 (adaptive checkpoints), 주장 검증 (claim verification), 머티리얼 패스포트 (Material Passport), 선택적 repro_lock, 선택적 교차 모델 무결성 검증 (cross-model integrity verification), 대화 중간 강화 (mid-conversation reinforcement), 그리고 점수 궤적 추적 (score trajectory tracking)을 갖춘 10단계 파이프라인 오케스트레이터 (orchestrator).
Data Access Level Metadata (v3.3.2+) — 모든 기술은 data_access_level (raw / redacted / verified_only)을 선언합니다; 이는 scripts/check_data_access_level.py에 의해 강제됩니다. 패턴은 Anthropic의 automated-w2s-researcher (2026)에서 채택되었습니다. shared/ground_truth_isolation_pattern.md를 참조하세요.
Task Type Annotation (v3.3.2+) — 모든 기술은 task_type (open-ended 또는 outcome-gradable)을 선언합니다. 현재 모든 ARS 기술은 open-ended입니다.
Benchmark Report Schema (v3.3.5+) — 정직한 벤치마크 비교를 위한 JSON Schema + 린트 (lint). shared/benchmark_report_pattern.md를 참조하세요.
Artifact Reproducibility Lockfile (v3.3.5+) — 머티리얼 패스포트 (Material Passport) 상의 선택적 repro_lock 하위 블록.
Configuration documentation, not replay guarantee — LLM 출력은 바이트 단위로 재현 가능하지 않습니다 (not byte-reproducible). shared/artifact_reproducibility_pattern.md를 참조하세요.
실제 10단계 파이프라인 실행에서 생성된 전체 결과물(artifacts) — 동료 검토(peer review) 보고서, 무결성 검증(integrity verification) 보고서, 그리고 최종 논문을 확인하세요:
| 결과물 (Artifact) | 설명 |
|---|---|
| 최종 논문 (EN) | APA 7.0 형식, LaTeX 컴파일 완료 |
| ... |
만약 귀하의 연구가 작성 전 실험(코드 또는 인간 대상 연구)을 포함한다면, Experiment Agent 기술이 ARS 1단계 (RESEARCH)와 2단계 (WRITE) 사이의 간극을 채워줍니다.
ARS 1단계 RESEARCH → 연구 질문(RQ) 브리프 + 방법론 청사진(Methodology Blueprint)
↓
experiment-agent → 실험 실행/관리 → 결과 검증
...
기능: 실시간 모니터링을 동반한 코드 실험(Python, R 등) 실행, IRB 윤리 체크리스트를 통한 인간 대상 연구 프로토콜 관리, 11가지 유형의 오류 탐지(fallacy detection)를 통한 통계 해석, 그리고 재현성(reproducibility) 검증을 수행합니다.
함께 사용하는 방법: 1단계 이후 ARS 파이프라인을 일시 중지하고, 별도의 experiment-agent 세션에서 실험을 실행한 다음, 결과물(Material Passport 포함)을 ARS 2단계로 다시 가져옵니다. ARS는 수정이 전혀 필요하지 않습니다. 설정 지침은 experiment-agent의 README를 참조하세요.
# 전체 연구 파이프라인 시작
사용자: "고등 교육 QA에 미치는 AI의 영향에 관한 연구 논문을 쓰고 싶습니다"
# 소크라테스식 가이드(Socratic guidance)로 시작
...
"고등 교육에 미치는 AI의 영향에 대해 조사해줘" → 풀 모드 (full mode)
"X에 대한 빠른 브리프를 줘" → 퀵 모드 (quick mode)
"PRISMA를 사용하여 X에 대한 체계적 문헌 고찰(systematic review)을 수행해줘" → 체계적 문헌 고찰 모드 (systematic-review mode)
...
"X에 관한 논문을 작성해줘" → 풀 모드 (full mode)
"논문 작성을 가이드해줘" → 플랜 모드 (plan mode, 가이드형)
"논문 개요를 작성해줘" → 개요 전용 모드 (outline-only mode)
...
"이 논문을 검토해줘" → 풀 모드 (full mode) (EIC + R1/R2/R3 + Devil's Advocate)
"이 논문에 대한 빠른 평가를 해줘" → 퀵 모드 (quick mode)
"이 논문을 개선할 수 있도록 가이드해줘" → 가이드 모드 (guided mode)
...
"완전한 연구 논문을 쓰고 싶습니다" → 1단계부터 시작하는 전체 파이프라인
"이미 논문이 있습니다, 검토해 주세요" → 2.5단계 중간 진입 (무결성 우선)
"심사위원 의견(reviewer comments)을 받았습니다" → 4단계 중간 진입
파이프라인은 다음으로 종료됩니다
Stage 6: 프로세스 요약(Process Summary)— 6차원 협업 품질 평가(Collaboration Quality Evaluation, 1–100점 척도)를 포함한 논문 작성 프로세스 기록을 자동 생성합니다.
번체 중국어(繁體中文) — 사용자가 중국어로 작성할 때 기본값으로 설정됩니다.
영어(English) — 사용자가 영어로 작성할 때 기본값으로 설정됩니다.
학술 논문을 위한 이중 언어 초록 (중국어 + 영어)
다른 언어를 사용하시나요? 소크라테스 모드(Socratic mode, 심층 연구)와 계획 모드(Plan mode, 학술 논문)는 의도 기반 활성화(intent-based activation)를 사용합니다. 즉, 특정 키워드가 아닌 요청의 의미를 감지합니다. 이는 별도의 수정 없이 어떤 언어에서도 작동함을 의미합니다. 하지만 일반적인
Trigger Keywords (트리거 키워드)
섹션(스킬의 활성화 여부를 결정하는 섹션)에는 여전히 영어와 번체 중국어 키워드가 나열되어 있습니다. 만약 사용 중인 언어에서 스킬이 안정적으로 활성화되지 않는다면, 각 SKILL.md 파일의 ### Trigger Keywords 섹션에 해당 언어의 키워드를 추가하여 매칭 신뢰도를 높일 수 있습니다.
-
APA 7.0 (기본값, 중국어 인용 규칙 포함)
-
Chicago (Notes & Author-Date)
-
MLA
-
IEEE
-
Vancouver
-
IMRaD (실증 연구)
-
주제별 문헌 검토 (Thematic Literature Review)
-
이론적 분석 (Theoretical Analysis)
-
사례 연구 (Case Study)
-
정책 브리프 (Policy Brief)
-
컨퍼런스 논문 (Conference Paper)
에이전트별 책임(Per-agent responsibilities)과 단계별 산출물(per-stage artifacts)은 이제 docs/ARCHITECTURE.md에 정의되어 있습니다. 버전 번호는 이곳에 고정되어 있어 릴리스 메타데이터가 한곳에서 관리됩니다.
13인 에이전트 연구 팀. 모드: full, quick, review, lit-review, fact-check, socratic, systematic-review. 전체 에이전트 명단 및 산출물: ARCHITECTURE.md §3 참조.
12인 에이전트 논문 작성 파이프라인. 모드: full, plan, outline-only, revision, revision-coach, abstract-only, lit-review, format-convert, citation-check, disclosure. 출력: MD + DOCX (사용 가능한 경우 Pandoc을 통해) + LaTeX (APA 7.0 apa7 클래스 / IEEE / Chicago) → tectonic을 통한 PDF. 전체 에이전트 명단 및 단계별 책임: ARCHITECTURE.md §3 참조.
**0-100 품질 루브릭 (quality rubrics)**을 활용한 7-에이전트 다각도 리뷰 (7-agent multi-perspective review). 모드: 전체 (full), 재리뷰 (re-review), 퀵 (quick), 방법론 중심 (methodology-focus), 가이드형 (guided), 캘리브레이션 (calibration). 의사결정 매핑 (Decision mapping): ≥80 승인 (Accept), 65-79 소폭 수정 (Minor Revision), 50-64 대폭 수정 (Major Revision), <50 거절 (Reject). 1차 리뷰 팀과 협소한 재리뷰 팀의 경계: ARCHITECTURE.md §3 Stage 3 / Stage 3' 참조.
무결성 검증 (integrity verification), 2단계 리뷰 (two-stage review), 소크라테스식 코칭 (Socratic coaching), 그리고 협업 평가 (collaboration evaluation)를 포함하는 10단계 오케스트레이터 (10-stage orchestrator). 파이프라인 보장 사항: 모든 단계는 사용자의 확인 체크포인트 (confirmation checkpoint)를 요구함; 무결성 검증 (Stage 2.5 + 4.5)은 건너뛸 수 없음; R&R 추적성 매트릭스 (R&R Traceability Matrix, Schema 11)가 저자의 수정 주장 (author revision claims)을 독립적으로 검증함. v3.4에서는 Stage 2.5 / 4.5에 컴플라이언스 에이전트 (Compliance Agent, PRISMA-trAIce + RAISE)가 추가됨. v3.5에서는 모든 FULL/SLIM 체크포인트 및 파이프라인 완료 시점에 협업 깊이 관찰자 (Collaboration Depth Observer) (collaboration_depth_agent, 자문 전용 — 절대 차단하지 않음)가 추가됨. 필수 무결성 게이트 (MANDATORY integrity gates, 2.5 / 4.5)는 컴플라이언스 체크가 희석되지 않도록 관찰자를 명시적으로 건너뜀. Wang & Zhang (2026), IJETHE 23:11에 기반함. 에이전트, 산출물 (artifacts), 게이트 (gates)를 포함한 단계별 매트릭스: ARCHITECTURE.md §3 참조.
고등 교육에서의 AI에 관한 성찰적 논문을 작성하기 위해 ARS를 사용하는 동안, 나는 프롬프트 엔지니어링 (prompt engineering)만으로는 해결할 수 없는 세 가지 구조적 문제에 직면했습니다:
- Frame-lock: AI에게 자신의 논제에 반대하는 악마의 변호인(devil's advocate) 토론을 진행해 달라고 요청했습니다. 실제로 수행했고, 네 라운드 동안 매번 이전보다 더 정교하게 발전했습니다. 하지만 모든 라운드는 제가 설정한 틀 안에서 머물렀습니다. DA는 논거를 공격했지만, 전제 자체는 결코 건드리지 않았습니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 GitHub Trending Python (weekly)의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기