AI 가 조언을 주지만, 그 조언이 좋은가?
요약
기존 AI 대화가 단순한 질의응답 방식에 머물러 있어 깊이 있는 분석을 제공하기 어렵다는 문제점을 지적합니다. 이에 구조화된 사고 프레임워크인 에드워드 드 보노의 '6개 모자(Six Hats)' 기법을 활용하여, AI에게 다양한 관점(사실, 감정, 긍정/부정, 창의성 등)에서 의사결정을 강제적으로 논하게 하는 스킬을 개발했습니다. 이 스킬은 단순한 조언이 아닌, 최종 추천과 합의 사항, 해결되지 않은 긴장 관계까지 포함하는 구조화된 분석 결과를 제공하여 실질적인 도움을 줍니다.
핵심 포인트
- AI는 옵션 생성에는 뛰어나지만, 체계적이고 비판적인 분석 능력은 부족하다.
- 에드워드 드 보노의 '6개 모자' 기법은 의사결정 시 다양한 관점을 구조화하여 고려할 수 있게 돕는다.
- 개발된 스킬을 사용하면 AI가 3라운드 동안 다각적인 논의를 거쳐 최종 추천, 합의 사항, 다음 단계를 포함한 심층 분석 보고서를 생성한다.
- 이 방법은 '상황에 따라 다르다'와 같은 일반적이고 모호한 답변 대신 구체적이고 실행 가능한 통찰력을 제공한다.
대부분의 AI 대화는 동일한 방식으로 진행됩니다. 질문을 하고 답변을 받으며, 때로는 추가 질문을 던집니다. 이는 도움이 되지만 엄밀한 분석은 아닙니다. 만약 AI 에게 추천하기 전에 모든 관점을 고려하도록 강제할 수 있다면 어떨까요?
자유형 AI 조언의 문제점
AI 는 옵션을 생성하는 데 매우 뛰어납니다. 하지만 이를 체계적으로 비판하는 데는 덜 뛰어납니다. 당신은 다음과 같은 답변을 얻습니다:
- "상황에 따라 다르다"라는 답변
- 이미 생각하던 것의 확인
- 실제 결정에 도움이 되지 않는 장단점 목록
등장: 6 개의 모자 방법
Edward de Bono 의 6 개 모자 (Six Hats) 는 구조화된 사고 프레임워크입니다. 각 '모자'는 다른 관점을 나타냅니다:
| 모자 | 초점 |
|---|---|
| 흰색 (White) | 사실과 데이터 |
| 빨간색 (Red) | 감정과 직관 |
| 노란색 (Yellow) | 긍정적 측면과 이득 |
| 검은색 (Black) | 위험과 반대 의견 |
| 초록색 (Green) | 대안과 창의성 |
| 파란색 (Blue) | 종합과 조절 |
나는 이를 자동으로 실행하는 스킬을 구축했습니다.
단순히 에이전트에게 이렇게 말씀하세요: "[결정 사항] 에 대해 6 개 모자 논의를 실행하세요 (Run a six hats debate on [your decision])." 이는 3 라운드를 실행한 후 다음 내용을 포함한 마크다운 파일을 출력합니다:
- 최종 추천 (파란색 모자)
- 주요 합의 사항
- 해결되지 않은 긴장 관계
- 다음 단계
실제 예시
"프론트엔드 툴링에 머물러야 할지 AI 회사로 이동해야 할지?"
논의는 3 라운드 동안 진행되었으며 다음과 같이 결론이 나았습니다:
"단계적 옵션성 (Phased optionality) — 즉각적인 전환이 아님. 작은 AI UI 실험을 출시하고 탐색적 인터뷰를 수행하며, 현재 고용주와 AI 관련 성장에 대해 논의한 후 'AI 회사'라는 라벨이 아닌 팀 구성과 일상 업무에 따라 어떤 제안을 판단해야 한다." 이는 일반적인 조언이 아닌 실제 추천입니다.
시도해 보세요
Clone: github.com/juanallo/six-hats-skill
이를 에이전트 스킬 폴더에 추가하고 다음 명령어를 실행하세요:
"[결정 사항] 에 대해 6 개 모자 논의를 실행하세요 (Run a six hats debate on [your decision])"
AI 자동 생성 콘텐츠
본 콘텐츠는 Dev.to AI tag의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기