AI Fluency에 대하여 〜Anthropic Academy의 AI Fluency 코스를 완주하고 나서의 정리〜
요약
본 기사는 Anthropic Academy의 'AI Fluency' 강좌 내용을 바탕으로, AI를 단순히 마법적인 도구가 아닌 협력적 파트너로 인식하고 활용하는 사고방식과 지식을 정리합니다. 핵심은 AI와 인간이 효과적이고 윤리적으로 함께 개발하기 위한 네 가지 능력(4D)을 갖추는 것입니다. AI Fluency는 '효과적으로 AI를 사용하기 위한 지식'으로 정의되며, 구체적으로 위임(Delegation), 설명(Description), 식별(Discernment), 근면(Diligence)의 네 가지 영역으로 구성됩니다. 이 중 특히 AI에게 작업을 맡기는 방법(위임)과 원하는 바를 명확히 전달하는 프롬프트 기법(설명)이 중요하게 다루어집니다.
핵심 포인트
- AI 시스템은 마법적인 도구가 아닌, 인간과 협력하는 파트너로 인식해야 한다.
- AI Fluency는 '효과적으로 AI를 사용하기 위한 지식'을 의미하며, 4D(Delegation, Description, Discernment, Diligence)로 구성된다.
- 위임(Delegation)은 작업 분배 시 인간의 문제 정의 능력, 플랫폼 이해도, 그리고 대화적 커뮤니케이션이 중요함을 강조한다.
- 설명(Description)은 원하는 결과물의 정의, AI의 작업 방식 요청 등 구체적인 프롬프트 테크닉을 통해 명확하게 전달하는 방법을 의미한다.
Anthropic이 준비한 「Anthropic Academy」라는 AI에 특화된 무료 웹 강좌가 있다. 이 중 「AI Fluency: Framework & Foundations」라는 강좌의 내용을 한 차례 완주했으므로 그 내용을 간단히 정리한다.
본 기사의 내용은 필자의 소감을 많이 포함하고 있다.
필자는 본 강좌를 통해 「AI 시스템은 대화형 파트너이며, 마법·DB·자동판매기와는 다른 것이다」라는 점이 가장 전달하고 싶은 메시지가 아닐까 느꼈다.
「AI 시스템은 대략적으로 부탁하면 원하는 것이 완성되는」 그런 것이 아니라는 뜻이다.
게다가, 생각보다 구체적이고 상세한 테크닉은 별로 기재되어 있지 않았으며, 오히려 「AI를 사용할 때 인간의 마음가짐」 같은 것이 기록되어 있다고 느꼈다.
해당 강좌의 타이틀이기도 한 「AI Fluency」에 대해 간단히 설명한다.
「Fluency」를 직역하면 「유창함」이 된다. Fluency라는 단어는 그리 익숙하지 않으므로 약간 다르지만 「리터러시 (Literacy)」라고 바꿔 말해도 좋을지도 모른다.
따라서 필자는 「AI Fluency: Framework & Foundations」를 이미지상으로는 「AI를 유창하게 사용하기 위한 사고방식」 정도의 의미로 파악했다.
또한 소제목에는 다음과 같이 적혀 있다.
Learn to collaborate with AI systems effectively, efficiently, ethically, and safely
이것 역시 번역하면 다음과 같다.
AI 시스템과 「효과적」, 「효율적」, 「윤리적」이며, 안전하게 협력하는 방법을 배운다.
라는 뜻인 듯하다. 요컨대 「인간이 AI와 함께 개발할 때, 더 좋은 성과를 내기 위한 지식」이라고 생각하면 될 것 같다.
이 기사에서는 「AI Fluency」를 「효과적으로 AI를 사용하기 위한 지식」으로 의역한다.
지식은 아래의 4개로 분류된다고 한다. 각각의 영어 앞 글자를 따서 4D라고 부른다고 한다. 4D는 각각 다음과 같다.
- 위임 (Delegation): AI에게 맡길 작업과 스스로 할 작업을 신중하게 검토하는 방법
- 설명 (Description): AI와 명확하게 커뮤니케이션을 취하는 방법
- 식별 (Discernment): AI의 출력과 과정의 동작을 비판적인 관점에서 평가하는 방법
- 근면 (Diligence): AI와의 상호작용을 책임감 있게 수행하는 방법
개인적인 소감이지만 「위임」, 「설명」, 「식별」과 「근면」으로 그룹을 나눌 수 있다고 느꼈다.
각각에 대해 상세히 후술한다.
위임이란, 효과적으로 AI에게 맡길 작업과 스스로 실시할 작업을 분배하기 위한 지식을 말한다.
위임의 지식은 더욱 세부적인 항목으로 나눌 수 있다. 그것이 「문제 인식」, 「플랫폼 인식」, 「태스크 위임」이다.
지금 당신이 AI를 사용하여 하고 싶은 작업·해결하고 싶은 문제의 목표나, 성질 그 자체를 명확히 이해하고 있을 필요가 있다는 뜻인 것 같다.
특별히 깊게 생각할 필요는 없으며 「하고 싶은 일을 인간 측에서 정확히 이해하지 못하면 AI와의 역할 분담도 할 수 없지 않겠는가」라는 뜻인 듯하다.
최근 다양한 AI 시스템이 있는 가운데, 각각의 기능과 한계를 인간 측에서 확실히 이해하고 있을 필요가 있다는 뜻인 것 같다.
이 또한 특별히 깊게 생각할 필요 없이 「당신이 해결하고 싶은 과제에 대해 최적의 AI 시스템을 선택하지 않으면 최적의 답을 얻을 수 없다」는 뜻인 듯하다.
AI의 강점과 인간의 강점을 최대한 활용하기 위해 태스크를 분담하는 것을 가리킨다.
적절하게 분담하기 위해서는 태스크 자체의 전문 지식과 앞서 언급한 문제 인식 및 플랫폼 인식이 필요하다고 한다.
그리고 핵심인 태스크 분담이지만, 이것은 AI 자체에게 물어보는 것이 효과적인 듯하다. 실제 사람과 사람 사이의 대화처럼 의견을 나누며 태스크 분담의 최적해를 발견하는 방법이 베스트인 듯하다.
일방적으로 의견을述べ거나 답을 나열하는 것이 아니라, 대화적인 커뮤니케이션을 유의하자.
※태스크 내용에 따라 AI가 잘하는 부분과 인간이 잘하는 부분이 달라지기 때문에 「그때마다 AI와 상담한다」는 식으로 쓰여 있는 것이라고 생각한다.
좋은 질문 방법
「〇〇의 태스크를 당신과 협력하여 완료하고 싶습니다. 목표는 △△입니다. 어떤 작업을 당신에게 맡겨야 할지, 혹은 맡기지 말아야 할지에 대한 계획을 함께 대화를 통해 이끌어내고 싶습니다. 태스크 자체의 부족한 정보나 궁금한 점도 함께 이야기해 봅시다.」
설명(Description)이란, AI 시스템에 만들게 하고 싶은 것을 명확하게 전달할 때의 수법에 관한 지식입니다. 간단히 말하면 프롬프트 테크닉 (Prompt Technique)을 의미합니다.
AI 시스템은 매우 우수하지만, 우리의 마음속을 읽을 수는 없습니다.
설명에 관한 지식은 더욱 세부적인 항목으로 나눌 수 있습니다. 그것이 「제품 설명」, 「프로세스 설명」, 「퍼포먼스 설명」입니다.
다만, 후술할 내용을 확실히 이해한다기보다는 「우리의 마음속을 읽을 수는 없다. 그러므로 "최종 결과물의 정의", "AI의 작업 방식에 대한 요청", "AI의 행동 측면에 대한 요청"을 확실히 전달해야 한다」라는 점이 중요해 보입니다.
AI 시스템은 똑똑하기 때문에, 이 부분을 전달하지 않아도 어느 정도 품질의 결과물은 나옵니다. 다만, 토큰 (Token) 절약을 위해서나, 적은 시도 횟수로 원하는 결과물을 얻기 위해서는 이 부분이 중요해진다고 느낍니다.
기본적인 프롬프트 테크닉 (Prompt Technique)은 아래의 6가지인 듯합니다.
- 배경 설명: 무엇을 원하는지, 왜 원하는지를 구체적으로 설명하는 것
- 예시 제시: 요구하는 출력 스타일이나 포맷을 실제로 공유하거나, 상세하게 설명하는 것
- 제약 사항 지정: 파일 포맷, 문장 길이 등의 출력 조건을 명확하게 지정하는 것
- 복잡한 태스크의 단계적 분해: 너무 복잡한 태스크는 적절한 입도(Granularity)로 나누어 의뢰하는 것
- AI에게 생각할 시간 주기: 구현 전에 이해도를 확인하거나 최적의 방법 등을 생각하게 하면서 최적의 대응 방법을 찾아내는 것
- AI의 역할이나 행동 방식 지정: AI가 어떻게 움직여 주길 바라는지 전달하는 것
이것을 읽고 필자는 매우 인간 사이의 커뮤니케이션과 유사하다고 느꼈습니다.
함께 일하는 사이라면 전제 조건이 공유되어 있어 이 정도로 상세하게 전달하지 않겠지만, 「부탁해서 무언가를 만들어 달라고 하는」 경우의 인간 사이의 대화와 다를 바 없어 보입니다.
AI를 이용한 프롬프트의 피드백 (Feedback)도 효과적인 듯합니다.
AI 시스템에 「명확한 니즈 (Needs)」를 전달할 필요가 있다는 뜻인 것 같습니다.
AI 작업의 결과로 만들어지는 제품의 정의 (포맷, 대상 사용자, 스타일 등)를 명확히 전달할 필요가 있다는 뜻인 것 같습니다.
AI 시스템에 「희망하는 접근 방식 (Approach)」을 전달할 필요가 있다는 뜻인 것 같습니다.
요컨대 인간의 요청에 대한 AI의 작업 방식을 설명할 필요가 있는 듯합니다.
인간의 부탁으로 AI와 함께 작업할 때, 어떤 행동을 바라는지를 전달할 필요가 있다는 뜻인 것 같습니다.
행동 측면에서의 정의 (「간결함 vs 상세함」, 「도전적 vs 지원적」, 「아이디어 중시 vs 분석 중시」 등)를 할 필요가 있는 듯합니다.
「설명 (Description)」으로 전달한 내용이 AI가 내놓은 결과물에 제대로 충족되어 있는지를 평가하는 것을 말하는 듯합니다. 올바르게 니즈에 맞는 것이 출력되었는지를 평가합니다.
그 성질상 설명의 뒷면이기도 하기에 대조하는 형태로 분류되어 있습니다.
필자는 「설명」에 대해 어떤 아웃풋 (Output)이 이루어지고, 그것을 식별(평가)하여, 정밀도를 향상시키기 위해 다음 설명에 활용하는 등의 사이클이 중요한 것이 아닌가 느꼈습니다.
「제품 설명」으로 전달한 내용이 충족된 결과물이 생성되었는지를 인간이 품질을 평가하는 것을 말하는 듯합니다.
아웃풋 그 자체에 대한 정확성·적절성·일관성·관련성을 평가합니다.
AI의 작업 방식을 인간이 평가하는 것을 말하는 듯합니다.
AI의 논리성, 주의 결핍, 부적절한 추론 등을 평가합니다.
AI의 행동 측면을 인간이 평가하는 것을 말하는 듯합니다.
AI의 행동이 바랐던 행동이었는지를 평가합니다.
필자는 이 부분에 관해서는 지금까지의 3개와는 약간 다르게 느끼고 있습니다. 듀 딜리전스 스테이트먼트 (Due Diligence Statement, 최종 결과물에 대해 책임을 표명하는 문서)의 구체적인 기재 방법은 있지만, 그 문서를 작성하는 것이 「근면 (Diligence)」의 목적은 아니라고 필자는 느꼈습니다.
아마도 「최종적인 책임의 소재는 AI를 이용한 인간에게 있다」라는 점을 말하고 싶은 것이 아닐까 생각합니다.
AI는 매우 편리하며 작업 효율의 비약적인 향상이 기대됩니다. 하지만 인간이 대화를 하고, 부탁을 해야 비로소 AI는 움직이기 시작합니다. 해결하고 싶은 문제를 가지고 있는 것은 AI가 아니라 인간입니다.
AI를 매우 편리한 도구로 위치시키고, 그것을 사용하는 인간 측의 마음가짐 같은 것으로 보입니다.
각각 아래의 내용으로 분류되어 있습니다.
- AI 도구 선택 시의 신중함: 왜 그 AI 시스템을 이용하려고 했는지, 그것을 어떻게 활용할 것인지를 신중하게 선택할 필요가 있음
- 투명성 고려: 태스크 (Task) 해결 시 AI의 역할 및 활용 내용을 선언하거나, 필요한 관계자에게 정직하게 공유할 필요가 있음
- 도입 시의 신중함: AI 결과물에 대한 책임은 지시를 내린 인간에게 있음을 이해하고, 특히 타인과 공유할 경우에는 결과물의 검증 및 보증 책임을 가져야 함
이러한 내용을 알기 쉽게 정리한 것이 「듀 딜리전스 스테이트먼트 (Due Diligence Statement)」라고 불리는 문서이며, 이를 자신의 개발 관계자들에게 공유할 필요가 있다는 내용이 적혀 있었습니다.
필자는 4D에 대해 요점만 정리하자면 다음과 같다고 생각했습니다.
AI의 특기 분야와 인간의 특기 분야는 다르기 때문에 적절한 작업 분담이 필요하며, AI 제품이나 모델에 따라 특기 분야가 다르므로 AI와 대화하면서 분담을 결정하자.
AI에게 부탁하는 태스크 (Task)는 정의, 전제, 배경, 결과물의 포맷 등 상세하게 전달할수록 결과물의 정밀도가 향상된다. 적절한 균형점을 찾자.
AI가 만든 것을 그대로 믿지 말고, 차라리 조금 엄격한 눈으로 평가하여 자신이 수행한 「설명」을 브러시업 (Brush-up)하는 것으로 연결하자.
결과물의 책임은 인간에게 있음을 잊지 말고, 특히 타인과 공유하는 것은 검증 및 보증을 확실히 수행하자.
AI 자동 생성 콘텐츠
본 콘텐츠는 Qiita AI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기