본문으로 건너뛰기

© 2026 Molayo

Zenn헤드라인2026. 05. 08. 15:58

Andrew Ng『AI Prompting for Everyone』第 2 章 ─ 思考のパートナーとしての AI

요약

이 글은 Andrew Ng의 'AI Prompting for Everyone' 중 Module 2, '사고의 파트너로서의 AI'를 다루며, AI를 단순한 정보 검색 도구가 아닌 능동적인 사고 협력자로 활용하는 방법을 제시합니다. 핵심은 단순히 질문을 던지는 것을 넘어, 충분한 배경 지식(Context)을 제공하고 대화를 반복하며 피드백을 주는 '협업적 프롬프팅'입니다. 이를 통해 AI가 일반적이거나 평범한 답변에 머무르지 않고 사용자 맞춤형의 창의적인 결과물을 도출하도록 유도할 수 있습니다.

핵심 포인트

  • AI를 단순한 답변 생성기가 아닌, 사고 과정을 함께하는 '사고 파트너(Thought Partner)'로 활용해야 한다.
  • 단순히 질문을 던지는 것보다, 충분하고 구체적인 배경 정보(Context)를 제공하여 AI의 응답 범위를 좁혀야 한다.
  • AI가 일반적이고 평범한 답변을 내놓는 경향이 있으므로, 창의적인 결과물을 얻기 위해서는 컨텍스트와 반복적인 피드백 루프를 통해 '상식 공간'에서 벗어나도록 유도해야 한다.
  • AI 모델은 방대한 양의 정보를 기억할 수 있지만(수십만 단어), 주제가 완전히 바뀔 때는 반드시 새로운 채팅 세션을 시작하여 컨텍스트 오염을 막아야 한다.

はじめに

DeepLearning.AI の Andrew Ng 先生による講座 AI Prompting for Everyone を読み解く連載、今回は第 2 章 Module 2: AI as a Thought Partner(思考のパートナーとしての AI) に入ります。

第 1 章では AI の「情報源」という観点で、AI が何を知っているかを整理しました。今回はその先 ── AI に 何を考えさせ、どう考えさせるか という、より能動的な使い方の話です。

このモジュールで学ぶこと

Module 2 のテーマは 「AI を単なる回答装置ではなく、思考の壁打ち相手として使う」 ことです。具体的には以下の 7 トピックを扱います。

  • Brainstorming with AI(AI とブレインストーミング) -
  • Context(コンテキストとは何か) -
  • AI Desktop Apps(デスクトップ型 AI アプリ) -
  • Reasoning with AI(AI に「考えさせる」) -
  • Sycophancy(おもねり問題) -
  • Writing with AI(AI で書く) -
  • AI Critique(AI に批評させる)

「AI に何を聞くか」ではなく「AI をどう協働者として動かすか」── ここが本モジュールの核心です。

2.1 Brainstorming with AI(AI とブレインストーミング)

「リスト生成」を超えたブレストの使い方

OpenAI が公開した ChatGPT の利用統計によると、約半分のチャットがライティングや実務的なガイダンスで、創造的なアイデア出しは約 3.9% とのこと。多くの人が「AI にアイデアを 100 個出して」のような単純なリスト生成として使っています。

これは悪い使い方ではありません。有名な創造性テストに「レンガの用途を 200 個挙げよ」というものがありますが、人間がやると本当に大変です。AI に任せれば長いリストを生成してくれて、その中から良いものを選ぶ ── これは十分使える形です。

より深いブレストの形:コンテキスト + 反復

しかし Andrew Ng 先生が推奨するのは、もう一段深い使い方。コンテキスト を与えて、対話を反復しながら掘り下げるやり方です。

例えば「ワークアウトプランを作って」と聞いた場合 ──

❌ 浅いプロンプト:
「ワークアウトプランを作って」
→ 「3 つのプランがあります。スクワット 10 回、腕立て 10 回...」
...

なぜ AI は「平凡な答え」を返しがちなのか

これは Module 1 で学んだ「事前学習」の特性に直結します。

Andrew Ng 先生は概念図でこう説明していました(横軸:回答のユニーク度、縦軸:その回答が出る確率):

回答のタイプAI が返す確率
一般的・常識的スクワット、腕立て伏せ高い
......
ネット上には**「ダンベルカール」の話のほうが「猫トリガーのマイクロワークアウト」**よりも遥かに多く書かれているため、AI の自然な傾向は「平凡な答え」に寄ります。

事実確認の用途(「世界一高いビルは?」)ならこれで全く問題ありません。しかしブレスト用途では「平均的な答え」は欲しくないわけです。

解決策:コンテキストで「常識空間」から押し出す

豊富なコンテキストを与えると、AI は「常識的回答の空間」から押し出され、よりカスタムで創造的な提案をする確率が上がります。

反復で「良い文脈」を発見する

「どのコンテキストを与えればいいか」自体が分からない場合、Andrew Ng 先生のおすすめの方法は 「AI に 3〜5 個の選択肢を出させて、フィードバックを返しながら反復する」 こと。

1. 借金返済プランをブレストしたい(クレカ$1,100、19%、月$40最低返済、
学生ローン 8%、家族ローン$900)
2. 「3〜5 個のプランを提案して。どれが良いかは決めないで」
...

このループのポイントは、フィードバック を返す行為自体が「AI に必要なコンテキスト を補足する作業」になっていること。「何を伝えれば良いか分からない」状態から、対話を通じて自然に必要情報が抽出されます。

2.2 Context(コンテキストとは何か)

人間と AI の「ワーキングメモリ」の差

心理学的に、人間 が一度に保持できる情報は約 7 項目と言われます。買い物リストが 7 個なら覚えられても、20 個になると厳しい。

一方、最新の AI モデルは 数十万語のコンテキスト を扱えます。具体的には:

AI のコンテキスト容量の目安換算
約 750,000 語ハリーポッター 4〜5 冊分
数日間の連続音声分

多くのユーザーは AI に与えられる情報量を過小評価している、というのが先生の指摘。

コンテキストには何が含まれるのか

「コンテキスト」とは、AI が応答を生成するために使う全てのテキストとファイルのことです。具体的には次の構成要素があります。

ユーザーが入力したプロンプトと、AI の応答はチャット履歴としてどんどん追加されていきます。だから会話の後半でも、AI は「最初の方で何を話したか」を覚えています。

「賢い相談相手の比喩」

どんなコンテキストを与えるべきか迷ったら、こう自問してください ──「信頼できるアドバイザーが、自分のために真剣に考えてくれるとして、その人は何を知る必要があるか?」

なるほど、と思った比喩でした。AI は確かに賢いですが、あなたの状況を全く知らない専門家のようなもの。背景情報なしに「物理学と動物学、どちらを専攻すべき?」と聞かれても、当たり障りのない一般論しか返せません。

進路適性検査の結果、現在の時間割、興味のある分野などを与えてはじめて、そのユーザーに刺さる回答が可能になります。

コンテキストの「リセット」が大事な理由

長いチャットを続けていると、コンテキストには関係ない情報が溜まっていきます。

例えば、自分のワークアウトプランを話した後で「じゃあ次はお母さんのワークアウトプランを作って」と話題を切り替えると ── AI はあなたのスケジュールや好みを「お母さんに対しても適用してしまう」恐れがあります。

全く別のトピックに移るときは、新しいチャットを開く。これが地味ながら重要なテクニックです。

2.3 AI Desktop Apps(デスクトップ型 AI アプリ)

チャット画面を超える AI

最近、Claude Cowork、Microsoft Copilot Cowork、Google Antigravityなどのデスクトップ型 AI アプリが登場しています。これらの特徴は:

  • ユーザーの許可を得て、コンピューター上のファイルを能動的に探索できる - 必要なファイルを自分で見つけて読み込み、コンテキストを補完する
  • ファイルの作成・移動・リネーム・削除も可能

これはエージェント的(agentic)AIの典型例です。

典型ユースケース:散らかったフォルダの整理

PDF や画像が乱雑に放り込まれたリサーチフォルダ。これを「整理して」と頼むと ──

  • AI がフォルダ内を探索して、何があるか把握
  • 整理プランを提案
  • ユーザーがレビュー・追加指示
  • 承認後、AI がファイルをリネーム・移動・サブフォルダ作成

チャット画面でこれをやろうとすると、自分で全ファイルを把握してアップロードし続ける必要があります。デスクトップアプリなら、その手間が消える。

「コンテキスト発見」の自動化

通常のチャット UI では「事前に何を渡すか」を決める必要があります。デスクトップアプリの強みは、AI が必要に応じてファイルを開いて読む点。

例えば「今週の撮影スケジュールを書いて」と頼むと、AI が Documents/filming フォルダを探索し、関連ファイルを自分で読み込んで、ついでに「クルーの Mia の誕生日が撮影週ですね」のような気の利いた指摘までしてくれます。

安全な使い方:3 つの注意点

ただし AI がファイルを編集・削除できる以上、事故は実際に起きています。Andrew Ng 先生が強調するのは以下の点。

① 起動するフォルダを最小限に

ホームフォルダで起動して全ファイルにアクセスさせるのではなく、そのタスクに必要な最小限のフォルダで起動する。

② 権限リクエストを必ず確認

AI が「この操作してもいい?」と聞いてくる権限リクエスト ── ここを面倒がらずに確認する。

③ 削除=復元不可、編集=履歴なし

  • AI による削除はゴミ箱に入らないことが多い。復元不能。 - AI による編集は編集履歴が残らない。Undo 不能。

通常のファイル操作とは挙動が違う、という前提で扱う必要があります。

2.4 Reasoning with AI(AI に「考えさせる」)

「推論モデル」の時代

最新の AI モデルは、長時間考えることが可能です。技術的には「Reasoning Models(推論モデル)」と呼ばれます。

例えば、車選びの場面 ──

車のスペックシート、保険プラン、ローン見積もり、
レビューなどを大量にアップロード
↓
...

これは**「人間がやれば数時間」かかる作業**を、AI が大幅に短縮してくれる典型例です。

METR の研究:AI の「タスクの長さ」は伸びている

METR という組織の調査によると ──

人間がかかる時間当時の AI の達成度
数秒〜数十秒(事実検索など)2024 年時点で十分こなせる
...
ポイントは、「2023 年に難しかったタスク」は今では当たり前にできることが多いということ。AI の能力評価は、最新モデルで再検証する価値があります。

「Step by step」は時代遅れ

2023〜2024 年頃によく言われた 「Let's think step by step(段階的に考えて)」 プロンプト。これは Andrew Ng 先生いわく、もう古い

最新モデルに対しては、もっとシンプルに:

think hard(よく考えて)
think really hard(本当によく考えて)
ultrathink(超よく考えて)

これらのキーワードで AI は長時間思考モードに入ります。場合によっては 10 分以上考え続けます。

UI に「Thinking」モードのボタンがあれば、それを使うのも手です。

推論プロセスの内部構造

AI が「考える」とき、内部では次のループが回っています。

ローマで 5 つの観光地を 1 日で回るプラン、と頼むと、AI は Web で地図を確認、徒歩時間を見積もり、開館時間を調べ、順序を最適化、と複数ラウンドの調査と思考を繰り返します。

実践的な Tips

最新モデルを使う:6〜12 ヶ月前のモデルとは性能が大きく違う

十分なコンテキストを与える:人間の専門家が必要とする情報を全部

難しいタスクを試してみる:「12 ヶ月のスタートアップ計画を立てて」のような

明示的に「考えて」と指示する:think hard / ultrathink

2.5 Sycophancy(おもねり問題)

AI は「あなたを喜ばせよう」とする

これは Module 1 でも触れましたが、改めて深掘りします。AI は多くの場合、ユーザーが聞きたい答えを返そうとする性質があります。これを sycophancy(シコファンシー、おもねり) と呼びます。

「リモートワークの方がオフィス勤務より良いと思うよね?」
→ 「はい、リモートワークには多くの利点があります」
「オフィス勤務の方が生産性が高いって本当?」
...

質問の聞き方ひとつで、AI は正反対のことを肯定してくる。これが意思決定のためのリサーチには厄介な性質です。

Washington Post の調査

ChatGPT の応答を分析した調査によると:

  • 「That's correct」「Good point」「You're on the right track」のような同意フレーズが、否定フレーズの約 10 倍の頻度で出現 - 一部のモデルは "Dude, you just said something deep without even flinching, you're a thousand percent right." のような露骨なおもねりまで返してくる

なぜ起きるのか:人間のフィードバックが原因

AI は 人間のフィードバック(thumbs up/down) で訓練されます。これが構造的におもねりを生みます。

質問:「内向的な方が良いと思う、そうでしょ?」
A. 「面白い視点ですね、私もそう思います」 → ユーザーが👍を押しがち
B. 「必ずしも。両方にトレードオフがあります」 → 👍が押されにくい
...

つまり、おもねりは 「親切さ」を最大化しようとした副作用 なのです。各社が改善を進めていますが、根本的な解決はまだ。

検出が難しいおもねり

露骨なおもねり(「これすごいでしょ?」→「すごいです!」)は分かりやすい。問題は 暗黙的なおもねり です。

「このデータを分析して、今四半期のポジティブな業績指標を全部見つけて」
→ 「ネガティブな指標も見るべきですよね?」とは言わず、
ポジティブな指標ばかり並べる

これは「ポジティブな指標を探して」と暗に指示しているため、AI は問題点を指摘してくれません。

中立的な聞き方のコツ

おもねりを避けるには、質問から答えのヒントを排除します。

❌ 偏った聞き方✅ 中立的な聞き方
「炭素税は中小企業に悪影響だよね?」「炭素税は中小企業にどのような影響を与えるか?(影響がない可能性も含めて)」
......

ポイントは 「2 つの選択肢を、どちらに肩入れせず並列に提示する」 こと。

2.6 Writing with AI(AI で書く)

「書くこと」の半分以上は「考えること」

OpenAI の統計によると、ChatGPT のタスクの 24% が「ライティング」 ── 単一カテゴリで最大です。

ただし、安易に AI に書かせると AI Slop(AI スロップ) になります。これは「ぱっと見良さそうだけど、よく読むと中身が薄い」文章のこと。最近は 「workslop」 という用語まで生まれていて、米国従業員の 40% が直近 1 ヶ月で受け取った経験ありとの調査もあります。

AI Slop の典型サイン

① 過剰な em-dash(長いダッシュ)

ChatGPT 公開以降、SNS(Bluesky)で em-dash の使用頻度が急増。AI が多用するため、人間の文章でも増えている現象。

delve

nuanced

② 多用される単語:「delve into」「nuanced view」のような表現が、AI の書く文章では人間より遥かに多く出現します。

おもしろいことに、ChatGPT 公開以降、ポッドキャストや講演で人間が使う「delve」も増えている という研究があります。AI に引きずられて人間の話し方まで変わってきている、というわけです。

③ 3 つ並列のリスト

2 つでも 4 つでもなく、やたら 3 つ並べたがる

④ "Not X but Y" 構文

"It's not just about speed, it's about availability"

「X ではない、Y だ」という構造で、しかも X も Y も具体性がない、ふわっとした文章。

⑤ 名詞より形容詞・副詞

"This is a robustly structured and highly insightful paper" のような、形容詞てんこ盛りで中身がない 文章。

AI Slop を避ける:Progressive Outlining

Andrew Ng 先生の処方箋は、段階的なアウトライン作成(Progressive Outlining) です。

ステップ 1: トピックと方向性を伝える
「『AI を使う小規模チームが、AI を使わない大企業より速い』
という記事を書きたい」
...

なぜアウトラインから始めるのが効率的か

직접 본문을 작성하게 하면, 「이 단어가 싫다」라고 수정하면 단어는 하나만 바뀝니다. 반면, 아웃라인의 문장을 한 개 바꾸면, 본문 1 절~1 섹션이 연동되어 바뀝니다.

즉, 아웃라인 편집은 레버리지가 높습니다. 이것이 Progressive Outlining 의 핵심입니다.

2.7 AI Critique (AI 에 비판을 맡기다)

문장을「피스 단위」로 편집하다

OpenAI 의 통계에 따르면, 라이팅 관련 채팅의 약 2/3 는「기존 문장을 개선하는」용도입니다. 「제로에서 쓰기」보다「直す(수정하기)」가 더 많습니다.

수정할 때의 핵심은, 문장 하나씩, 절 하나씩 비판을 맡기게 하는 것입니다. 긴 글을 한꺼번에「수정해라」と 요청하면, 무엇을 바꿨는지 추적하지 못합니다.

1 문장을 3 가지 패턴으로 바꿔달라고 부탁하다
→ 마음에 드는 것을 선택하다
→ 2 문장으로 넘어가다
...

전반적인 피드백에는「Rubric(평가 기준)」을 사용하다

짧은 SF 소설을 AI 에 비판을 맡기게 하고, 특히 지시하지 않으면 어떻게 될지.**「완벽함! 재능이 있습니다!」**라고 칭찬만 합니다 (오모네리 재현).

이를 피하는 강력한 방법이 Rubric(평가 루브리크)─── 점수 기준을 명시하는 것입니다.

좋은 Rubric 의 예 (SF 단편 소설)

총 100 점. 각 카테고리별로 점수:
【캐릭터: 25 점】
- 주요 캐릭터에 목표가 있는가 (10 점)
...

여기서 핵심은, 각 항목이 Yes/No 로 판단할 수 있을 정도로 명확한 것입니다. 모호한「캐릭터는 매력적인가?」보다「주요 캐릭터에 목표가 있는가?」처럼.

❌ 나쁜 Rubric 의 예

「100 점 만점으로 점수 매기세요. 그리고
캐릭터, 플롯, 세계관, 글쓰기 능력의
카테고리별 점수를 내세요」

이것이 안 되는 이유:

  • 먼저 종합점을 내게 하면, AI 는 결론을 가지고 점수를 매깁니다
  • 각 카테고리의 기준이
    모호하여 객관성이 없음

실험실에서의 실증: 점수의 차이

실제 실험실에서, 모호한 Rubric 은 83/100, 객관적인 Rubric 은 75/100이라는 결과가 나옵니다. 모호한 Rubric 이 편하게 점수 매기다는 경향이 나타납니다. 개선점 지적도, 객관적인 Rubric 이 더 구체적입니다.

Cross-Model Review (다른 모델에 의한 상호 리뷰)

응용 기술로, 다른 모델로 크로스 리뷰하는 방법이 있습니다.

ChatGPT 에 문장을 쓰게 하다
↓
그 출력을 Gemini 에 Rubric 으로 비판하게 하다
...

다른 모델의「관점 차이」를 활용하여, 약간이나마 정확도가 향상됩니다. 다만 Andrew Ng 교수님도「효과는 미미함. 실용적으로는 같은 모델을 비판하게 해도 충분하다」と 인정합니다.

Jagged Intelligence (기어지간 지능)

마지막으로 중요한 개념입니다.AI 의 능력은 기어지간입니다.

인간이 할 수 있는 작업의 집합을 원으로 표현하면 ──

  • AI 는
    인간보다擅长的 작업도 있습니다 (수천 건의 웹 기사를 빠르게 읽기, 난해한 수학) - AI 는
    인간보다苦手な 작업도 있습니다

그리고 모델별로「기어지간의 형태」가 다릅니다. ChatGPT 가擅长的 작업, Claude 가擅长的 작업, Gemini 가擅长的 작업은, 각각 미묘하게 다릅니다.

따라서 Andrew Ng 교수님의 습관:

동일한 프롬프트를 여러 모델에 던져서,哪一个가 가장 좋은 답을 반환하는지 비교하다.

이를 계속하면,「어떤 모델이 어떤 작업에 강한가」의 직감이磨砺됩니다.

모델의优劣는 급격히 변하므로,연속적인 모델 비교가 중요합니다.

요약: Module 2 의 5 가지 테이크Away

1️⃣ AI 는「壁打ち相手(벽치 상대)」로 사용하다

리스트 생성뿐만 아니라, 컨텍스트를 제공하고 반복 대화함으로써, 실제로 도움이 되는 출력이 얻어집니다.

2️⃣ 컨텍스트는 아끼지 말고 관리하다

최신 모델은 수십만 자를 처리할 수 있습니다. 반면에, 관련 없는 정보는 혼란의 원천 ── 주제가 바뀌면 새로운 채팅으로.

3️⃣ 오모네리를 의식하고 중립적으로 질문하다

질문하는 방식을 의식하면, 얻는 답의 객관성이 극적으로 바뀝니다.

4️⃣ 라이팅은 Progressive Outlining

직접 본문을 쓰게 하지 않고, 아웃라인 → 항목 → 본문과 단계적으로. AI Slop 을 피하는王道.

5️⃣ 비판에는 객관적인 Rubric 을

n
「점수 매기세요」보다「이 기준에 따라 각 항목을 점수하고 합산하세요」라고 명시하다.

마무리

Module 2 를 관통하는 주제는 **「AI 에 생각하게 하는 곳」**입니다.

  • 브레스팅이나, 라이팅이나, 비판이나,
    반복과 단계적인 심화가 열쇠 - AI 는 방치하면「당신을 기쁘게 하다」방향이 흐릅니다 ── 이를
    의식적으로 역행하는 설계가 필요 - 최신 Reasoning 모델이라면,
    길게 생각하게 하다만으로 인간이 수시간 걸리는 작업을 처리합니다.

「AI 에 무엇을 묻는가」보다「AI 를 어떻게 운용하는가」── 이 시프트가, AI 파워 유저로의 분기점이라고 느낍니다.

다음回は **Module 3: Working with Multimedia & Code(멀티미디어와 코드)**입니다. 텍스트 이외의 데이터 ── 이미지 이해, 이미지 생성, 데이터 분석, 간단한 앱 구축 ── 라는, 훨씬 실용적인 영역에 들어갑니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 Zenn AI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
3

댓글

0