生成AIに地道な作業を頼んだら、途中で省略されたり「サボられた」ように感じたりした経験はありませんか?「リストの100個目を処理して」と頼んだのに50個で要約を始めてしまったり、大事な部分を飛ばしてしまったり。生成AIの「確率的動作」という仕組みが、その「苦手さ」の原因となっているようです。生成AIが地道な作業で”サボる”ように見える理由と、その仕組みを踏まえた使い方について。
なぜ生成AIは地道な作業を”サボる”のか? その仕組みと理由
生成AI、特にChatGPTのような生成AIに「この長いリストを一つずつ処理して」といった地道な作業を依頼した際、途中で要約されたり、一部が省略されたりして「サボられた」と感じることがあります。
しかし、生成AIは、人間のように”面倒くさい”とか”この作業は退屈だ”と意図してサボっているわけではなく、その背景には、生成AIの”確率的な動作”という根本的な仕組みがあるようです。
確率で”次”を予測しているだけ
生成AIは、私たちが投げかけた言葉(プロンプト)に対し、「次に続く単語として、最も”らしい”(確率が高い)単語」を予測し、それを繋げて文章を生成しています。
つまり、そもそも生成AIはその構造上、必ずしも「作業の重要性」や「指示の意図」を人間のように深く理解しているわけではなく、あくまで”統計的に次に来そうな言葉”を選び続けているに過ぎません。
”要約”も確率的な判断
地道な作業の途中で、生成AIが「この流れ(文脈)だと、次は要約する(=作業を飛ばす)方が確率的に”らしい”」と判断してしまうと、作業が省略されてしまうことになります。
これは、生成AIが学習した膨大なテキストデータの中に、「長いリストが続いた後には、その要約が続く」というパターンが数多く含まれているからと考えられています。
生成AIは「作業を完了させよ」という指示よりも、その学習済みパターンに従うことを優先してしまう場合があるため、これが”サボり”に見える現象の正体なのかもしれません。
文脈の喪失とハルシネーション
一度に処理する情報が長すぎると、生成AIは文脈(それまでの指示や流れ)を見失いがちになるようです。
例えば、1000行のデータを処理しているうちに、最初の「全行を処理せよ」という指示の重要度(コンテキスト)が薄れてしまって、結果、作業が途中で止まったり、指示と異なる出力になったりします。
また、生成AIは、”知らない”・”できない”と答えることを避ける傾向があります。
情報が不足したり、文脈を見失ったりすると、確率的に「最もそれらしい(しかし事実ではない)回答」を自信満々に生成してしまうこと(ハルシネーション)もあります。
これも、ある意味では、生成AIが「意図」ではなく、「確率」で動いている証拠ともいえるかもしれません。
生成AIに”サボらせない”ための「指示」について考える
上記の生成AIの「確率的」な特性を理解しておけば、それを踏まえて、こちら側がが指示(プロンプト)を工夫することで、生成AIが”サボる”確率を減らすことができると考えられます。
生成AIに地道な作業を正確に実行させるための、2つの具体的な指示のポイントについて。
タスクを「細分化」し、都度確認するようにする
最も効果的で確実な方法の一つが、作業を細かく分解することであると考えられます。
生成AIが一度に処理する文脈の長さを意図的に短く保ちます。
「AからZまで一気にやって」と丸投げするのではなく、「まずAをやって。終わったら見せて」そして「次にBをやって。終わったら見せて」というように、タスクを細分化し、その都度人間に結果を確認させるプロセスを挟みます。
例えば、長いレポート作成なら、「まずアウトラインを作成して」「次に序論を書いて」「OKなら、第1章を書いて」と進めます。
これにより、生成AIが「文脈」を見失うのを防ぎ、もし間違いや省略が発生しても、その影響を最小限に抑え、すぐに軌道修正することができます。
「明確な制約」で生成AIの行動を縛る
生成AIが確率的に”サボる(要約する)”という選択肢を選ばないよう、プロンプトで「強い制約」を加えることも有効と考えられます。
※生成AIの行動の「確率の幅」を、指示によって狭めてあげるイメージ。
<指示の例>
- 「以下のリストを処理してください。この部分は絶対に省略しないでください。」
- 「次の文章を抜き出してください。一字一句違わずに抜き出すこと。解釈や要約は一切加えないでください。」
- 「指示された通りの形式で出力してください。あなたの意見や追加のコメントは不要です。」
- 「JSON形式のみで回答してください。」
このように「〜しないでください」「必ず〜してください」「〜のみ」といった明確な禁止や命令形の言葉を使うことで、AIが指示通りの地道な作業を実行する確率を意図的に高めることができます。
生成AIは、「作業者」より「監督者」が適任かもと考える
ここまでは生成AIを「作業者」としていかに正しく動かすか、という対策。
しかし、発想を変えて、生成AIを「監督者(監査役)」として使う方法も非常に有効です。
役割の変更:生成AIに「チェック」させる
生成AIは、ゼロから地道な作業を「実行」し続けること(特に長文や大量データ)は苦手なようですが、「すでにある結果」と「明確なルール(指示)」を照合し、間違いや矛盾を見つけることは得意です。
これは、生成AIの基本的な能力である「パターン認識」や「論理整合性のチェック」が活きる領域だからであると考えられます。
例えば、以下のように役割を変更します。
- 作業者(人間 or 他のツール)
リスト作成やデータ抽出などの地道な作業は、人間や自動化ツール(GAS、Pythonなど)が行う。 - 監督者(生成AI)
人間やツールが作成した結果をAIに提示し、「この結果は、私が最初に出した『(元の指示)』通りか?」「このリストに間違いや抜け漏れはないか?」「この文章は、指定したスタイルガイドに従っているか?」をチェックさせる。
生成AIは、作業の「実行」よりも「監査」の方が得意な場合が多く、この方法ならAIのハルシネーションのリスクを抑えつつ、その高い能力を安全に活用できます。
「実行AI」と「監査AI」との分業
AI同士で役割分担させるという方法も有力です。
- 実行AI(セッション1)
地道な作業を実行するよう指示します。
(例:「以下の仕様書に基づき、コードを書いてください」) - 監査AI(セッション2)
実行AIが出した結果をコピーし、別のチャットセッションや、場合によっては別のAIモデルに貼り付ける。 - 監査AIへの指示
「これは『(元の指示)』に基づいて作成された結果です。指示通りに実行されているか、バグや論理的な間違いがないか、客観的に厳しくチェックしてください。」
なぜ別のセッションにするかが重要かというと、それによって「文脈」がリセットされるためです。
同じAI(同じセッション)に「間違いはない?」と聞いても、一度「正しい」と判断した確率的な流れを引きずってしまい、間違いを見逃しがちです。
あえて別のAI(またはセッション)に「初見」で監査させることで、客観的なチェックが可能になります。
生成AIを万能な作業者として丸投げして”使えない”と不満を持つのではなく、その特性を理解し、「作業を細分化」したり、「監督者」として活用したりすることで、生成AIが私たちの強力なパートナーとなってくれそうです。
