生成AIは「24時間働く優秀な新入社員」といわれるものの、実際に使ってみると、指示通りに動かなかったりします。 LLM(大規模言語モデル)には、人間とは異なる「記憶喪失」や「嘘をつく」といった明確な弱点が存在します。この少しクセのある”生成AI”をプロンプトでマネジメントするには。
松本勇気著「生成AI「戦力化」の教科書」(株式会社日経BP)を参考にして。
なぜAIは、”会社特有の仕事”ができないのか?
生成AI(LLM)は、「物知りで、タフで、賢い新入社員」といえます。
インターネット上の膨大な知識を持ち、疲れを知らず、高度な推論もこなす彼らではありますが、配属初日から完璧に活躍できるわけではありません。
その最大の理由は、「あなたの会社の事情(知識と方法)」を知らないためです。
- 知識の欠如
過去の顧客とのやり取りや、社外秘の研究データなど、社内の独自情報は学習していない。 - 方法の欠如
この会社ならではの稟議の書き方や、暗黙の了解となっている業務プロセス(方法論)を持っていない。
人間の中途採用者でも、社内ルールや過去の経緯を教わらなければ成果を出せないのと同様に、LLMも「明文化された指示(プロンプト)」として知識と方法を与えられない限り、ただの”一般論しか言えない新人”に留まってしまいます。
知っておくべきLLMの「5つの限界」
生成AIをマネジメントするには、まず彼らの「弱点」を正しく理解する必要があります。
特に注意すべき5つの限界について。
- 扱えるテキストの長さに限界がある
一度に読み込める情報量(コンテキスト)には上限があります。大量の資料を一度に渡しても、「干し草の山から針を探す」ように、重要な情報を見落とすことがあります。 - 気まぐれで、毎回答えが違う
AIは計算機ですが、その出力は確率で決まります。同じ指示でも毎回違う答えが返ってくるため、プロンプトの表現を少し変えるだけで結果が激変することがあります。 - 平気で嘘をつく(ハルシネーション)
とりあえず回答を作ることを優先するため、事実ではないことをさも真実のように語ることがあります。特に社内ルールなど、正解がある問いに対して適当な答えを捏造することがあるため注意が必要です。 - 最新の情報を知らない
学習データには「カットオフ日」があり、それ以降の最新ニュースや直近の出来事については知識を持っていません。 - 記憶を持たない(忘れる)
LLM自体には、過去の会話を記憶する能力が限定的です。
生成AIを戦力化する「マネジメント(プロンプト)」の極意
これらの限界を踏まえた上で、LLMという新入社員を使いこなし、成果を出すためにはどうすればよいのか。
その鍵は、「丁寧な指示出し(プロンプトエンジニアリング)」と「役割の限定」にあります。
”新人に教えるつもり”で詳細に具体的に指示する
”いい感じにやっておいて”という曖昧な指示はAIには通じません。
”昨日と同じように”も、記憶がない彼らには通用しません。
LLMへの指示は、以下の要素をすべてセットにして渡す必要があります。
- 背景
- 目的
- 具体的な手順
- 参考情報のテキスト
もしうまく回答できない場合は、指示が不十分である可能性が高いため、より詳細に書き直すことが重要です。
下書き担当として割り切る
AIは完璧ではないため、あくまで”優秀な下書き係”として位置づけるのがよいと考えられます。
- メールのドラフト作成
- 会議議事録の素案作成
- 文書の要約
これらを任せ、最終的なチェックと仕上げ(レビュー)は人間が行うというフローにすれば、AIの嘘やミスをカバーしつつ、業務効率を格段に上げることができます。
マネジメント力がAI活用の鍵
生成AIは魔法の杖ではなく、”マネジメントが必要な部下”といえます。
彼らの「記憶喪失」や「嘘」といったクセを理解し、適切な指示(プロンプト)を与えるスキルさえ身につければ、生成AIは、リサーチや単純作業を肩代わりしてくれる心強いパートナーとなります。
手元の業務の「下書き」を彼らに任せることから始めてみるとよいと考えられます。
