【超保存版】ChatGPTの「知るだけで差がつく神プロンプト」・ベスト1 | AIを使って考えるための全技術 | ダイヤモンド・オンライン

AIが「使えるかどうか」は、人間側の「使い方」で決まります。

そう語るのは、グーグル、マイクロソフト、NTTドコモ、富士通、KDDIなどを含む600社以上、のべ2万人以上に思考・発想の研修をしてきた石井力重氏だ。そのノウハウをAIで誰でも実践できる方法をまとめた書籍『AIを使って考えるための全技術』が発売。全680ページ、2700円のいわゆる“鈍器本”ながら、「AIと、こうやって対話すればいいのか!」「値段の100倍の価値はある!」との声もあり話題になっている。思考・発想のベストセラー『考具』著者の加藤昌治氏も全面監修として協力し、「これを使えば誰でも“考える”ことの天才になれる」と太鼓判を押した同書から、AIの便利な使い方を紹介しよう。(構成/ダイヤモンド社・石井一穂)


【超保存版】ChatGPTの「知るだけで差がつく神プロンプト」・ベスト1Photo: Adobe Stock



AIを使って「リスク」を検証する

 AIを仕事の効率化や自動化だけに使うのは少々もったいない。

 アイデア発想や問題解決といった「頭を使う作業」にもAIは活用できる。


 ただし、適当な聞き方をしても質の良い回答は得られない。

 ロクでもない回答が返ってきてしまうときには、人間側の質問(プロンプト)が適切でないことがほとんどだ。


 たとえば、企画やアイデアの潜在的な問題や障害を洗い出すことにも、AIは活用できる。

 それが、『AIを使って考えるための全技術』で紹介されている技法「リスクの検証」だ。


 そのプロンプトが、これだ。

 ※プロンプト①であがったリスクのなかで、とくに重要だと思うものを選んで②を使ってください


<技法「リスクの検証」のプロンプト①>

〈アイデアを記入〉

提案された新規事業アイデアにはどのようなリスクが存在するか教えてください。

――『AIを使って考えるための全技術』(352ページ)より


<技法「リスクの検証」のプロンプト②>

〈リスクを記入〉というリスクをカバーする方法を考案して、アイデアをバージョンアップしてください。

――『AIを使って考えるための全技術』(352ページ)より



リスクの検証は一筋縄ではいかない

 アイデアを出したものの、「本当にうまくいくのか不安だ」と感じることはないだろうか。


 実現可能性やリスクが見えないままでは、企画は前に進まない。


 こうしたときによく使われるのが、「Plus Potential(褒める)→Concern(批判する)→Overcome(克服する)」の頭文字をとった「PPCO」と呼ばれるアイデアのブラッシュアップ方法。


 しかし、このプロセスは時間も経験も必要で、慣れていないと十分に活用するのは難しい。


 とくにリスクの洗い出しは難しい。経験が浅いほど見落としが増え、議論にも時間がかかる。結果として、アイデアの精度を高める前に議論が止まってしまうこともある。


 そこで使えるのが、AIを使ってリスクを検証する技法「リスクの検証」。

「このアイデアのメリット、懸念点、そして対策を整理してください」と依頼し、PPCOのプロセスを実行してもらうのである。


 この聞き方をすると、AIが潜在的なリスクまで幅広く提示してくれる。

 そこから重要なリスクを選び、対策を深掘りすれば、アイデアを短時間でブラッシュアップできる。時間のかかる検証作業を数分で行い、実現性の高い企画へと進化させられるのである。



「AIを使った社員評価のアイデア」のリスクを検証しよう

 では、この技法を実践してみよう。

 ここでは、以前の記事でも登場した「AIを使った社員評価のアイデア」を例にして考えてみる。


 まず技法「リスクの検証」のプロンプト①を使って、AIにこのように聞いてみた。


<AIへの質問>

〈生成AIが日々の業務記録や成果、行動データを整理・分析し、社員評価の参考情報やコメントのたたき台を自動生成する。上司はそれをもとに最終判断を行うため、評価の負担が軽減され、透明性と公平性が向上。社員の納得感が高まり、人事制度の運用も効率化される〉

提案された新規事業アイデアにはどのようなリスクが存在するか教えてください。


 さて、AIはどのようなアイデアを出してくるのだろう。


<AIの回答>

この新規事業アイデアは有望ですが、実際に導入する際にはいくつかの重要なリスクが存在します。異なる観点から整理すると、以下のようなものが考えられます。

 

①評価の「ブラックボックス化」リスク

生成AIが分析・コメントを作る仕組みは便利な反面、「なぜその評価になったのか」が分かりにくくなる可能性があります。

たとえば

・なぜこの社員の評価が高いのか

・なぜこのコメントが生成されたのか

これが説明できないと、かえって社員の不信感を生む可能性があります。

「透明性向上」を目的に導入したのに、逆にブラックボックス化するリスクがあります。

 

②データの偏りによる不公平リスク

AIは入力されたデータをもとに評価を生成します。そのため、

・記録を残すのが上手な社員が有利

・目に見える成果の職種が有利

・サポート業務が評価されにくい

といった偏りが生まれる可能性があります。

特に

・営業

・企画

・管理部門

など、成果の性質が異なる職種間で不公平が生じやすい点は大きなリスクです。

 

③「AI任せ」の評価になるリスク

上司の負担軽減はメリットですが、その一方で

・上司がAIの評価をそのまま採用する

・部下を直接観察しなくなる

という「評価の形骸化」が起こる可能性があります。

本来、人事評価は

・成長のための対話

・信頼関係の構築

という役割もあります。

AIに依存しすぎると、マネジメント機能が弱まるリスクがあります。

 

④プライバシー・監視強化への抵抗

日々の業務記録や行動データを収集・分析するため、

・監視されていると感じる

・働きにくさを感じる

という心理的抵抗が生まれる可能性があります。

特に

・チャット履歴

・行動ログ

・会議発言

などを分析対象にすると、「評価のための監視」と受け取られるリスクがあります。

 

⑤評価制度との整合性リスク

既存の人事制度とAI評価が一致しない可能性があります。

例えば

・評価項目が曖昧

・評価基準が部署ごとに異なる

といった場合、AIの評価ロジック設計が非常に難しくなります。

制度が整っていない企業ほど、導入が難しい可能性があります。

 

⑥導入コスト・運用コストのリスク

この仕組みを実現するには

・データ収集基盤

・評価ロジック設計

・AIチューニング

・運用ルール策定

などが必要になります。

特に

・評価制度のカスタマイズ

・企業ごとの要件対応

が増えると、開発・運用コストが想定以上に膨らむ可能性があります。

 

⑦法務・労務リスク

社員評価にAIを使う場合、

・評価の説明責任

・不当評価の訴訟リスク

・労働法との整合性

などの問題が発生する可能性があります。

特に評価は

・昇進

・給与

・配置

に影響するため、AI活用には慎重な設計が求められます。

 

まとめ:この事業の最大リスク

このアイデアの最大のリスクは、「公平性を高めるためのAIが、新たな不公平を生む可能性」です。

ただし逆に言えば、このリスクを解決できれば非常に強い競争優位になる可能性もあります。

例えば

・評価理由の可視化

・人間による最終判断の必須化

・評価データの多様化

などを設計できれば、非常に魅力的な事業になります。

このあたりをどう設計するかが、事業成功の鍵になりそうです。


 どの指摘にもうなずける。

 新しい技術を導入するのだから、リスクはあって当然だ。これを「やめる理由」にするのではなく、「改良の余地」ととらえることが重要である。


 とくに、「②データの偏りによる不公平リスク」は、「AIを使って評価を公平にする」という本質的な価値自体を損ねかねない。

 そこで、技法「リスクの検証」のプロンプト②を使って改善策を考えてみよう。


<AIへの質問>

〈②データの偏りによる不公平リスク〉というリスクをカバーする方法を考案して、アイデアをバージョンアップしてください。


 さて、AIは自らが指摘したリスクをどのように乗り越えるのだろう。


<AIの回答>

バージョンアップ案

「多面的評価AI」―データ偏りを補正する社員評価支援システム

生成AIが業務記録や成果データを分析するだけでなく、「データの偏りを検知・補正する機能」を組み込んだ評価支援システムに進化させます。

具体的には、以下の仕組みを導入します。

 

①評価データの種類を意図的に増やす(多面的データ設計)

成果データだけでなく、以下のような複数の評価要素を組み込みます。

・成果(売上・企画採用など)

・行動(改善提案・挑戦など)

・貢献(サポート・チーム支援)

・成長(スキル向上・学習)

・影響(他者への良い影響)

これにより、「目に見える成果だけが評価される」偏りを防ぎます。

特に

・管理部門

・若手社員

・サポート役

なども評価されやすくなります。

 

②「記録格差」を補正する仕組み

記録を残すのが苦手な社員が不利にならないように、

・チャット履歴

・会議議事録

・タスク管理ツール

などから自動で行動を抽出する機能を導入します。

また、AIが定期的に「今週の取り組みを3つ教えてください」と軽い入力を促すことで、記録の偏りを減らします。

これにより「記録がうまい人だけ評価される」問題を解消します。

 

③職種別評価モデルの導入

営業・企画・管理部門など、職種ごとに評価ロジックを分けます。



営業:成果・交渉・顧客対応

企画:発想・改善・提案

管理部門:支援・正確性・調整力

これにより職種間の不公平を減らします。

 

④AIによる「評価偏りアラート」

AIが以下のような偏りを検知します。

・特定タイプの人だけ評価が高い

・成果型人材だけ高評価

・発言が多い人だけ高評価

偏りが発生すると、上司に「評価に偏りの可能性があります」とアラートを出します。

これにより、評価の公平性を維持します。

 

⑤「見えにくい貢献」の可視化機能

AIが以下のような見えにくい貢献を抽出します。

・他部署のサポート

・トラブル対応

・若手フォロー

・チームの雰囲気改善

これにより「縁の下の力持ち」が評価されやすくなります。

 

バージョンアップ後の価値

この仕組みにより、

・評価の公平性が向上

・納得感が高まる

・多様な人材が活躍しやすくなる

・上司の評価負担が軽減される

という効果が期待できます。

つまりこのアイデアは、単なる「評価の自動化」から「公平な評価を実現するAI」へと進化します。

これは多くの企業が抱える「評価が不公平」という根本課題の解決につながるため、事業としての魅力もさらに高まると考えられます。


 なるほど。リスクを指摘するだけで終わらず、事業としての競争力を高める方向にアイデアを進化させている。


 とくに優れているのは、「データの偏り」という抽象的な問題を、具体的な5つの対策に分解している点。

 単に「多面的評価にする」といった一般論ではなく、

 ・記録格差の補正

 ・職種別評価モデル

 ・評価偏りアラート

 ・見えにくい貢献の可視化

 といった、実際のプロダクト機能として想像できるレベルまで落とし込まれている。


 また、「これまで評価されにくかった人材を評価できるようにする」という方向に発想が広がっている点も面白い。単なるリスク対応ではなく、新しい価値提案になっている。


「評価偏りアラート」という発想も非常に興味深い。

 AIによる評価の偏りをAIが監視する二重構造になっており、AI評価への不信感を減らす設計になっている。


 何か新しいアイデアや企画を実行する際、一度立ち止まって技法「リスクの検証」を活用してはいかがだろうか。


(本稿は、書籍『AIを使って考えるための全技術』掲載の技法をもとに作成したオリジナル記事です。他にも書籍では、AIを使って思考の質を高める56の方法を紹介しています)