AIの活用が広がるなかで、「AIを使えば仕事が早くなる」「評価も上がるはず」と考える人も増えています。実際、AIを使えば短時間で整った資料や提案を作ることができ、効率は確実に向上します。しかしその一方で、AIを使っているにもかかわらず、上司からの評価を下げてしまうケースも少なくありません。
では、AIを使うほど評価が下がる人と、逆に評価が上がる人の違いはどこにあるのでしょうか。そこで本記事では、グーグル、マイクロソフト、NTTドコモ、富士通、KDDIなどを含む600社以上、のべ2万人以上に思考・発想の研修を行い、そのノウハウをAIで誰でも実践できる方法を書籍『AIを使って考えるための全技術』としてまとめた石井力重さんに、AI時代に見落としがちな「危険な使い方」について聞きました。(構成/ダイヤモンド社・石井一穂)
Photo: Adobe Stock
AIを使うほど「評価を下げる」危険な使い方
――「こんな使い方は上司に嫌われる」というものはありますか。
上司が嫌うのは、AIによって仕事が“ブラックボックス化”することです。
たとえば、どんな前提で結論を出したのか説明できないケースです。
上司からの指示が十分ではない場合、通常、部下は不足している要素を自分なりに補い、前提を組み立てて仕事を進めます。
しかし、上司の指示をそのままAIに入力すると、たとえ不十分な部分があっても、AIが勝手に補って回答します。
つまりAIが内部的に補った「前提」にこちらが気づかないまま結論だけを使ってしまうことがあります。
その結果、「この前提は何?」と聞かれても説明できない。これは“やってはいけない時短”です。
AIを使う際は、前提の整理が重要になるのです。
「AIが言ったから大丈夫」は最も危険
もうひとつ、評価を下げる原因になるのが、検証をしないことです。
AIの判断能力の方が人より上だと思い込み、出力をそのまま使ってしまう人もいます。「大丈夫?」と聞かれても、「AIが出したので問題ないと思います」と答えてしまう。
しかし、後になって問題が起きた場合、その責任はAIではなく本人に返ってきます。
また、出典や根拠が曖昧なまま使うのも危険です。
AIはもっともらしい文献名や著者名を提示することがありますが、実際には存在しないこともあります。
ジョークや誤情報を引用しているケースもあるため、重要な情報ほど一次情報に当たる姿勢が必要です。
一瞬で信頼を失う「最悪の言葉」
さらに注意すべきなのが、責任の所在です。
最悪なのが、「AIがこう言っていました」という言葉。
これを言うと、信頼は一瞬で失われます。
AIはあくまでツールであり、文責は利用者本人にあります。この覚悟がないままAIを使うと、評価を下げる原因になります。
逆に評価されるのは、「こういう前提でAIに出させました。自分はここを採用し、ここは修正しました」と説明できる人です。
AIを“免罪符”にするのではなく、あくまで“仮説生成装置”として使い、最後の判断を自分が引き受ける。この姿勢が見えれば、むしろAIを使うほど評価は上がります。
AI時代に評価されるのは、AIになんでも任せる人ではありません。
AIを手段として使いこなし、最後は自分で判断して、責任を引き受けられる人です。
(本稿は、書籍『AIを使って考えるための全技術』著者、石井力重さんの書き下ろし記事です。書籍ではAIを使って思考の質を高める56の方法を紹介しています)
本書が提案したいのは「AIを使って考える」ことであり、「AIに考えてもらう」ことではありません。
――『AIを使って考えるための全技術』P17より引用
