AIは正解を与えない

生成AIの性能は急速に向上しています。様々な問いに答えてくれますが、性能がいくら高くなっても、構造的な限界が解消されるわけではありません。

つまり、その性能に関わらず、使い道には向き不向きがあるということです。

特に「どうすれば良いか」といった意思決定として使おうとするのは、AIの使い方としては不向きです。

例:値上げ判断を生成AIに尋ねる

粗利が下がってきたので値上げを検討しているとします。担当者が生成AIに「値上げすべきか」を相談した結果、生成AIは以下のような回答をします。

  • 「原材料高騰なので5〜8%値上げが妥当」
  • 「価格弾力性は低いはず」
  • 「競合も追随する可能性が高い」

これらは生成AIの「与えられた情報に鑑みて、もっともらしい文章を出力する」という仕様に基づいた出力です。

自社を取り巻く環境、顧客別の取引状況、代替品といった、意思決定に必要な前提条件が不明で、本来人間であれば必要な情報をもっと得てから判断しようとする場面です。

しかし、生成AIには情報が十分なのか、不足しているのかは関係ありません。与えられた情報だけで正しそうな一般論に基づいて断定します。

生成AIは意思決定をしている訳ではない

出力する文章に対して、もっともらしい回答をしているだけの生成AIが正しく見えるのは、理由がいくつか考えられます。もっとも大きな影響の一つが、淀みなく、自信ありげに断定された文章が出力されるからではないでしょうか。

「整った文章=妥当性が高い」と短絡が起き、検証プロセスが省略されてしまうという現象が起きていると考えられます。

特に、問題が複雑であるほど高度な思考を要求されますが、生成AIの性能が向上したことで複雑なことも処理できるようになりました。その結果、人間の考えるプロセスが短絡化してしまい、本来検討すべきことを省略してしまうことで、かえって害を及ぼしかねません。

生成AIの位置づけと人間の役割

生成AIは便利かつ優秀なツールであったとしても、ツールである以上、判断の主体ではありません。問いを立てて、条件に基づいて妥当性を判断し、判断の結果を引き受けるのはあくまでも人間の役割です。

  • 思考の明確化(自分の考えの抜けや矛盾、モヤっとしたものを明確にする)
  • 観点の拡張(意思決定において考えられる観点やパターンを洗い出す)
  • 論点の構造化(何が論点で、何が前提で、何が制約かを整理する)

といったことは、生成AIに向いた使い方です。

どうしても主観に偏りがちな思考の是正や、あいまいな点を明確にするサポートという役割においては生成AIは力になります。

しかし、以下は人間が行う必要があります。これらをAIに任せてしまうことは思考の放棄であり、人間としての役割と責任の放棄です。

  • 目的設定
  • 制約条件の整理
  • 妥当性評価
  • 実行判断
  • 結果責任

最後に

生成AIの「もっともらしさ」に従っても、誰も責任を取ってくれません。だからこそ、最終的な判断は人間が行う必要があります。どれだけ生成AIの性能が向上したとしても、生成AIとしての構造的な弱点や欠点は残るので、これは不変の事実です。

あくまでも生成AIとは、思考のサポートツールであるという点に留意する必要があります。

以上、参考になれば幸いです。

経営に関するご相談、お問い合わせなど、お気軽にご連絡ください。

CONTACT