AIの進化に伴い、人間の意思決定プロセスにおけるAIの役割が急速に拡大しています。自動運転車の登場もその一つですし、医師の診察における支援ツールの開発も、人間の役割である意思決定プロセスを一部代替していると言えます。
つまりAIは膨大なデータを高速で分析し、人間が見落としがちなパターンや相関関係を見出すことができるという特性を生かし、ビジネス・医療・金融など様々な分野で、より情報に基づいた意思決定が可能になっているということです。
さらに具体的に言うと、
- 医療分野では、AIが画像診断を支援し、早期のがん検出率を向上させる
- 金融セクターでは、AIがリスク評価や投資戦略の策定を支援する
- マーケティングでは、顧客行動の予測や最適な広告戦略の立案にAIを活用する
といったような感じです。
AIが人間の意思決定プロセスに介入してくることで得られるメリットは様々あります。
例えば、AIがデータ分析や予測を行い、人間がそれらの情報を解釈し、倫理的・社会的な文脈を考慮して最終判断を下すという、AIと人間の強みを組み合わせる方法は主流になりつつあり、最も効果的な意思決定を行えます。つまり、AIによる客観的なデータと分析、そして人間の直感や経験・倫理的判断といった双方の強みを生かすことで、よりバランスの取れた決定が可能になるということです。
また、一部の領域ではAIによる意思決定の完全自動化も行われています。例えば、高頻度取引や工場の生産ライン管理などでは、人間の介入なしにAIが判断を下しています。これにより、反応速度の向上や人的エラーの減少が実現されています。
そのほかにも、人間の判断に付きまとう認知バイアスの影響をAIが特定することにより、より客観的な視点を提供することで、採用プロセスにおける不公平性の軽減、法的判断における一貫性の確保、科学研究におけるバイアスの防止といったメリットを見込むことができます。
さらには、人間の創造的な思考にも応用することが可能です。例えば、デザインや音楽生成といった分野では、AIによるアイデアの生成が人間のクリエイティビティを拡張させるともいえます。
このように生成AIが将来的に果たすであろう人間の意思決定プロセスへの介入というのは、様々な分野で大きな力を発揮すると考えられますが、その一方で解決しなければならない課題は数多くあります。
代表的な例でいうと、「説明可能なAI(Explainable AI:XAI)」によりAIがなぜその判断を下すことになったのか、ということを可視化させなければならないということです。
AIは「ブラックボックス」として機能し、どのようにして特定の結論に至ったのかが不明確なことが多く、これが透明性や信頼性に不安を与える要素となっています。つまり、AIの学習データそれ自体に差別や偏見といったバイアスが含まれ得るため、AIがいくら客観的な判断を提供すると言われたところで、そもそもの学習データに”難がある”ということは排除できないからです。
そこで「説明可能なAI(Explainable AI:XAI)」の開発が進められています。
そもそもAIにおける「説明可能」とはどういったことを指すのでしょうか。
簡単に言うと、AIシステムが下した判断や意思決定のプロセスを人間が理解できるように説明する技術を指します。
まずは、意思決定のプロセスを明示することです。これには、アルゴリズムの動作原理、使用されたデータ、特徴量の重要度などが含まれます。例えば、画像認識AIがある物体を「犬」と判断した場合、その判断に寄与した画像のどの部分が重要だったのかを明示することで、ユーザーに具体的な説明を果たすことができます。
次に因果関係の説明です。例えば、医療診断AIが「この患者は高リスクである」と判断した場合、その判断がどの要因(年齢、既往歴、検査結果など)によって導かれたのかを具体的に示す必要があります。これにより、医師や患者はAIの判断の妥当性を確認し、適切な治療方針を選択する際の参考にするための信頼性を担保することが可能です。
そしてモデルの特徴量の寄与度を可視化することです。説明可能なAIでは、各入力データ(特徴量)がどのように最終的な判断に寄与しているのかを可視化する技術が利用されます。例えば、金融分野でローンの審査を行うAIが「貸し付けを拒否する」という結論を出した場合、収入、借金の額、過去の信用履歴などがどの程度その判断に影響を与えたのかを示すことが可能です。
「もしもシナリオ」の提示をすることも、説明可能性の一つとなります。「もし、こうだったら」というシナリオを提示することで、ユーザーに理解を促します。たとえば、AIが特定の行動を推奨する際、「このパラメータが異なっていた場合、結果はどう変わるか」といったシミュレーションを行い、判断がどの程度柔軟であるか、または変更に対して頑健であるかを示すことができるのです。
専門的なところで言うと、深層学習などのブラックボックスモデルの説明性を向上させるために、簡易な代替モデルを使って判断の根拠を説明する手法もあります。よりシンプルな決定木や線形回帰モデルを使って、元のモデルの挙動を直感的に理解できるようにするというものです。
そもそもAIは、ニューラルネットワークといった複雑なモデルを使っているという面で高精度ではあるのですが、その一方で内部プロセスが非常に複雑なため、なぜその判断を下したのかということを説明することは困難な作業です。そのため、様々な技術的な課題があるのですが、「説明可能なAI(Explainable AI:XAI)」が一般的に利用される状況になれば、社会におけるAIの役割は一層増大するといえます。
司法判断もその一つです。日本における警察や検察、裁判所の司法判断は、時に法の一貫性よりも個々の事案に基づいた恣意的な判断がなされることがあります。「人質司法」としての長期勾留や、強大な検察権力によって引き起こされる裁判官へのプレッシャーなども、AIが役割を果たすことにより、より公平性が担保された司法判断を行えます。
エストニアでは、少額訴訟を処理する「ロボット裁判官」プロジェクトというAIが裁判を効率化する一方で、人間の裁判官にレビューを求める仕組みも2019年には進行中でしたが、「説明可能なAI(Explainable AI:XAI)」ではなかったために現在では頓挫しているということです。
中国では裁判に関連する証拠の表示や発言の文字変換、陳述の一貫性チェックなど、AIが裁判の一部を支援する技術が導入されており、裁判の効率化が図られています。
複雑な法的問題や倫理的な判断が求められる場面では、人間の感情や価値観に基づく判断が必要ではあるものの、「説明可能なAI(Explainable AI:XAI)」によって、AIは人間の判断能力を補完することが可能なのです。
これまでに触れた医療や金融分野もそうですし、会社の経営判断や自動運転、顧客対応や教育システムまで、多くの分野でAIが活躍する大きなきっかけとなるでしょう。
したがって、今の時代を生成AI黎明期と捉えれば、これから社会でAIが役割を増大していく中で、今のうちに賢くAIとの付き合い方を学んでおくことが一層重要性を増してくるのです。