背景:アルゴリズムによる意思決定を一般市民に対して説明する必要性
今日、意思決定のために人工知能(AI)を活用する傾向が世界各国の行政機関において強まっている。遅かれ早かれ、AIは一般市民とって重要な様々な意思決定を、機械学習(ML)アルゴリズムに基づく決定(以下「アルゴリズム的決定」)という形で行うようになるだろう。
問題となるのは、アルゴリズム的決定が誤りや偏りを潜在的には含んでおり、それを通じて影響を受ける人々の権利や福祉が不当に侵害されうることにある。このことは、アルゴリズム的決定の影響を受ける人々が、透明性・アカウンタビリティ・異議申し立ての可能性が担保されるような形で、その決定についての説明を政府に対して求める権利を保障することの重要性を示す。
近年では、特に欧州連合(EU)の一般データ保護規則(GDPR)に見られるように、説明を受ける権利を法的な規制を通じて保障する動きが生じてきた。このような動きは、アルゴリズムがいかなる形で結論を導いたかを理解しやすくするための「説明可能なAI(XAI)」を一層重要なものとしている。
問題設定:説明の種類はアルゴリズム的決定に対する人々の態度に影響を与えるのか
法的な観点から見た場合、アルゴリズム的決定についての説明を提供することは、その影響を受ける人々が決定に対して必要に応じて異議申し立てを行うことを可能にするという点において重要な役割を果たす。また、本論文では、社会的・人間中心的な観点から見た場合にも、行政によるアルゴリズム的決定が公平で、正確であり、かつ信頼できると一般市民が認識することには重要な意義があるということを強調した。アルゴリズム的決定の影響を受ける人々に対して、何らかの形で説明を提供することは、行政の決定に対する肯定的な態度を醸成する可能性を持つのである。
本論文は、AIの提供する説明の種類が、アルゴリズム的決定の影響を受ける人々の認識する決定の公平性・正確性・信頼性にどのように影響するかを分析した。XAIに関する従来の研究に従えば、アルゴリズム的決定に関する説明は、一般市民に対して提示される情報の内容に応じて、下記の4種類に分類できる。
・要因の影響力:特定の要因が結果にどれだけ影響を及ぼすかを説明する。
・集団間比較:AIの学習データにおける結果の分布が集団ごとにどれだけ違うかを示す。
・例示:AIの学習データにおいて対象者の事例に最も類似する事例を提示する。
・反実仮想:望ましい結果を得るためには何が異なっているべきだったかを示す。
本論文では、人間が自らの直面した結果に対して抱く態度に影響を与える要因に関する心理学分野の研究を参考に、アルゴリズム的決定の公平性・正確性・信頼性に対する認識が、AIの提供する説明のタイプに依存する可能性を考察した。AIが提供する説明は、モデルの動作を全体的に解説するようなグローバルな説明から、特定の事例における結果を説明するローカルな説明まで、その種類ごとに射程が異なるからである。それと同時に、分配的正義の観点からの評価を行う際の参照点や、AIが人間による監督と修正を受けている程度についての印象に関しても、説明の種類ごとに異なる印象が生じる可能性があることを考慮した。
研究の事前登録:助成金申請と税務調査に関する決定に関するシナリオを用いた実験
以上のような仮説を検証するべく、本論文では2つのオンラインのサーベイ実験をOpen Science Frameworkで事前登録し、2022年12月に実施した。いずれの実験も、日本の株式会社の役員を被験者として選び、行政機関によるアルゴリズム的決定に関する架空のシナリオを提示した。第一の実験では被験者による助成金申請が却下されたという決定について、第二の実験では被験者の会社が税務調査の対象として選定されたという決定について、それぞれシナリオを作成した。
いずれの実験でも、被験者に対して5つの異なる条件(E1〜E5)をランダムに割り当てている。被験者に対しては、その決定に対する説明が与えられない場合(E1)、そして説明が与えられた場合には、いかなる説明が与えられたか(要因の影響力(E2)、集団間比較(E3)、例示(E4)、反実仮想(E5))についての情報のみを提示した。このうち、E2からE5までの被験者に対して提示されたシナリオでは、それぞれの説明に含まれる情報の種類について記述している。そして、シナリオを提示した後、全ての被験者に対して、その決定が公平であるか、正確であるか、信頼できるかを評価するように求め、被験者の割り当てられた実験群の間での評価の違いを比較した。
分析結果と含意:ただ説明を与えるだけでなく、いかなる説明を提供するかを重視せよ
本論文の分析結果に従えば、説明可能なAIには、アルゴリズム的決定に対する市民の認識を変える働きがある。具体的には、税務調査の公平性に対する認識を除く全ての場合において、何らかの種類の説明が行われることが、説明が行われない場合に比べて、決定に対する被験者の態度に肯定的な影響を及ぼすことが明らかとなった。その一方で、それ以外の細部については、二つの実験の間では結果の頑健性が見られない。その原因はおそらく、対象となる意思決定の性格や、その決定に対する態度を形成するために被験者が求める説明の種類の違いにあると考えられよう。
もちろん、アルゴリズム的決定が実際に公平かつ正確であり、信頼できるということの重要性は言を俟たない。問題は、仮にそうであったとしても、一般市民がそのように認識するとは限らないということである。より強力なエビデンスの基盤を構築するには今後のさらなる検証を待たねばならないが、本論文の知見はアルゴリズム的決定の影響を受ける人々による公平性、正確性、信頼性についての認識を改善する上で、行政が何らかの説明を提供するべきだということを示唆している。それと同時に、本論文の知見は、いかなる種類の説明がより効果的か、そしてその説明の効果が意思決定の領域によってどのように異なるかに留意することを行政機関に促すだろう。
【研究チーム】
青木尚美(公共政策大学院)
巽智彦(法学部・法学政治学研究科)
成瀬剛(法学部・法学政治学研究科)
前田健太郎(公共政策大学院)
【論文情報】
Aoki, N., Tatsumi, T., Naruse, Go., & Maeda, K. (2024). Explainable AI for government: Does the type of explanation matter to the accuracy, fairness, and trustworthiness of an algorithmic decision as perceived by those who are affected? Government Information Quarterly, 41(4), 101965.
https://doi.org/10.1016/j.giq.2024.101965
関連ニュース
青木尚美准教授及び前田健太郎教授らが共著した論文が国際ジャーナル「Government Information Quarterly」に採択され、出版されましたされました