2019.08.26
求められるXAI(説明可能なAI)
ディープラーニングを中心に大量なデータを利用して、AIによって今まで人の判断では不可能であった高度な未来予測が可能になると、到底人間では、その予測結果の根拠を説明することができません。
AIが、活躍すればするほど
AIに対する依存度が高まります。DeepMind社のAlphaGoと囲碁のプロ棋士との戦いは有名ですが、誰一人予想もしない手を
AIが選択したことについて、もはや人間では説明できないとまで言われています。
今、企業では、人の採用や、医療の診断などあらゆる分野に
AIが進出していますが、すでにそのことが、
AIによる判断に人の運命まで影響を与えるほどの重要なポジションを、
AIに依存してしまっているという現状があります。
たとえば、大企業の採用の1次審査で、書類選考を
AIに任せると、年齢や性別など何を優先して選考しているかわからず、優秀な人を足切りしている可能性もあります。医療では、医師と
AIの診断結果が異なる場合に、なぜ違うのかが解明できなくて困ってしまい、有効な治療に進めないというリスクもあります。
ディープラーニングに代表される機械学習では、必ずしも教師データを与える手法ばかりではなく、
AIが自立して学習することさえ可能であるため、どういった特徴のデータがどれくらいの影響を与えているのか分からないという判断基準がブラックボックス化されてしまう問題があります。
そのために、近年世界中でXAI(Explainable AI)という説明可能な
AIの研究がなされ、多くの論文も発表され、いろいろな手法が開発されています。すでに、各企業によって、実用的なソリューションとして展開されてサービス化されている例も多くなってきました。
米国防高等研究計画局(DARPA) のXAI の研究は有名ですが、日本においても、内閣府の「人間中心の
AI社会原則検討会議」において、「公平性、説明責任及び透明性の原則」にて、「
AIを利用しているという事実、
AIに利用されるデータの取得方法や使用方法、
AIの動作結果の適切性を担保する仕組みなど、用途や状況に応じた適切な説明が得られなければならない」としています。これにより、
AIを利用した企業は、その処理の決定過程の説明責任が求められるようになり、今後、業務自動化に
AIを組み込む場合などに考慮が必要になってきます。
そもそも、人間に説明が出来ない
AI の内部処理なので、
AI が何を考え、どうしてそのような結果を出したのかを解析するための別の
AIを設置することが、今後流行っていくのかもしれません。
[タグ]
AI 用語 トレンド
[関連]