第209話|最近注目を浴びてきた説明可能AI(XAI、Explainable Artificial Intelligence)、ブラックボックスのホワイトボックス化

第209話|最近注目を浴びてきた説明可能AI(XAI、Explainable Artificial Intelligence)、ブラックボックスのホワイトボックス化

機械学習で構築した数理モデルが、ブラックボックス化するケースは少なくありません。

そのような中、最近よく聞くキーワードに「XAI」というものがあります。

XAIとは「Explainable Artificial Intelligence」の略で、日本語では説明可能AIと表現されることが多いです。

ちなみに、「説明可能AI」とは「AIが何かを説明してくれる」というわけではありません。

説明可能AI」とは、予測に至るプロセスが説明可能になっている「機械学習で構築した数理モデル」のことです。

そもそもAIとは何か? といい議論がありますが…… XAIのAIとは、数理モデルのことを言っています。

今回は、「最近注目を浴びてきた説明可能AI(XAI、Explainable Artificial Intelligence)、ブラックボックスのホワイトボックス化」というお話しをします。

DARPA XAI プロジェクト

ある米国の組織が「説明可能AI」(XAI)というワードを使い始めました。

国防高等研究計画局DARPA(Defense Advanced Research Projects Agency)です。

参考文献:

Explainable Artificial Intelligence (XAI) ※DARPA
https://www.darpa.mil/program/explainable-artificial-intelligence

機械学習の説明可能性への取り組み ※科学技術振興機構
https://www.jst.go.jp/crds/sympo/201906_JSAI/pdf/02.pdf

機械学習で構築する数理モデルは、精度を求めるとブラックボックスになりやすくなります。

ブラックボックスになるということは、解釈し難くなり説明し難くなるということです。

しかし、使う側にとってはそれでは困ります。得体の知れないものを使うには、勇気がいります。

説明可能AI」(XAI)の本質は、納得感の提供と、人と機械のコラボレーションなのでしょう。

ブラックボックスのホワイトボックス化

繰り返しになりますが、数理モデルは予測精度を追及するとブラックボックスになり解釈性が低くなる傾向あります。

使う側にとって、意味不明なものを使うは気持ちの悪いものです。

そのような中、社会的な要請として「説明責任」がAIサービス提供側に求められてきています。

そもそも、数理モデルを構築するデータ分析者やデータサイエンティスト、機械学習エンジニアにとって、数理モデルを改良するときに解釈しやすいほうが何かと便利です。

「説明可能AI」(XAI)の3つのアプローチ

説明可能AI」(XAI)には、現在3つのアプローチがあります。※各アプローチ名の日本語訳は知りません……

  • Deep Explanation
  • Interpretable Models
  • Model Induction

Deep Explanation

どちらかと言うと、ニューラルネットワーク型のディープラーニングで構築した数理モデルに対し行われるケースが多いです。

例えば、特徴マップというものを作った後に、アテンションヒートマップというヒートマップグラフを作成し、視覚的に理解を助けるものです。

手法としては、勾配ベースのハイライト法が有名で、色々なアルゴリズムが発案されています。

ちなみに、このヒートマップを専門外の人が眺めても、訳は分かりません。

専門家向けのものです。専門家とは、その分野(機械学習というよりその活用領域)の専門家です。ヒートマップを見て、ピンとくる程度の専門家です。

Interpretable Models

ブラックボックス化しやすい数理モデルではなく、ホワイトボックス型の数理モデルで頑張る! というものです。

ホワイトボックス型の数理モデルとは、例えば……

  • 線形回帰系の数理モデル(単回帰、重回帰、ロジスティック回帰など)
  • 決定木
  • ランダムフォレスト

……などです。

例えば、ブラックボックス型の数理モデルの精度と比べ、それほど悪くないホワイトボックス型の数理モデルを構築できるのならば、そのほうがいいよね! という感じです。

手法としては、複雑な数理モデルを決定木で近似するBATreesが比較的有名です。

ランダムフォレストで近似するdefragTreesというのもあります。

Model Induction

主に、説明モデル(explanatory model)の数理モデルを使って説明する方法です。

説明モデル(explanatory model)という概念自体は、昔からあり医学系でよく目にします。

説明可能AI」(XAI)では、「Additive Feature Attribution Methods」と呼ばれる数理モデル化した説明モデル(explanatory model)を使うケースが多いです。

例えば、心理学や経済学で登場するゲーム理論のシャープレー値(Shapley values)を応用したものなどが有名です。ある数理モデルが出した予測結果を解釈するときにSHAP( SHapley Additive exPlanations)を使ったりします。

SHAPは、ある特徴量(説明変数X)がどれだけ予測に貢献したかを示す値です。

以下、SHAPを含めた手法一覧です。

  • 予測の根拠となった特徴量を提示
    • LIME
    • SHAP
    • Anchor
  • 予測の根拠となった学習データを提示
    • Influence

入門的なテキスト

説明可能AI」(XAI)は最新の研究成果が、ぞくぞくと登場してきています。

そこまでという方は、フリーのデータ分析ツールであるRのライブラー「iml」の著者によるものが非常に分かりやすいです。

教科書的な参考文献(Rのimlの著者による)

Interpretable Machine Learning
A Guide for Making Black Box Models Explainable
https://christophm.github.io/interpretable-ml-book/index.html

ちなみに、フリーで使えるRやPythonに、XAI関連のライブラリーがいくつかありまので、お手すきの方は遊んでみてください。

今回のまとめ

今回は、「最近注目を浴びてきた説明可能AI(XAI、Explainable Artificial Intelligence)、ブラックボックスのホワイトボックス化」というお話しをしました。

機械学習で構築した数理モデルが、ブラックボックス化するケースは少なくありません。

そのような中、最近よく聞くキーワードに「説明可能AI」(XAI)というものがあります。

数理モデルは、予測精度を追及するとブラックボックスになり解釈性が低くなる傾向あります。

ブラックボックスになるということは、解釈し難く説明し難くなるということです。しかし、使う側にとってはそれでは困ります。納得感が欲しいところです。

そこで登場していたのが「説明可能AI」(XAI)です。

一言で言うと「ブラックボックスのホワイトボックス化」です。

説明可能AI」(XAI)には、現在3つのアプローチがあります。

  • Deep Explanation
  • Interpretable Models
  • Model Induction

Deep Explanationは、主にディープラーニング向けのものです。

Interpretable Modelsは、解釈性の高いホワイトボックス型の数理モデルを使い構築し直すことです。

Model Inductionな、説明モデル(explanatory model)を使い解釈します。

私の印象では、一番使いやすいのは、Model Inductionでしょう。Interpretable Modelsは、実は意外と難しいです。Deep Explanationは、専門的な知見が要求されるためハードルが高いです。