説明可能なAI
はじめに
説明可能なAIは、XAI(Explainable AI)ともいわれる。
AIは出力結果の根拠がわからない(プロセスがブラックボックス)のため、活用場面が限定されていた。
最近では、その根拠を説明できる、「説明可能なAI」が出てきており、活用の幅が広がってきている。
ここでは、4種類の説明可能AIについて簡単に整理しておきたいと思う。
①大域的な説明
- 複雑なモデルを単純なモデルに近似する。
- あるいは、可読性の高い解釈可能なモデルで表現する方法。
- 全体を説明することになるため、個々の説明には適さない。
手法・ツール例
LIME
- 特徴量について、値を変化させたときに出力結果がより大きく変わるものが重要であると考える。
- 説明対象モデルの周りで線形モデルを作る。
- 画像認識AIに使われる。
SHAP
- アプローチはLIMEと同じ。
- 表データを処理するAIに使われる。
Anchors
- 説明対象モデルの周りで領域モデルを作る。
Grad-CAM
- CNN(畳み込みニューラルネットワーク )の判断根拠の可視化技術。
②局所的な説明
- 特定の入力に対する予測の根拠を提示する方法。
- 個々の説明になるため、全体の説明は難しい。
手法・ツール例
- Born Again Trees
- defragTrees
- Feature Importance
③説明可能なモデルの設計
- そもそも、最初から可読性の高いモデルで表現する方法。
- 比較的な単純なモデルを適用するため、推論の精度が損なわれることがある。
手法・ツール例
- 決定木
- ロジスティック回帰
- スパースモデリング
④深層学習モデルの説明
- 深層学習モデル、画像認識モデルの説明方法。
- アプローチは「②局所的な説明」に該当。
手法・ツール例
- 勾配ベースのハイライト法
- Interpretability Beyond Feature Attribution
- This Looks Like That
- Generating Visual Explanations