A Unified Approach toInterpreting Model Predictions
「A Unified Approach toInterpreting Model Predictions」を読んだ内容をまとめる。
概要
●どういう内容?
「モデルAとモデルBの精度を比較した時、モデルAの方がモデルBよりもAccuracyが高いが、何故なのかわからない」といったことはよくある
→それを解決するのがSHAP。何の特徴量が効果的に働いているから精度が高いということがわかる
●SHAPとは?
- 特徴量ごとの重要度を求める方法
●SHAPはどういう時に利用できそう
- モデルの比較を行いたい時
- モデルを作成したが、複雑なモデルすぎて、どの特徴量が最終的に効果的だったのかがよくわからない時
Intorduction
一般的に、正解率と解釈性はトレードオフの関係性になりがち。 線形モデルはその例の一つであり、精度自体は低くても、解釈のしやすさから選択されることが多い。 この論文で提案している手法を使うと、どのようなモデルの予測についても説明することが可能になる。
また、この論文内では、Additive Feature Attribution Methodsというものを定義していて、最近利用されているような手法を統一して表すことができる。 Additive Feature Attribution Methods自体は、ゲーム理論の考え方を応用したものである。 この論文では、SHAP値という変数重要度の推定値とその推定方法を提案し、これによりモデルがさらに解釈しやすくなることを示す。
Additive Feature Attribution Methods
論文内では、以下のように定義されている。
:説明したい予測モデル
: 説明モデル
説明モデルを使って、もともとの予測モデルを説明したい。局所的に近似したモデルを作成する方法自体は、LIMEですでに提案されている。
なお、gとfの関係性は、以下のように表すことができる
これを踏まえて、上記のような加法メソッドを定義している。 を各特徴量の効果を表す数値として定義し、全特徴量の効果の合計値を、元のモデルの予測値に近似させている。
Additive Feature Attribution Methodsを満たしているモデル
- LIME
- DeepLIFT
- Layer-Wise Relevance Propagation
- Classic Shapley Value Estimation
をあげている
Simple Properties Uniquely Determine Additive Feature Attributions
Additive Feature Attribution Methodsは以下3つの性質を満たしている。 これらの性質はClassic Shaply Value Estimationの性質としては知られているが、他のAdditive Feature Attribution Methodsの性質としては知られていない。
Local Accuracy
入力を近似する際、この性質によって、説明モデルに対してモデルの出力値とが一致することを要求している。
Missing
入力がその特徴の有無を表すならば、元の空間で欠損値はなんのインパクトもない。そのため、以下が成り立つ
Consistensy
関数は一様連続である
SHAP(Shapley Additive exPlanation) Value
この論文では、SHAP値という特徴量の重要度を提案する。
以下の図がとてもわかりやすく、 は全ての入力値 が0の値の時であり、 などの条件式がある場合は、指定された変数の値が1をとることを表している。 この図からもわかるように、各特徴量の0,1をとる場合の条件付き確率の期待値を利用して、 その差分を効果としている
期待値ではなく、真のSHAP値を求めることは難しい。しかし、Additive Feature Attributions methodsから得たインサイトを繋げることで、 近似することができる。
ここでは既存手法であるShapley Sampling Value と Karnel SHAPをmodel-agnostic approximation methodsとして紹介し、 Max SHAPとDeep SHAPをmodel-type-specific approximation methodsの中の2つとして紹介している。