-
事後的な説明性は必ず近似を含むので, モデルの説明にはならない
- なので近似を含ませずに直接解釈可能なモデルを作らねばならない
-
ステークホルダーは解釈可能性よりも, とりあえず「説明」がほしいということがよくある
- なので, 決定木ベースであったり, スコアリングベースの手法がビジネスで使われてしまう
-
またステークホルダーは説明性を出力してくれるということでブラックボックスを許容してしまう
- ホントはダメなのに…
- COMPASとかCORELS(Certifiably Optimal Rule Lists)
-
This Looks Like That: Deep Learning for Interpretable Image Recognition を紹介
JavaScriptを有効にしてください
【論文メモ】Stop Explaining Black Box Machine Learning Models for High Stakes Decisions and Use Interpretable Models Instead
· ☕ 1 min read
