機械学習モデルは「予測はできるが、なぜその結果になったのかがわからない」という課題があります。 この「ブラックボックス問題」を解決するために登場したのが、SHAP と LIME という解釈手法です。 どちらも「特徴量が予測にどの程度影響したか」を ...