machine learning
-
[Machine Learning] 모델 해석 - Feature Importance, Permutation Importance, PDP, SHAPData Science/Machine Learning & Deep Learning 2021. 3. 3. 23:34
모델을 만든 후 해석하는데 있어 모델에서 어떠한 특성이 중요하게 작용하였는지, 모델이 예측을 하는데 특성이 어떻게 영향을 미쳤는지를 알 수 있는 방법에 대해 알아보겠습니다. - Feature Importance, Permutation Importance, PDP, SHAP Feature Importance Feature Importance는 모델에서 특성의 중요도를 알 수 있으며, 각 특성을 모든 트리에 대해 평균 불순도감소를 계산한 값입니다. 속도가 빠르다는 장점이 있지만, high-cardinality(많은 카테고리를 가진) 특성에 대해서는 주의해야 합니다. 많은 노드에 사용되어 중요도가 높게 나타날 수 있기 때문입니다. # 특성 중요도 rf = model_rf.named_steps['randomfo..