새소식

ML | AI/내용 정리 - 2023.04.28

Classification Metrics(분류 모델 지표 ) 알아보기 : TPR, FPR과 ROC Curve 사이 관계 및 AUC

  • -

TPR, FPR → Positive 판단에 따른 성공, 실패 여부


  • True Positive Ratio(=Recall) : $\frac{TP}{TP+FN}$
    • 실제 Positive(양성)을 얼마나 정확히 분류 했는지
  • False Positive Ratio(=Fallout) : $\frac{FP}{TN + FP}$시
    • 실제 Negative(음성) 중 잘못 분류한 비율
  • TPR, FPR 모두 Positive(양성) 판단에 따른 성공, 실패 여부를 다룸
    • 이때 성공-실패 여부는 Positive(양성) 판단의 기준이 될 Threshold를 어떻게 설정 하느냐에 따라 다른 결과가 나오게 됨

Positive 판단이 정확 : FP, TP를 잘 구별하는 것
Threshold 별 TPR-FPR 사이 관계를 나타낸 것 : ROC Curve

 

ROC와 AUC?


  • ROC : Positive 예측 시 Threshold 별 양상을 확인하기 위해, FPR을 x 축으로, TPR을 y 축으로 설정한 Graph
    • ROC Curve가 좌 상단에 붙어있을 수록 좋은 이진 분류
    • TP, FP 분포가 덜 겹침 → 정확한 분류가 이뤄짐

TP-FP 사이 구분이 확실 : 정확한 분류가 이뤄짐

  • AUC : Area Under the ROC Curve
    • 문자 그대로 ROC Graph면적을 나타내는 값으로 0.5 ~ 1 사이의 값을 가진다.


참고

 

ROC curve - 공돌이의 수학정리노트

 

angeloyeo.github.io

 

Contents

포스팅 주소를 복사했습니다

이 글이 도움이 되었다면 공감 부탁드립니다.