새소식

ML | AI/내용 정리 - 2023.04.23

Regression Metrics(회귀 모델 평가 지표) 알아보기 : MAE, MSE, RMSE

  • -

MAE, MSE, RMSE = Scale-Dependent Metrics


MAE, MSE, RMSE는 데이터 Scale에 의존하는 Metrics(평가 지표)이다. 그래서 동일 데이터를 다루더라도 Scaling 전-후에 따라 다른 수치를 얻게 된다는 특징이 있다. 따라서 이러한 평가 지표를 통해 모델 간 성능을 비교할 때는 Scale을 주의해야 한다.

 

MAE(Mean Absolute Error)


$$ MAE=\frac{1}{n}\displaystyle\sum_{i=1}^{n} |y_i-\hat{y}_i| $$

  • 모델의 Residual(잔차)에 절댓값을 취한 뒤 평균 처리한다.
  • MAE를 기준으로 최적화 시 Median(중앙값)에 수렴한다는 특징이 있다.
  • 장점
    • 잔차의 Scale을 그대로 다루기 때문에 결과를 직관적으로 이해하기 좋다.
    • Outlier(이상치)에 민감하지 않다.
  • 단점
    • 절댓값을 취하기 때문에 Overestimate, Underestimate를 구분할 수 없다.

 

MSE(Mean Squared Error)


$$ MSE = \frac{1}{n}\sum_{i=1}^{n}(y_i-\hat{y_i})^2 $$

  • 모델의 Residual(잔차)를 제곱하고 평균 처리한다.
  • 제곱하는 과정에서 1 보다 작은 잔차는 더 작게, 1 보다 큰 잔차는 더 크게 처리한다.
  • 장점
    • 미분 가능하고 Convex한 특성이 있어 Optimization(최적화)에 많이 활용된다.
  • 단점
    • Outlier(이상치)에 민감하다.
    • 잔차를 제곱하기 때문에 결과를 직관적으로 해석하기 어렵다.
    • Overestimate, Underestimate 또한 구분할 수 없다.

 

RMSE(Root Mean Squared Error)


$$ RMSE = \sqrt{\frac{1}{n}\sum_{i=1}^{n}(y_i-\hat{y_i})^2} $$

  • MSE에 루트를 씌워 Residual(잔차)의 Scale을 다시 되돌린 방식이다.
  • 장점
    • 잔차와 Scale이 동일하기 때문에 MSE 보다 해석에 도움이 된다.
    • 루트를 취하기 때문에 MSE 보다 Ourlier(이상치)에 덜 민감하다.
  • 단점
    • MSE와 동일하게 Overestimate와 Underestimate를 구분할 수 없다.

참고

 

A Comprehensive Overview of Regression Evaluation Metrics | NVIDIA Technical Blog

As a data scientist, evaluating machine learning model performance is a crucial aspect of your work. To do so effectively, you have a wide range of statistical metrics at your disposal…

developer.nvidia.com

 

Contents

포스팅 주소를 복사했습니다

이 글이 도움이 되었다면 공감 부탁드립니다.