본문 바로가기
나만 보는 정리노트/Deeplearning

분류성능평가지표

by SeoKhan 2022. 11. 17.

Confusion matrix

입력에 대한 실제 정답과 분류 결과에 대한 각 Case를 정리한 matrix

  • True Positive(TP) : 실제 True인 정답을 True라고 예측 (정답)
  • False Positive(FP) : 실제 False인 정답을 True라고 예측 (오답)
  • False Negative(FN) : 실제 True인 정답을 False라고 예측 (오답)
  • True Negative(TN) : 실제 False인 정답을 False라고 예측 (정답)

Confusion matrix


Precision

정밀도, 모델이 True라고 분류한 것 중에서 실제 True인 것의 비율

정밀도 수식


Recall

재현율, 실제 True인 것 중에서 모델이 True라고 예측한 것의 비율

재현율 수식


Precision-Recall Trade-off

정밀도와 재현율은 Trade-off 관계에 있어서 둘 다 높히기는 힘들다.

Type 1, 2 error

Confusion matrix에서 FN을 Type 1 error, FP를 Type 2 error 라고 한다.

 

Type errors


Accuracy

정확도, 가장 직관적으로 모델의 성능을 나타낼 수 있는 평가 지표로써 전체 중 맞게 예측한 경우를 따진다.

정확도 수식

편향

전체 데이터가 불균형하여 한 쪽으로 치우쳐져, 예측하고자 하는 것에 대한 성능이 낮아지는 것


F1 score

Precision(정밀도)과 Recall(재현율)의 조화평균이다.

F1 Score 수식

편향의 해결책

F1 Score는 데이터 label이 불균형 구조일 때, 모델의 성능을 정확하게 평가할 수 있으며, 성능을 숫자로 표현할 수 있다.


Fall-out

FPR(False Positive Rate)으로도 불리며, 실제 False인 data 중에서 모델이 True라고 예측한 비율, 즉 잘못 예측(분류)한 것

 

Fall-out 수식

ROC curve

Receiver Operating Characteristic, 여러 임계값들을 기준으로 Recall-Fallout의 변화를 시각화한 것

ROC Curve

성능 기준

curve가 왼쪽 위 모서리에 가까울수록 모델의 성능이 좋다고 평가한다. 즉, Recall이 크고 Fall-out이 작은 모형이 좋은 모형인 것이며, 또한 y=x 그래프보다 상단에 위치해야 어느정도 성능이 있다고 말할 수 있다.

AUC

Area Under Curve, ROC curve는 그래프여서 명확한 수치로 비교하기가 어렵기에 아래의 면적값을 이용한다.

 

 

 

 

Reference. https://sumniya.tistory.com/m/26

'나만 보는 정리노트 > Deeplearning' 카테고리의 다른 글

ONNX(Open Neural Network Exchange)  (0) 2022.11.30
활성화 함수, Activation Function  (0) 2022.11.24
ANN, DNN, CNN, RNN  (0) 2022.11.17