모델 성능 측정에 대한 용어 정리
True Positive :
+ 긍정적 참
+ A를 찾아야 하는데 A가 들어왔을때 A라고 답변함(긍정할 것을 긍정함)
+ 찾아야 할 것을 잘 찾음
True Negative :
+ 부정적 참
+ A를 찾아야 하는데 B가 들어왔을때 B라고 답변함(부정할 것을 부정함)
+ 찾지 말아야 할 것을 찾지 않음
False Positive :
+ 긍정적 거짓
+ A를 찾아야 하는데 A가 들어왔는데 B라고 답변함(긍정할 것을 부정함)
+ 찾아야 할 것을 찾지 않음
Fase Negative :
+ 부정적 거짓
+ A를 찾아야 하는데 B가 들어왔는데 A라고 답변함(부정할 것을 긍정함)
+ 찾지 않아야 할 것을 찾음
Accuracy :
+ True Positive / Total dataset
+ 전체 시도 횟수 중 참의 값 즉 정답률
+ Data들의 결과가 Balence 할 때에 유용함
Recall :
+ True Positive / Total Given Data(True Positive + False Positive)
+ 주어진 전체 값들 중에서 정답률(A부터 D까지 주어졌을 때에 A를 찾을 확률)
Precision :
+ True Positive / Total Dataset(True Positive + False Negative)
+ 특정 값에 대해서 예측한 값들 중에서 정답률(A만 주어졌을 때에 A라고 찾을 확률)
F1 Score :
+ 2 X ((Precision X Recall) / (Precision + Recall))
+ Data가 Balence하지 않을때에 Accuracy보다 더 유용함(Harmonic mean/average)
+ Precision과 Recall의 조화평균
IoU :
+ True Positive / (True Positive+False Positive+False Negative)
+ 찾은것(정답이든 아니든) 중에 실제 정답률
AP :
+ PR곡선(Precision, Recall)을 그렸을떄, 근사되는 넓이
mAP :
+ (class1 AP + class2 AP + ... + classN AP)/N