📊 Model Evaluation in Machine Learning
머신러닝 모델을 만들었을 때, 성능이 잘 나오는지를 확인하는 과정이 필요합니다.
이때 분류(Classification) 모델과 회귀(Regression) 모델의 평가 방식이 다르므로 구분해서 알아두어야 합니다.
🔹 이진 분류 (Binary Classification)와 혼동 행렬 (Confusion Matrix)
Confusion Matrix란?
- 실제 정답(라벨)과 모델 예측값을 비교해서 성능을 평가하는 도구
- 네 가지 값으로 나뉩니다:
| 구분 | 예측 Positive | 예측 Negative |
|---|---|---|
| 실제 Positive | True Positive (TP) | False Negative (FN) |
| 실제 Negative | False Positive (FP) | True Negative (TN) |
👉 목표: TP와 TN을 최대화하고, FP와 FN을 최소화하는 것.

주요 평가 지표 (Classification Metrics)
- Precision (정밀도)
- 공식: TP / (TP + FP)
- “Positive라고 예측한 것 중에서, 실제로 Positive인 비율”
- False Positive(잘못된 양성 예측)이 치명적인 경우 중요
- 예: 스팸 필터에서 정상 메일을 스팸으로 잘못 분류하면 안 됨
- Recall (재현율, 민감도)
- 공식: TP / (TP + FN)
- “실제 Positive 중에서, 제대로 맞춘 비율”
- False Negative(놓친 케이스)가 치명적인 경우 중요
- 예: 암 진단 모델에서 환자를 “정상”으로 잘못 분류하면 안 됨
- F1 Score
- 공식: 2 × (Precision × Recall) / (Precision + Recall)
- Precision과 Recall의 균형을 평가
- 특히 데이터가 불균형(imbalanced dataset)할 때 유용
- Accuracy (정확도)
- 공식: (TP + TN) / 전체 데이터
- 단순히 “얼마나 맞췄는가”
- 데이터가 균형 잡힌 경우에만 의미 있음
- 예: 95%가 Negative인 데이터에서 Accuracy 95% → 쓸모없는 지표
📌 시험 팁:
- Precision → FP가 비쌀 때
- Recall → FN이 비쌀 때
- F1 → 불균형 데이터셋에서 균형 평가
- Accuracy → 데이터가 균형일 때만

🔹 AUC-ROC (Area Under the Curve – Receiver Operating Characteristic)
- 0 ~ 1 사이 값, 1에 가까울수록 완벽한 모델
- 축:
- X축 → False Positive Rate (1 – Specificity)
- Y축 → True Positive Rate (Sensitivity, Recall)
- 여러 Threshold(임계값)를 기준으로 Confusion Matrix를 만들고 곡선을 그림
- AUC = ROC Curve 아래 면적
👉 시험 포인트:
- AUC가 클수록 모델이 좋은 것
- 다양한 임계값을 비교할 때 활용

🔹 회귀 모델 평가 지표 (Regression Metrics)
회귀 모델은 연속적인 값을 예측하기 때문에 평가 방식이 다릅니다.
- MAE (Mean Absolute Error)
- 예측값과 실제값 차이의 절댓값 평균
- 직관적이고 해석하기 쉬움
- 예: MAE = 5 → 평균적으로 5점 차이 발생
- MAPE (Mean Absolute Percentage Error)
- 퍼센트 기준 오차율
- 값의 크기가 다양할 때 상대적 오류를 보려면 사용
- RMSE (Root Mean Squared Error)
- 오차를 제곱 후 평균 내고 제곱근을 취함
- 큰 오차에 더 민감 → 모델 안정성 평가에 유용
- R² (R-Squared, 결정계수)
- 모델이 데이터를 얼마나 설명할 수 있는지를 나타냄
- 값이 1에 가까울수록 좋은 모델
- 예: R² = 0.8 → 모델이 80%를 설명, 나머지 20%는 다른 요인

📌 시험 팁:
- 분류(Classification) → Precision, Recall, F1, Accuracy, AUC-ROC
- 회귀(Regression) → MAE, MAPE, RMSE, R²
✅ 정리 (시험 대비 핵심)
- Classification 평가 지표: Confusion Matrix, Precision, Recall, F1, Accuracy, AUC-ROC
- Regression 평가 지표: MAE, MAPE, RMSE, R²
- Precision ↔ Recall Trade-off 기억하기 (특히 시험에 자주 출제)
Leave a comment