Cross Entropy Error = CEE
우리는 Entropy를 불순도라고 보겠다.
만약에 우리는 빨간색 Data만 가지고 있다면, 불순도 0
만약에 우리는 빨간색 Data에 파란색 o 하나만 있어도 불순도가 올라감.
파란색 Data가 늘어날수록 불순도 혹은 불확실성은 계속 커짐.
파란색 Data가 더 많아지면 불순도가 (이제 분류가 가능해짐) 작아짐!!!!!!
Logistic Regression
<혼돈행렬 Confusion Matrix> 로 Model Validation(신뢰도 검증 필요)
이진 혼돈 행렬 Binary Confusion Matrix
정확도 Accuracy -> Positive와 Negative로 맞게 분류된 데이터의 비율
정밀도 Precision -> Positive로 분류된 결과 중에서 실제 Positive의 비율
Negative를 Positive로 틀리게 분류 시 문제 발생 : 스팸메일 필터링
재현율 Recall -> 실제 Positive 중에서 Positive로 분류된 비율
F1-Score (0~1 사이 값으로 나옴): 정밀도Precision와 재현율(Recall)의 조화평균
Boosting : 틀린 Data에 집중해서 틀린 부분만 계속해서 학습하도록
Adaptive Boosting(AdaBoost) 순차적!으로 학습
나무를 여러 개 만들어서 합쳐버림.
이전 학습 단계의 Model(Weak Clssifier 약한 분류기)을 단점을 보완하여 진행
-> 잘못 분류된 데이터의 가중치(weight - 파라미터가 아니라 나쁜 샘플링이 뽑혀질 확률)를 조정
-> Train Error가 큰 데이터의 선택 확률이 높아지도록 가중치를 조정
주말에 참고하면 좋을 영상
우주 관련 SF 영화
- > 알파고 더 무비 ( OTT Netflix 有)
- > 엑스 마키나
- > 거의 모든 IT의 역사
- > 트랜센던스
- > 패신저스
- > 레플리카
- > 만달로리안
'코딩' 카테고리의 다른 글
파이썬 웹앱 무료 호스팅 서비스 공유 (0) | 2023.01.12 |
---|---|
Model 정보 확인, Decision Tree 그래프 사이즈 조절하는 (법)코드 (0) | 2023.01.12 |
Scaling (0) | 2023.01.05 |
머신 러닝(Machine Learning) (0) | 2023.01.04 |
Model Validation 관련 Insight (0) | 2023.01.03 |
댓글 0