본문 바로가기
코딩

Logistic Regression (CEE 관련 Insight)

by Doldam Alice 2023. 1. 6.
300x250

 

Cross Entropy Error  = CEE

 

우리는 Entropy를 불순도라고 보겠다.
만약에 우리는 빨간색 Data만 가지고 있다면, 불순도 0 
만약에 우리는 빨간색 Data에 파란색 o 하나만 있어도 불순도가 올라감. 

파란색 Data가 늘어날수록 불순도 혹은 불확실성은 계속 커짐.
파란색 Data가 더 많아지면 불순도가 (이제 분류가 가능해짐) 작아짐!!!!!!

 

 

Logistic Regression

<혼돈행렬 Confusion Matrix> 로 Model Validation(신뢰도 검증 필요)

이진 혼돈 행렬 Binary Confusion Matrix

 

정확도 Accuracy -> Positive와 Negative로 맞게 분류된 데이터의 비율

정밀도 Precision -> Positive로 분류된 결과 중에서 실제 Positive의 비율

Negative를 Positive로 틀리게 분류 시 문제 발생 : 스팸메일 필터링

재현율 Recall -> 실제 Positive 중에서 Positive로 분류된 비율

F1-Score (0~1 사이 값으로 나옴): 정밀도Precision와 재현율(Recall)의 조화평균

 

 

 

Boosting : 틀린 Data에 집중해서 틀린 부분만 계속해서 학습하도록

Adaptive Boosting(AdaBoost) 순차적!으로 학습
나무를 여러 개 만들어서 합쳐버림.
이전 학습 단계의 Model(Weak Clssifier 약한 분류기)을 단점을 보완하여 진행
-> 잘못 분류된 데이터의 가중치(weight - 파라미터가 아니라 나쁜 샘플링이 뽑혀질 확률)를 조정
-> Train Error가 큰 데이터의 선택 확률이 높아지도록 가중치를 조정

 

 

 

주말에 참고하면 좋을 영상

우주 관련 SF 영화

 

 - > 알파고 더 무비 ( OTT Netflix 有)

 - > 엑스 마키나

 - > 거의 모든 IT의 역사

 - > 트랜센던스

 - > 패신저스

 - > 레플리카

 - > 만달로리안

300x250

댓글 0