BatchNormalization

[ 배운 내용 ] 1. BatchNormalization(), Dropout() 2. Computer Vision - Convolutional Neural Network (CNN) 3. CNN 코드 작성 실습 - Conv2d, MaxPool2D 사용 1. BatchNormalization, Droupout BatchNormalization() : 각 계층에 대해 평균과 표준편차를 0과 1이 되도록 만들어줌 (각 층의 활성화값을 정규분포로 적절하게 퍼뜨려준다.) Internal Covariate Shift 현상을 방지한다. 학습을 빠르게 진행할 수 있다. 초기값에 크게 의존하지 않게 된다. 오버피팅을 억제해준다. Internal Covariate Shift : 레이어를 거칠 때마다 분포의 변화가 심화되어서..
kybeen
'BatchNormalization' 태그의 글 목록