Kim Seon Deok
6. Batch Normalization 본문
Batch Normalization
기존 문제점 : 학습이 진행됨에 따라 나오는 feature map 수치 값의 범위가 크게 벌어지면 학습의 불안저성이 발생
해결법 : Batch normalization적용
각 layer의 결과값인 feature map을 평균이 0, 표준편차가 1인 분포가 되도록 normalization시키기
Batch Normalization in CNN
CNN 과정은 Feature map 상에서 각 Channel 별로 각각의 Normalization 진행
Batch Normalization and Learnable parameters
모든 층(layer)의 결과 값이 비슷한 값의 범주를 갖는 현상이 좋은 것은 아니다.
특정 층은 좀 커야 하며 특정 층은 좀 작아야 좋다.
이를 네트워크 스스로 학습하도록 해야 한다.
'AI > Deep Learning' 카테고리의 다른 글
밑바닥부터 시작하는 딥러닝1 - 2장 : 퍼셉트론 (0) | 2022.03.08 |
---|---|
7. Numpy & NLTK (0) | 2022.01.21 |
5. CNN을 활용한 대표적 모델 (0) | 2022.01.21 |
4. CNN 기초 (0) | 2022.01.21 |
3. 딥러닝 학습 방법론 (0) | 2022.01.21 |
Comments