Research/Deep Learning & Application
각종 Normalization technique
IMCOMKING
2019. 10. 22. 13:40
• Batch Normalization: 각 feature에 대한 통계를 구한다.(mini-batch내의 모든 데이터와 모든 시공간 dimension을 across out)
• Layer Normalization: 각 instance에 대한 통계를 구한다.(모든 feature와 모든 시공간 dimension을 across out)
특히 각 seq마다 input feature의 스케일이 다를때 유용하다. ex) 시끄러운 wav 파일, 조용한 wav 파일
• Instance Normalization: 각 instance에서, 각 feature의 통계를 구한다.(모든 시공간 dimension을 across out)
이것은 사실 통계라고 말하기 힘듦. 그냥 그 값 1개를 가져오는 것임
• Group Normalization: 각 instance에서, 각 feature 그룹의 통계를 구한다.(모든 feature 그룹과 모든 시공간 dimension을 across out)
https://nealjean.com/ml/neural-network-normalization/