치즈의 AI 녹이기

Batch normalization vs Layer normalization 본문

인공지능 대학원생의 생활/구글링

Batch normalization vs Layer normalization

개발자 치즈 2021. 6. 24. 16:22

오늘은 Batch normalization(이하 BN), Layer normalization(이하 LN)에 대해 알아봅니다. 

 

BN: batch 내 모든 sample들의 각 feature마다 평균과 분산을 구하여 각 feature 단위로 정규화

LN: batch 내 모든 sample들의 평균과 분산을 구하여 각 sample 단위로 정규화

 

참고 사이트 : https://yonghyuc.wordpress.com/2020/03/04/batch-norm-vs-layer-norm/

 

'인공지능 대학원생의 생활 > 구글링' 카테고리의 다른 글

Triplet Loss  (0) 2021.07.09
Metric Learning  (0) 2021.07.08
Weight decay  (0) 2021.06.24
Hard Negative Mining  (0) 2021.06.22
Teacher Forcing  (0) 2021.06.22