Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 프로그래머스
- 개인 PT
- 운동
- 하체운동
- github
- Knowledge Tracing
- PT 운동
- 체스트프레스
- 바프준비
- 바디프로필
- 코테 공부
- 코드
- 영화 비평
- 덤벨운동
- 디버깅
- 개발자
- 라섹 수술 후기
- 건강
- 논문 리뷰
- 연구 시작
- 코테준비
- 티스토리챌린지
- 데드리프트
- 코딩테스트
- 개인 피티
- 다이어트
- pytorch
- 개인 운동
- 오블완
- 암풀다운
Archives
- Today
- Total
치즈의 AI 녹이기
Weight decay 본문
Overfitting의 카운터는 Regularization이다. 저는 이렇게 외우기로 했습니다..
Regularization은 아래와 같은 방법 등이 있습니다.
- Early Stopping
- Dropout
- Weight Decay
오늘은 Weight Decay에 대해 다뤄보도록 합니다.
모델이 complex할수록, 가중치는 비교적 큰 값을 가지게 됩니다.
그래프를 보았을 때, 모델이 overfitting할수록, 크게 진동하는 함수를 보이는 현상과 같습니다.
Weight dacay는 모델이 학습함에 따라 가중치도 따라서 커지지 않도록 하는 방법입니다.
그렇게 하기위해 기존 loss function에 가중치 값을 같이 줄일 수 있도록 항을 추가합니다.
보통 L1 Regularization(LASSO)와 L2 Regularization(Ridge)를 사용합니다.
'인공지능 대학원생의 생활 > 구글링' 카테고리의 다른 글
Metric Learning (0) | 2021.07.08 |
---|---|
Batch normalization vs Layer normalization (0) | 2021.06.24 |
Hard Negative Mining (0) | 2021.06.22 |
Teacher Forcing (0) | 2021.06.22 |
No module named 'apex' (0) | 2021.06.20 |