Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 프로그래머스
- 연구 시작
- 하체운동
- github
- pytorch
- 코테준비
- 덤벨운동
- 바프준비
- 오블완
- 운동
- 개발자
- 개인 운동
- 건강
- 암풀다운
- 티스토리챌린지
- 개인 피티
- 코테 공부
- 논문 리뷰
- 바디프로필
- 디버깅
- 개인 PT
- 코드
- 체스트프레스
- 다이어트
- 코딩테스트
- 데드리프트
- 영화 비평
- PT 운동
- Knowledge Tracing
- 라섹 수술 후기
Archives
- Today
- Total
치즈의 AI 녹이기
Bayesian Optimization 본문
하이퍼파라미터 서치를 위한 Bayesian Optimization 방법에 대해 다룬다.
Bayesian Optimization이란, 미지의 함수가 반환하는 최대/최소 값을 짧은 반복을 통해 찾아내는 최적화 방식이다.
- 데이터 관측치를 관찰하며 사후확률 분포(Posterior probability)업데이트
- surrogate model : 추론한 결과들을 바탕으로 미지의 함수의 값을 추정
- gaussian process: 추정을 위한 방법
- acquisition function: surrogate model의 확률 분포를 이용해서 나온 확률분포를 이용해 지금까지 나온 값들보다 더 큰 값이 나올 가능성이 제일 높은 점을 알려주는 함수 (큰 값일수록 최적에서 멀어짐)
위 그래프에서 회색영역은 미지의 함수가 존재할 신뢰구간이다. 영역이 넓을수록 불확실성이 크다.
검은색 동그라미는 관측된 데이터를 의미한다.
빨간색 선은 미지의 함수를 의미하며, 검은색 실선은 검은색 동그라미를 바탕으로 예측한 추정함수의 expectation을 의미한다.
검은색 실선(예측값)이 빨간색 점선(미지의 함수)와 거의 비슷해지는 것을 목표로 한다.
참고 링크 : https://techblog-history-younghunjo1.tistory.com/141
pytorch 에서 baysian optimization 실행하는 방법 참고 링크 : https://towardsdatascience.com/quick-tutorial-using-bayesian-optimization-to-tune-your-hyperparameters-in-pytorch-e9f74fc133c2
하이퍼파라미터 탐색 도구인 Optuna와 Hyperopt 두 개에 대한 비교 글도 있어서 가져와봤다.
https://neptune.ai/blog/optuna-vs-hyperopt
'인공지능 대학원생의 생활 > 구글링' 카테고리의 다른 글
github push permission denied 해결 (0) | 2022.10.20 |
---|---|
Optuna TPESampler 사용 시 값 중복 샘플링 문제 해결 (0) | 2022.08.06 |
내 환경에 맞는 pytorch 버젼 깔기 (0) | 2022.07.14 |
htop 메모리 노란색 없애기 (0) | 2022.06.12 |
[python pip] checking installed packages (0) | 2022.06.08 |