Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 오블완
- 연구 시작
- 영화 비평
- 하체운동
- pip install
- 운동
- 코테준비
- 건강
- 개인 PT
- 개발자
- 논문 리뷰
- PT 운동
- 바프준비
- 티스토리챌린지
- 프로그래머스
- 덤벨운동
- 다이어트
- pytorch
- 디버깅
- 개인 피티
- Knowledge Tracing
- github
- 데드리프트
- 코테 공부
- 코딩테스트
- 바디프로필
- 개인 운동
- 체스트프레스
- 코드
- 암풀다운
Archives
- Today
- Total
치즈의 AI 녹이기
서로 다른 학습 모델을 비교하는 방법 본문
1. 데이터 준비하기
원본 데이터에 대해서 파악하는 법
- 원본 데이터의 통계량 측정하기 (trian, validation, test 각각의 데이터 개수 등)
- 원본 데이터를 학습하는 데 걸리는 시간 측정하기
서브 데이터 생성하는 법
- 원본 데이터의 측정 값을 기반으로 원하는 비율만큼 서브 데이터를 생성한다.
ex) train보다 validation에 걸리는 시간이 상대적으로 매우 클 경우, validation set을 작게 생성할 수 있음. - 원본 데이터의 test set은 학습 데이터의 차이로부터 발생하는 모델 성능 결과의 차이를 비교하기 위해 그대로 유지하는 것이 좋다.
2. 모델 수정하기
- 모델의 주요한 기능을 차지하는 부분이 정말 효과가 있는지를 알기 위해 그 부분을 빼고 다른 것으로 대체한 것과 원래 것의 성능을 비교해볼 수 있다.
ex) transformer encoder에서 사용되는 attention mechanism이 정말 효과가 있는지를 알기 위해 그 부분을 빼는 대신 dnn을 넣어보고 성능을 비교해볼 수 있음.
'인공지능 대학원생의 생활 > 딥러닝 (Deep-learning)' 카테고리의 다른 글
Gradient Descent Method (0) | 2021.07.09 |
---|---|
WSDM 2021 논문 3개 정리 (0) | 2021.06.24 |
LightXML (0) | 2021.06.24 |
연구 시작하기 (0) | 2021.02.01 |
RKT : Relation-Aware Self-Attention for Knowledge Tracing Review (0) | 2021.01.28 |