일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
- 개인 운동
- 바프준비
- 코테 공부
- 디버깅
- 바디프로필
- 건강
- 개인 PT
- 연구 시작
- 프로그래머스
- pytorch
- 영화 비평
- 하체운동
- 라섹 수술 후기
- 운동
- 암풀다운
- 체스트프레스
- 덤벨운동
- 개인 피티
- PT 운동
- 개발자
- github
- Knowledge Tracing
- 코딩테스트
- 다이어트
- 데드리프트
- 오블완
- 논문 리뷰
- 티스토리챌린지
- 코테준비
- 코드
- Today
- Total
목록인공지능 대학원생의 생활/딥러닝 (Deep-learning) (13)
치즈의 AI 녹이기

논문 3개 목록 Modeling Context Pair Interaction for Pairwise Tasks on Graphs Say No to the Discrimination: Learning Fair Graph Neural Networks with Limited Sensitive Attribute Information Time-Series Event Prediction with Evolutionary State Graph 이 글이 도움이 되셨다면, 아래에 댓글 부탁드립니다. If this page was helpful, please leave a comment.

LightXML: Transformer with Dynamic Negative Sampling for High-Performance Extreme Multi-label Text Classification (AAAI 2021) 이 글이 도움이 되셨다면, 아래에 댓글 부탁드립니다. If this page was helpful, please leave a comment.

1. 데이터 준비하기 원본 데이터에 대해서 파악하는 법 원본 데이터의 통계량 측정하기 (trian, validation, test 각각의 데이터 개수 등) 원본 데이터를 학습하는 데 걸리는 시간 측정하기 서브 데이터 생성하는 법 원본 데이터의 측정 값을 기반으로 원하는 비율만큼 서브 데이터를 생성한다. ex) train보다 validation에 걸리는 시간이 상대적으로 매우 클 경우, validation set을 작게 생성할 수 있음. 원본 데이터의 test set은 학습 데이터의 차이로부터 발생하는 모델 성능 결과의 차이를 비교하기 위해 그대로 유지하는 것이 좋다. 2. 모델 수정하기 모델의 주요한 기능을 차지하는 부분이 정말 효과가 있는지를 알기 위해 그 부분을 빼고 다른 것으로 대체한 것과 원래 것..

1. 본인이 연구하고자 하는 문제를 이해하기 2. 해당 문제를 풀고 있는 관련 논문을 조사하기 (최소 10개 이상) 논문에서 사용한 dataset이 어떻게 전처리 되어있는지 확인하기 제공된 코드를 기반으로 실험 결과가 잘 구현되는지 확인하기 핵심, 장단점, method, metric 등이 정리된 최종적인 나만의 논문 족보를 생성하기 논문을 찾는 법 방법 1 - 하나의 논문 속 related work를 조사하여 과거의 논문들을 찾기 방법 2 - google scholar(scholar.google.com/)에서 논문 citation을 클릭해 이후의 논문들을 찾기 방법 3 - 각종 학회에서 업데이트 되는 논문들을 찾기 내 연구를 시작하기 위한 framework가 생성된 결과물 1) 조사한 논문 족보 2) 내..