일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 논문 리뷰
- Knowledge Tracing
- 프로그래머스
- 코테준비
- 덤벨운동
- 코드
- 디버깅
- PT 운동
- 코테 공부
- 체스트프레스
- 바디프로필
- 암풀다운
- 운동
- 코딩테스트
- github
- 라섹 수술 후기
- 개인 운동
- 개인 PT
- 개인 피티
- 연구 시작
- pytorch
- 다이어트
- 티스토리챌린지
- 오블완
- 영화 비평
- 건강
- 하체운동
- 바프준비
- 개발자
- 데드리프트
- Today
- Total
치즈의 AI 녹이기
Metric Learning 본문
오늘은 Metric Learning에 대해 다뤄보도록 합니다.
데이터 point 간 거리를 측정하기 위한 방법론들(Euclidean, Cosine..)이 존재하고 있지만,
특정 task, 또는 데이터에 맞는 distance metric이 필요하다는 취지로 metric learning이 등장하였습니다.
따라서 metric learning이란, 기계 학습을 이용하여 데이터로부터 task-specific한 distance metric을 자동으로 구성하는 방법입니다. 그 결과를 k-NN classification, clustering 등에서 활용할 수 있습니다.
metric learning 문제는 두 가지 타입의 데이터 성격을 전제로 합니다.
- Supervised learning: 모든 데이터가 잘 라벨링되어 있는 경우, anchor sample을 기준으로 positive sample은 서로 가깝게, negative sample은 서로 멀게 학습합니다.
- Weakly supervised learning: 라벨이 명시되어 있지 않고 쌍으로 제공되는 경우, positive pair들을 서로 가깝게, negative pair들을 서로 멀게 학습합니다.
* anchor : 중심점이 되는 데이터
* positive sample : anchor을 기준으로 anchor과 같은 클래스에 속한 sample
* negative sample : anchor을 기준으로 anchor과 다른 클래스에 속한 sample
metric-learn package에서 대부분 'Mahalanobis distance' 알고리즘을 사용합니다.
여기서 L은 (num_dims, n_features) shape으로, n_features는 데이터 feature를 의미합니다.
Lx = (num_dims, n_features) x (n_features, 1) = (num_dims, 1) 가 되면서
num_dims size의 임베딩 공간을 학습할 수 있습니다.
참고 링크 : http://contrib.scikit-learn.org/metric-learn/introduction.html
'인공지능 대학원생의 생활 > 구글링' 카테고리의 다른 글
구글 드라이브 대용량 파일을 터미널에서 바로 다운받기 (0) | 2021.07.12 |
---|---|
Triplet Loss (0) | 2021.07.09 |
Batch normalization vs Layer normalization (0) | 2021.06.24 |
Weight decay (0) | 2021.06.24 |
Hard Negative Mining (0) | 2021.06.22 |