치즈의 AI 녹이기

BERT와 RoBERTa의 차이점 본문

인공지능 대학원생의 생활/구글링

BERT와 RoBERTa의 차이점

개발자 치즈 2021. 7. 25. 21:30

모델 구조에 있어서 RoBERTa는 BERT와 똑같습니다.

차이점은 다음과 같습니다. 

  • RoBERTa는 BPE Tokenizer를 더 큰 단어 사전을 갖고 사용한다. 
  • RoBERTa는 dynamic word masking을 적용하고, nsp를 없앴다.
  • RoBERTa의 하이퍼 파라미터들. 

하이퍼 파라미터 비교 / https://skimai.com/roberta-language-model-for-spanish/

 

 

참고 링크 : https://skimai.com/roberta-language-model-for-spanish/

 

Tutorial: How to train a RoBERTa Language Model for Spanish - by Skim AI

Tutorial on how to train and fine-tune a RoBERTa language model for Spanish from scratch. Part of a series on using BERT for NLP use cases

skimai.com