RoBERTa: A Robustly Optimized BERT Pretraining Approach 0. Abstract언어 모델의 pre-training은 성능 향상을 가져왔지만, 서로 다른 언어 모델의 pre-training 방법을 직접적으로 비교하는 것은 어려움. (각 모델의 성능을 평가하거나 비교할 때 데이터셋의 규모나 품질이 다르기 때문)이 논문에서는 BERT pre-training의 효과를 확인하고 핵심 하이퍼파라미터 및 학습 데이터셋 크기의 영향을 측정하는 복제 연구를 진행한다. (replication study : 특정 연구의 결과를 확인하거나 재현하기 위해 이전 연구를 다시 수행하는 과정을 말함.)이 연구에서는 BERT가 실제로 충분히 훈련되지 않았으며, 이를 개선한 모델이 RoBERTa..
네이버 부스트캠프 6주차 회고 1. 강의 복습 내용 이번주 강의는 이제까지 배웠던 여러 개념들을 다시 정리하는 강의였다. 복습이 잘 되어 좋았지만 이론과 실전은 너무나 다른 것을 너무나 느낀.. 한 주 였다.. 2. 과제 수행 과정 / 결과물 정리 미션 코드를 참고하며 프로젝트를 시도해보고 있다! 3. 프로젝트 진행과정 정리 4. 피어세션 정리 논문 리뷰.. 다들 너무 잘하신다 멋있다.. 나도 잘하고싶다~~~~~~~ 오늘 논문 리뷰하고 멘탈 와장창창... 다음주엔 더 잘 해보기로,, 45 학습 회고 6주차가 벌써 끝났다.. 배워야할게 너무 많지만 체력이 안좋은 나는 감자다,, 팀원분이 장난으로 감자라고 놀려도(장난 아닌거같긴함) 진짜 감자인걸 알아서 타격이 없다... 감자를 감자라고 부르지 그럼 뭐라고 ..
네이버 부스트캠프 5주차 회고 1. NLP 저번주와 비슷하게 이번주도 실습이 메인이고 강의가 서브인 것 같은 느낌이었다. 머리에 되게 많은 것을 넣으려니 저녁만 되면 머리가 아픈 기분이다.. 2. 과제 수행 기본 과제만 열심히 했다. 심화과제는 시도할 수 있을까? 사실 시간은 만들면 된다.. 의지가 없는 것인가? 그건 또 아니다... 부족한 부분을 채우고 싶다는 생각에 매일 카페 가서 커피를 마시며 배운 것과 이해가 안 되는 부분을 더 찾아보는데 뭔가 아직까지 나에게 이러한 시간이 더 필요한 것 같다. 어느 정도 정리가 된다면? 다시 심화 과제를 켜서 도전하고 싶다.. 그런 날이 왔으면 좋겠다. 3. 피어세션 매일 논문 리뷰를 한다. 얻어가는 게 엄청 많은 피어세션이다. 4. 학습 회고 5주 차 회고를..