1 Introduction

unlabeled data를 이용해서 언어적 정보를 학습 학습 결과를 추가적인 supervision을 통해 성능 향상 pre-trained word embedding(word2vec, GloVe)을 통해

<aside> 🚨 unlabeled text를 이용해서 언어적 정보를 학습하는 것은 2가지 이유에서 모험적

</aside>

<aside> 💡 semi-supervised approach : combination of unsupervised pre-training and supervised fine-tuning

</aside>

2 Related Work

Semi-supervised learning for NLP

과거에는 word-level 또는 phrase-level statistics를 compute하기 위해 unlabeled data를 사용

이후에는 unlabeled data로 학습한 단어 임베딩을 사용하는 방식이 제안

이번 논문에서는 더 높은 수준의 의미를 학습하고자 함

Unsupervised pre-training