Coding/Sound Attention linguana 2021. 5. 31. 17:19 [Basic NLP_1] Sequence-to-Sequence with Attention (jaehyeongan.github.io) [Basic NLP_1] Sequence-to-Sequence with Attention Intro최근 몇 년간 Transformer 모델의 등장 이후 BERT, GPT, RoBERTa, XLNet, ELECTRA, BART 등과 같은 언어 모델(Language Model)이 매해 새로운 SOTA를 달성하며 등장하고 있다.특히 언어모델의 경우 self-su jaehyeongan.github.io 저작자표시 비영리 변경금지 (새창열림)