linguana

고정 헤더 영역

글 제목

메뉴 레이어

linguana

메뉴 리스트

  • 홈
  • 태그
  • 방명록
  • 분류 전체보기 (133)
    • 일상다반사 (5)
    • Coding (122)
      • Image (52)
      • Sound (11)
      • 잡동사니 (21)

검색 레이어

linguana

검색 영역

컨텐츠 검색

상세 컨텐츠

본문 제목

Attention

Coding/Sound

by linguana 2021. 5. 31. 17:19

본문

[Basic NLP_1] Sequence-to-Sequence with Attention (jaehyeongan.github.io)

 

[Basic NLP_1] Sequence-to-Sequence with Attention

Intro최근 몇 년간 Transformer 모델의 등장 이후 BERT, GPT, RoBERTa, XLNet, ELECTRA, BART 등과 같은 언어 모델(Language Model)이 매해 새로운 SOTA를 달성하며 등장하고 있다.특히 언어모델의 경우 self-su

jaehyeongan.github.io

 

저작자표시 비영리 변경금지 (새창열림)

'Coding > Sound' 카테고리의 다른 글

Query, Key, and Value in Attention  (0) 2021.06.10
Transformer  (0) 2021.06.03
SCE+TTS  (0) 2021.05.28
BK-tree search  (0) 2021.05.27
Beam Search  (0) 2021.05.27

관련글 더보기

  • Query, Key, and Value in Attention

    2021.06.10

  • Transformer

    2021.06.03

  • SCE+TTS

    2021.05.28

  • BK-tree search

    2021.05.27

추가 정보

인기글

최신글

TISTORY
linguana © Magazine Lab
페이스북 트위터 인스타그램 유투브 메일

티스토리툴바