공부 정리 블로그
[Chapter7] self-attention 본문
7.2 Transformers : Self-Attention Network
Transformers
RNN의 한계점으로 인해서 recurrent connection을 제거
input vectors (𝑥1,…,𝑥𝑛)map to output vectors (𝑦1,…,𝑦𝑛)
Transformers는 encoder-decoder 구조 the encoder maps an input sequence of symbol representations (𝑥1,…,𝑥𝑛)to a sequence of continuous representations 𝐳=(𝑧1,…,𝑧𝑛)
Given 𝒛, the decoder then generates an output sequence (𝑦1,…,𝑦𝑛)of symbols one element at a time.
Self-attentionTransformer의핵심아이디어
RNN이없이도임의의큰컨텍스트에서정보를직접추출하고사용가능
QKV 모두 인코더, QKV 모두 디코더로 병렬처리 가능
같은 차원의 Vector의 Seq를 새로 뽑아봄(음성인식률을 더욱 높이는 것을 새로 뽑음)
7.2.3 Positional Encoding : Modeling Input order
상대위치를 학습하기 위해서 더해주는 vecotr
각 차원을 0~1사이로 더해줌, 의미가 있는 Positional encoding vector를 찾음
논문에서 찾은 내용은..
sin, cos 합인 이유는?
'대학원 수업 > 음성인식' 카테고리의 다른 글
[Chapter8] 음향모델(1) - HMM (1) | 2023.06.17 |
---|---|
[Chapter7] multi-Head Attention (1) | 2023.06.17 |
[Chapter9]언어모델(4)-DNN 기반 언어모델 (0) | 2023.05.31 |
[Chapter9]언어모델(2) - back-off, perplexity (0) | 2023.05.24 |
[Chapter9]언어모델(1) - ~smoothing (0) | 2023.05.17 |