공부 정리 블로그

[Chapter7] self-attention 본문

대학원 수업/음성인식

[Chapter7] self-attention

따옹 2023. 6. 17. 11:31

7.2 Transformers : Self-Attention Network

Transformers

RNN의 한계점으로 인해서 recurrent connection을 제거

input vectors (𝑥1,…,𝑥𝑛)map to output vectors (𝑦1,…,𝑦𝑛)

Transformersencoder-decoder 구조 the encoder maps an input sequence of symbol representations (𝑥1,…,𝑥𝑛)to a sequence of continuous representations 𝐳=(𝑧1,…,𝑧𝑛)

Given 𝒛, the decoder then generates an output sequence (𝑦1,…,𝑦𝑛)of symbols one element at a time.

 

Self-attentionTransformer의핵심아이디어

RNN이없이도임의의큰컨텍스트에서정보를직접추출하고사용가능

QKV 모두 인코더, QKV 모두 디코더로 병렬처리 가능

같은 차원의 Vector의 Seq를 새로 뽑아봄(음성인식률을 더욱 높이는 것을 새로 뽑음)

 

7.2.3 Positional Encoding : Modeling Input order

상대위치를 학습하기 위해서 더해주는 vecotr

각 차원을 0~1사이로 더해줌, 의미가 있는 Positional encoding vector를 찾음

 

논문에서 찾은 내용은..

sin, cos 합인 이유는?