구글에서 2017년에 Transformer 구조를 제안했고, 그 효과는 아주아주 대단했다.
논문의 핵심 컨셉인 self-attention을 활용한 파생 논문들을 앞으로 쭉 보고,
어딘가에 implement하는 방식으로 스터디를 진행 할 계획이다.
구글에서 2017년에 Transformer 구조를 제안했고, 그 효과는 아주아주 대단했다.
논문의 핵심 컨셉인 self-attention을 활용한 파생 논문들을 앞으로 쭉 보고,
어딘가에 implement하는 방식으로 스터디를 진행 할 계획이다.
A new version of content is available.