Attention과 Norm의 관계
며칠간 포스팅을 하면서 느낀 결과로는 그냥 블로그에 제가 관심있는 논문을 위주로 작성하려구요. (사실 계속 그래왔다는거!!!) 아무래도 블로그가 공개된 포스트들이다보니 남들에게 더 보여지기 쉬운 general한 논문들을 포스팅하고도 싶었는데, 사실 수많은 논문리뷰 블로그들 중에서 누가 이걸보겠어욯ㅎㅎ 자기만족과 글쓰기 실력을 위한 블로그 정리이기 때문에 related work에서 필요한 자세한 용어설명은 건너뛰려구요 (attention이나 graph fourier변환이나 RESCAL, DistMult 등등) 결론 : minor할수도 있지만 내가 개인적으로 궁금한 최신 논문위주로 작성하려 합니다. 설마 보겠어? 그래서 오늘은 attention을 다른 시각으로 해석한 두 논문을 확인하고, 공통적으로 중요하게..
딥러닝 논문리뷰
2020. 12. 29. 10:08