현재 가장 많이 쓰이는 어텐션 메커니즘(Attention Mechanism)에 대해 아래 논문을 바탕으로 정리한 내용입니다. 논문에 나오는 Global/Local Attention 내용에 추가로 Soft/Hard Attention에 대한 소개와 아래 논문보다 앞에 나온 Bahdanau vs Luong Attention에 대한 비교 소개 Attention Mechanism(Seq2Seq) Attention Mechanism(Seq2Seq) Introduction to Attention Mechanism (Neural Machine Translation / Python, Tensorflow) Source: www.slideshare.net/healess/attention-mechanismseq2seq Effective Approaches to Attention-based Neural Machine Translation […]
자습용으로 공부하기 정리한 자료 입니다. 출처는 맨 밑에 있습니다. NIPS 2015년 유명한 논문 1. computer vision task semantic segmentation, classification + Localization, Object detection, Segmentation 2. RCNN history rcnn -> fast r-cnn -> faster r-cnn -> master 3. Faster Rcc의 속도 Object Detection 알고리즘의 속도 SSD, Faster Rcnn, R-FCN […]