Loading...

Deep Learning Research Group

ArcFace: Additive Angular Margin Loss for Deep Face Recognition

MegaFace Challenge에서 SOTA를 달성한 내용에 대한 논문에 대한 설명 – 1st (2018.Feb.8) 별도 설명 자료가 없어 논문을 토데로 아래 참고 논문을 바탕으로 설명 [대표 설명 논문]1. ArcFace: Additive Angular Margin Loss for Deep Face RecognitionJ Deng 저술 – ‎2018.1.18 – ‎19회 인용[참고 논문]1. FaceNet: A Unified Embedding for Face Recognition and ClusteringF Schroff 저술 – […]

Read more

Amazon.com Recommendations Item-to-Item Collaborative Filtering

https://www.cs.umd.edu/~samir/498/Amazon-Recommendations.pdf 추천 알고리즘은 전자 상거래 웹 사이트에서 사용하는 것으로 알려져 있다. 그 이유는 전자 상거래 사이트야 말로 고객과의 접점이며 이는 바로 고객 분석을 통한 매출 극대화와 연관이 있기 때문이다. 그렇기에 Amazon에서는 고객의 관심사에 대한 정보를 사용하여 권장 항목 목록을 생성하고 그곳에서 만들어진 많은 응용 프로그램은 고객이 구매하고 명시적으로 자신의 관심사를 나타 내기 위해 평가한 항목(별점, […]

Read more

Malware Detection Using Deep Transferfed Generative Adversarial Model

Malware Detection Using Deep Transferred Generative Adversarial Networks by Jin-Young Kim, Seok-Jun Bu, and Sung-Bae Cho 1. 서론 악성 소프트웨어는 컴퓨터에 악영향을 끼치는 모든 소프트웨어의 총칭이다. 여러 단체 및 개인이 어마어마하게 피해를 보고 있으므로 악성 소프트웨어 탐지는 중요한 문제이다. 개발자들은 백신에 탐지되지 않게 숨기고, 백신은 탐지할려고 한다. 현백신은 샘플링을 기반으로 악성소프트웨어를 탐지하는데 악성소프트웨어가 어마어마하게 늘어나고 […]

Read more

WaveNet: A Generative Model for Raw Audio

참고자료 : https://www.youtube.com/watch?v=GyQnex_DK2k&feature=youtu.be

Read more

An Overview of Multi-Task Learning in Deep Neural Networks∗

An Overview of Multi-Task Learning in Deep Neural Networks (Paper, Blog) 1. 서론 보통 우리가 머신러닝으로 무언가를 할때 통상적으로 하나의 모델을 훈련하거나 복수의 모델을 훈련하여 Ensemble 하는 형태로 우리가 추구하고자 하는 목표를 잘 해석할 수 있는 모델을 만들고자 노력한다. 그 이후에는 Fine 튜닝 등의 방법으로 성능을 끌어올리고자 노력하다가 더 이상 모델의 성능의 개선되지 않으면 모델 개발을 […]

Read more

Scoring

Scoring (Probs to Score) (링크) 1. 서론 Scoring 을 왜 해야 하는가? 우리가 모델을 만들면 Logistic 의 예로 0~1 사이의 확률 값을 갖게 된다. 그러데 이것이 업무적으로 커뮤니케이션을 할때, 어떤 사람이 연체할 확률이 0.843 이에요라는 것은 상당히 어렵다. 이러한 문제를 해결하고자 1000점 만점으로 rescaling 을 해서, 1000점에서 900점 구간은 연체 1등급, 900점에서 800점은 연체 2등급 이러한 […]

Read more

RECURRENT BATCH NORMALIZATION

RECURRENT BATCH NORMALIZATION (링크) 1. 서론 Batch Norm 은 신경망 훈련시 각각의 Batch 의 데이터의 분포가 매우 상이하기 때문에 발생하는 문제를 해결하기 위해 고안된 방법으로, 현재 대부분의 신경망 설계시 빠르고 효율적인 신경망의 훈련을 위해서 적용되고 있다. 본 논문에서는 RNN 구조에서 Batch Norm 을 적용하는 방법에 대해서 이야기 하고 있다. 2. 선행 연구 (1) LSTM LSTM […]

Read more

Effective Approaches to Attention-based Neural Machine Translation

Effective Approaches to Attention-based Neural Machine Translation (링크) 1. 서론 기계번역에 소계되었던 Seq2Seq 모델을 기억하는가, Encoder 와 Decoder 부로 이루어져 있으며, Encoder 부에서는 해석해야할 문장에 대한 해석을 진행하고, Decoder 부에서는 RNN 을 통해서 Generate 하는 모델로 기존 기계번역 대비 놀라운 성능 향상을 보여 주었던 메커니즘이다. 하지만 문장이 길어짐에 따라서 번역 성능이 급격히 떨어지는 문제가 있는데, 이러한 […]

Read more

Pointer Network 

Pointer Network (링크) 1. 서론 RNN 은 오랜 시간 Text 를 해석하는데 사용되어 왔으나, Input 과 Ouput 의 Size 를 한정해야 한다는 문제를 가지고 있었다. Seq2Seq 에서 Input을 해석하는 부분과 Output 을 생성하는 부분을 분리하면서 이러한 문제를 어느정도 해결하고, Attention Mechanism 을 적용하여 추가적인 정보를 제공하면서 기존에 해결하지 못하던 기계번역과 같은 분야에서 State of Arts 의 […]

Read more

MRNet-Product2Vec: A Multi-Task Recurrent neural Network for Product Emeddings(2017 Amazon)

자습용으로 공부하기 위해 정리한 자료 입니다. 출처는 맨 밑에 있습니다. 1. 개요 – 상품추천, 중복상품검색, 적정 가격 설정 등등에서 ML을 다양하게 사용 – 좋은 feature를 뽑는 방법이 없을까??? – Contents 추천, Sentence Embedding, Document Embedding이랑 비슷함   2. 과거 방법 – TF-IDF를 주로 씀(http://euriion.com/?p=411929) – 해당 데이터셋에 오버피팅이 됨 – 계산이나 저장에 비효율적 – 의미를 […]

Read more