Loading...

Deep Learning Research Group

Prophet: forecasting at scale

Prophet: forecasting at scale 예측 Forecast는 1> Capacity Planning –  효율적인 자원할당 2> Goal Setting – Baseline과 관련있는 성과 측정 3> 결측치(anomaly detection)를 제거 위 3가지의 선결 조건이 있다. 대부분의 예측은 그 상황에 대한 경험에 의존적일 수 밖에 없으며, 그렇기에 우리는 그런 상황에 대한 가정을 통해 문제를 풀어간다. 예측은 주로 시간의 흐름에 따라 순서대로 관측되는 […]

Read more

1.Memory Networks / 2.End-To-End Memory Networks / 3.Dynamic Memory Network

아래 논문 순서를 토데로 설명 1. Memory Networks J Weston (Facebook AI Research)저술 – ‎2014 – ‎665회 인용 2.End-To-End Memory Networks S Sukhbaatar 저술 – ‎2015 – ‎644회 인용 3.Dynamic Memory Networks for Natural Language Processing A Kumar 저술 – ‎2016 – ‎379회 인용 Memory network에 대한 이해 from Susang Kim https://docs.google.com/presentation/d/e/2PACX-1vTHoMg2Z_fBo5_1Q_ZSk5YORS0IGvPEUimBwlHXrbpOAQXrKUm4M_eFLjE3Lxgnk3T6lcdcYWSCqCtI/pub?start=false&loop=false&delayms=3000  

Read more

R-NET: MACHINE READING COMPREHENSION WITH SELF-MATCHING NETWORKS

R-NET: MACHINE READING COMPREHENSION WITH SELF-MATCHING NETWORKS 1. 서론  자연어 처리 문제 중 주어진 Context 를 이해하고 주어진 질문에 답변하는 문제를 흔히 MRC (Machine Reading Comprehension) 라고표현을 하는데, 풀고자 하는 문제는 아래의 예시와 같다. 아래의 예를 보면, 주어진 두줄의 문장이 있는데 (여기에는 Joe 가 어디에 있고 뭘하고 있는지 정보가 포함되어 있다.) 여기에 Where is the […]

Read more

Show, Attend and Tell: Neural Image Caption Generation with Visual Attention

Image Caption Generation with Attention Mechanism: Model details 이 논문 역시 다른 기존 deep learning caption generator model들처럼 image에서 caption을 생성하는 과정을 image라는 언어에서 caption이라는 언어로 ‘translatation’ 하는 개념을 사용한다. 따라서 이 논문은 machine translation의 encoder-decoder 개념을 사용하게 되는데, encoder는 우리가 잘 알고 있는 CNN을 사용하고, decoder로 RNN, 정확히는 LSTM을 사용하게 된다. 이 논문의 핵심이라고 […]

Read more

[SSNR] Reducing Retirement Risk with a Rising Equity Glidepath

( 원문 출처 : https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2324930 ) Reducing Retirement Risk with a Rising Equity Glidepath (상승 주식 글라이드 경로로 퇴직 위험 감소) Abstract 이 연구는 고객 포트폴리오의 적절한 기본 주식 글라이드 경로가 무엇인지에 대한 문제를 탐구합니다. 라이프 사이클의 퇴직 단계. 놀랍게도, 은퇴 후에 주식 주식이 상승하는 것을 볼 수 있습니다. 포트폴리오는 보수적으로 시작하여 퇴직 시간을 통해 공격적으로 […]

Read more

MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications

컴퓨터 비젼에서 많이쓰이는 뉴럴넷을 정확도는 유지하면서 네트워크를 경량화하여 속도를 빠르게하는 Google이 발표한 논문으로 유사한 내용의 아래 네트워크와 비교 SqueezNet (2016.02) ShuffleNet (2017.07) NasNet-A (2017.07) SquishedNets (2017.11) ENet (2017.11) 현재 개발중인 Face Recognition의 Edge 처리를 Small DNN을 위한 참고용으로 적합 1. Small DNN이 필요한 이유 2. MobileNet의 속도와 정확도 3. MobileNet의 원리 이론 : CNN의 파라미터 […]

Read more

[ELMO] DEEP CONTEXTUALIZED WORD REPRESENTATIONS

[ICLR2018] DEEP CONTEXTUALIZED WORD REPRESENTATIONS (Paper) ,ELMO(Embedding from Language Model) 1. 서론  자연어 관련 각종 문제에 있어서, Word 를 Embedding 하는 방법은 가장 근본적인 Task 로 모든 종류의 자연어 문제에 있어서 공통적으로 적용되는 문제이다. 해당 논문은 Word Embedding 을 BiLM 이라는 댜량의 Corpus 기반으로 사전에 훈련된 모델을 활용하는데, 이러한 방법을 적용하여 기존의 NLP 의 주요 […]

Read more

Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift

자습용으로 공부하기 위해 정리한 자료 입니다. 출처는 맨 밑에 있습니다.   1. Learning Problem in DNN Internal Covariate Shift – 뉴럴네트워크는 히든레이어가 많아서 학습이 힘듬 – Deep Learning은 히든 레이어가 더 많아서 학습이 더 힘듬. 이게 왜 힘드냐면 웨이트의 조금만 변화가 쌓이다 보면은 높은 레이어로 갈수록 변화가 더 커지기 때문이다. 결국 히든 레이어의 값이 변동이 […]

Read more

YOLOv3: An Incremental Improvement

1. Introduction 기존의 YOLO의 성능을 향상시키기 위해서 대단하진 않지만 여러가지 작은 변화들을 적용하였고 성능이 좋아졌습니다. 2. The Deal 2.1 Bouding Box Prediction YOLO9000에서와 동일한 방법으로 박스를 유추하였습니다. 마찬가지로 학습을 위해서 sum of squared error를 로스로 사용하였습니다. YOLOv3는 objectness score를 logistic regression을 사용하도록 변화하였습니다. 어느 한 바운딩 박스가 다른 바운딩박스들 보다 더 많이 오버랩된 경우 그 […]

Read more

[HAN] Hierarchical Attention Networks for Document Classification

[HAN] Hierarchical Attention Networks for Document Classification (Paper) 1. 서론  자연어 처리에서 Document 의 분류는 굉장히 근본적인 문제로 스팸분류, 기사 분류 등 다양한 용도로 사용 될 수 있다. 과거에는 Keyword 를 기반으로 문서를 분류하는 원시적인 방법부터, 최근에는 CNN 이나 RNN 을 사용하는 방법까지 발전되어 왔는데, 딥러닝의 활용은 성능적인 측면에서 꽤나 좋은 성과를 거두었다. 여기서는 문서를 […]

Read more