Hinton 교수님과 Google Brain의 연구진이 작성 (NIPS 2017 발표)
Deep Learning Research Group
Abstract 첫번째로 High-demensional 센서 인풋을 사용하여 RL을 학습하는데 성공하였습니다. CNN과 변형된 Q-learing을 사용하였습니다. 입력값은 raw pixels, 출력값은 미래 보상을 추정하는 Value function 입니다. 2600개의 아타리게임을 별도의 조절없이 적용하였으며, 이중 6개는 이전보다 뛰어났으며 3개는 전문가들을 뛰어 넘었습니다. Introduction Agents를 시각 혹은 음성 같은 High-deminsinal 센서 입력을 직접 입력받아 agents를 학습 시키는 것은 RL의 오랜과제중 하나 였습니다. […]
최적의 거래 실행을위한 Almgren-Chriss 프레임 워크의 확장을 배우는 강화 학습 초록 – Reinforcement Learning은 시장 microstructure의 요소를 사용하여 최적의 거래 실행을 위해 기존 분석 솔루션을 향상시키는 후보 machine learning technique로 탐구됩니다. 거래량, 일정 시간 및 이산 거래 기간을 감안할 때 목표는 실시간 실행 중 선호 / 불리한 조건과 관련하여 동적 인 일정한 볼륨 궤적을 적용하여 […]
TensorFlow 2.0 TensorFlow가 나온지 3년이 넘어간다… (2015년 11월) TF 2.0은 생산성과 편리성을 초점에 두어 아래의 4가지 특징으로 설계하였다 (사용자 친화적으로 바뀜)– Eager(Default)와 Keras(High Level API통합-v1.4 2017.11 Merged) 그리고 TF Data(Input Pipelines)로 일원화함 Pythonic한 개발을 지향 – tf.layers -> tf.keras.layers / tf.Estimator -> tf.keras (premaded) Easy model building with Keras and eager execution. TensorFlow 2.0 runs […]
대용량 혹은 분산 처리 환경에서 BatchSize와 Learning rates를 설정하는데 있어 자주 실수 하는 부분을 정리해주는 논문 관련된 논문 “Don’t Decay the learning Rate, Increase the Batch Size Distributed Training of neural Networks Fast and easy distributed deep learning n TensorFlow Motivate 데이터가 많아 짐에 따라 Training 시간이 점점더 오래 걸리고 있음( 몇시간에서 몇일, 몇주일까지 ) 회사 […]
docker : https://github.com/edmBernard/DockerFiles Dockerfile.android 32bit ENV NDK_VERSION “android-ndk-r13b” make clean # && \ # make ANDROID=1 64bit ENV NDK_VERSION “android-ndk-r14b” RUN $LIB_DIR/${NDK_VERSION}/build/tools/make_standalone_toolchain.py \ –arch arm64 –api 21 –install-dir $NDK_TOOLCHAIN_DIR –stl=libc++ RUN cd “$LIB_DIR” && git clone https://github.com/xianyi/OpenBLAS.git && cd OpenBLAS && \ git checkout tags/v0.2.19 && \ make TARGET=ARMV8 HOSTCC=gcc CC=aarch64-linux-android-gcc NOFORTRAN=1 && \ make PREFIX=$OPENBLAS_DIR […]
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (Paper) Jacob Devlin Ming-Wei Chang Kenton Lee Kristina Toutanova Google AI Language 1. 서론 기존의 자연어 처리 모델은 Specific Task 모델을 Inital State 에서 부터 훈련하기 위한 형태로 접근하였다. 이러한 접근 방법의 문제는 여러가지가 있겠지만, 목적별로 많은 훈련 데이터를 확보해야만 한다는 것이 가장 큰 문제일 것이다. […]