Author: Tae Young Lee

검색엔진에 적용된 딥러닝 모델 방법

Deep Learning For Search Large Scale Language Model(LLM)의 출현은 기존의 검색 엔진 구조의 점진적 개선을 뛰어넘는또 다른 차원의 길을 제시해주었다. 기존 검색엔진의 구조를 보면 알겠지만 기존 검색엔진에서 중요한 부분인 바로 Ranking부분과기존 문서에 대한 크롤링을 통한 수집과 indexing부분이었다. 2023년 현재 검색엔진이 추구하고자 하는 방향성은 크롤링된 방대한 데이터에 대하여 Training을수행한 대용량 모델의 산출을 바탕으로 해당 언어 모델에 […]

Read more

PaLM (Pathways Language Model)

Scaling Language Modeling with Pathways PaLM논문을 살펴보게 된 배경은 대용량 언어모델의 서비스 상용화가 ChatGPT의 출현으로 실현되었다. 이런 대용량 언어모델에 대한 서비스 방향성과 추론 및 학습을 위한 인프라 환경에 대한 이해를 하기 위하여2022년 4월에 구글에서 발표한 PaLM논문을 리뷰해 보기로 한다. 사전 지식 공유 GPT부터 BERT까지 트랜스포머 유니버스https://m.hanbit.co.kr/channel/category/category_view.html?cms_code=CMS5215583920&cate_cd&fbclid=IwAR0cIekNVOZs2Nt6Z6RCgK2NlHx9VALGMiTf7RRv7QXfql3GhRD_P05nmt8 1> Pathways 2> Reasoning LLMs are Zero-Shot Reasoners Zero-Shot […]

Read more

MUSIC (MUtual Information State Intrinsic Control)

reward 없이 unsupervised한 방법론으로 Reinforcement Learning을 할 수 있을까? 논문 링크 : https://arxiv.org/abs/2103.08107 코드 링크 : https://github.com/ruizhaogit/music 강화 학습은 많은 도전 과제에서 매우 성공적인 것으로 나타났습니다. 하지만 이런 성공은 대부분 잘 설계된 보상에 크게 의존할 수 밖에 없는 구조적 한계를 가지고 있습니다. 이에 intrinsically motivated RL은 intrinsic reward를 정의하여 이런 Constraints를 제거하려고 시도합니다. 심리학의 자의식 […]

Read more

Decision Transformer Reinforcement Learning via Sequence Modeling

논문 출처 : https://arxiv.org/abs/2106.01345 코드 출처 : https://github.com/kzl/decision-transformer 이 논문이 쓰여지게 된 배경은 ViT의 출현( https://arxiv.org/abs/2010.11929 )과 관련이 있어 보인다. 위 Vision Transformer Architecture를 살펴보면 이미지를 고정된 크기의 Patch로 나누어 준 후 Position Embedding화하여 Sequential하게 Transformer의 인코더에 Input값으로 넣는다.입력값으로 들어간 이미지를 일반적인 Transformer Input 값과 동일하게 Data Transformation을 수행한 후 classification token을 더해준다. 이 정보를 […]

Read more

DIAYN (Diversity is All You Need)

Diversity is All You Need : Learning Skills without a Reward Function (https://arxiv.org/abs/1802.06070) 위 논문에서 바라보고자 하는 점은 똑똑한 사람들은 지시자의 지시가 없이도 스스로 다양한 시도들을 통하여 스스로 유용한 기술들을 학습한다는 일상의 일들을 강화학습에 적용해 보자는 의도를 가지고 작성되었다.이를 강화학습으로 풀어보자면 어떻게 하면 보상이 없이도 유용한 기술들을 스스로 배워서 학습할 수 있을까 이를 구현하기 위해서 […]

Read more

강화학습의 변천사

Markov Chain은 언어모델, 음성인식, 강화학습과 연관된 학습을 하다 보면 가장 근간이 된 사상이라고 생각이 든다. 그 이유는 바로 state와 transition probability란 것이 확률적 기반 학습을 진행할 때 가장 뿌리가 되는 부분이기 때문인 것 같다. Deterministic Policy와 Stochastic Policy이 모두 state에 대한 action을 기반을 설계되어 있고 이 action이라는 것은 state transition probability와 큰 연관성이 있다. state […]

Read more

LanGUAGE Model of Deep learning의 변천사

Part Of Speech(POS) Tagging에서 중요한 부분은 closed class categories와 open class categories에 대한 구분이다. 언어는 생명체와 비슷하게 진화한다. 진화하는 부분은 우리가 쉽게 사용하는 명사, 동사, 형용사, 부사라고 칭하는데 이를 바로 open class categories라고 부른다. 형태소 분석에서 가장 중요한 부분은 바로 class categories에 대한 Life Cycle이다. 입력받은 Part Of Speech(POS) Tagging한 값을 토대로 Sequence Labeling을 수행하여 […]

Read more

자연어 처리의 Mechanism

입력 문장 (Sequence of Symbol)에 따라 형태소 분석기를 거치게 된다이 형태소 분석이라는 것은 입력 어절에 따라 어절 타입 검사 모듈, 코드 변환 모듈, 형태소 분석 모듈을 거쳐 결과값을 출력하게 되는데, 형태소 분석 모듈에서 다양한 모호성을 제거 하기 위해 다양한 처리를 수행하게 되는데 사전 검색 모듈 (TRIE), 불규칙 처리 모듈 (원형 추정), 음성 언어 처리를 위한 […]

Read more

음향모델과 언어모델 그 이후에 디코더

음성인식에서 가장 중요한 부분은 음향모델의 입력값 잡음제거에 있다. 잡음제거를 하기 위해선 음원의 위치를 추정해야 하는데 이를 통해 잡음까지 증폭되는 것을 방지하고 순수하게 인식의 대상인 사용자의 목소리를 정확히 인지할 수가 있다. 하지만 여기서 끝은 아니다. 사람의 음성은 시계열 패턴이다.  시계열 패턴이라는 것은 선후 관계가 있다는 말인데 음성은 그렇기 때문에 20ms의 구간별 분리를 진행하여 다음에 진행될 패턴을 […]

Read more

Object Detection의 변천사 논문 Review

리뷰 논문 https://arxiv.org/pdf/1905.05055.pdf 상위 논문은 Object Detection의 변천사를 정리한 논문으로 이 논문 안에서 변천사 별 굵직했던 다양한 Detection 기법들의 논문에 대한 개괄적인 설명이 담겨 있다. Object Detection기법에 대해서 제대로 알기 위해서는 Recognition과 Object Detection의 차이에 대하여 구분할 줄 알아야 한다. Recognition은 Object를 구분하는 것이고, Object Detection은 Recognition보다 더 작은 범위로 Object의 존재 유무만 판단한다. 더 […]

Read more