View : 1257 Download: 0

딥러닝 방법론의 이해

Title
딥러닝 방법론의 이해
Other Titles
The review of Deep learning
Authors
이종화
Issue Date
2019
Department/Major
대학원 통계학과
Publisher
이화여자대학교 대학원
Degree
Master
Advisors
송종우
Abstract
딥러닝 이론이 처음 등장한 것은 1980년대이다. 하지만 하드웨어와 데이터, 최적화 알고리즘의 한계로 인해 주목받지 못했다. 그러나 그래픽 카드, 인터넷, 알고리즘의 발전과 함께 2010년대부터 여러 인지 문제의 해결책으로 딥러닝이 재조명 받기 시작했다. 결과적으로 이미지 인식과 같이 복잡한 문제에서 딥러닝 모형은 기존의 머신러닝 모형보다 크게 향상된 정확도를 보였고, 그에 따라 딥러닝에 대한 연구 및 투자도 활발히 이루어지고 있다. 이러한 시대 흐름에 발맞추어 대표적인 딥러닝 구조인 다층 신경망(MLP), 합성곱 신경망(CNN), 순환 신경망(RNN)을 본 논문에서 소개하고자 한다. 그뿐만 아니라, 실제 분석 과정에서 발생할 수 있는 문제점과 이를 완화시킬 수 있는 몇 가지 방법들도 함께 제시하고자 한다. 마지막으로 위 방법론들의 적용 예시를 함께 실었다. 그리고 동일한 데이터에 그래디언트 부스팅을 적합하여 비교하였다. 캐글(Kaggle) 콘테스트에서 딥러닝과 양대 산맥을 이루고 있는 그래디언트 부스팅과의 비교를 통해 각 방법론의 장단점도 함께 모색해보고자 한다. 본 논문의 의의는 대표적인 딥러닝 방법론을 이해하고, 모형 적합 시 주의해야 할 점들을 인지하며, 딥러닝과 앙상블 모형 중 상황에 맞는 적절한 도구를 선택할 수 있도록 돕는 데에 있다.;Although the theory of deep learning appeared in 1980s, it is from 2010s that deep learning took off as a solution of perceptual problems, thanks to breakthroughs in hardware, database and optimizer. Consequently deep learning has broken the records of traditional machine learning approaches in the fields such as image processing. This achievement led to active research and massive investment. To keep up with this trend of data science society, this paper introduces commonly used structures of deep learning; multilayer perceptron, convolutional neural network, recurrent neural network. Some methods to mitigate overfitting are also written in this paper. Furthermore, the comparison of deep learning and gradient boosting, two approaches dominating Kaggle contests recently, is done by studying results of them on the same dataset at the end of this paper.
Fulltext
Show the fulltext
Appears in Collections:
일반대학원 > 통계학과 > Theses_Master
Files in This Item:
There are no files associated with this item.
Export
RIS (EndNote)
XLS (Excel)
XML


qrcode

BROWSE