View : 2034 Download: 0

딥러닝을 적용한 플라즈마 시스템의 비선형 현상 분석 기법

Title
딥러닝을 적용한 플라즈마 시스템의 비선형 현상 분석 기법
Other Titles
A Deep-Learning based the Analysis Technique of the Nonlinear Phenomena of the Plasma Systems
Authors
김연정
Issue Date
2020
Department/Major
대학원 컴퓨터공학과
Publisher
이화여자대학교 대학원
Degree
Doctor
Advisors
이민수
Abstract
계산 집약적이며 데이터 집약적인 공학 문제에서 딥 러닝과 빅데이터 기술이 최적화 및 예측을 위한 새로운 대안으로 떠오르고 있다. 특히 하전입자 거동을 통해 에너지 변환, 물질 가공 등의 분야에 사용되는 플라즈마(plasma) 경우 비선형 상호작용에 의한 불안정성에 의해 예측이 어려운 상황이 발생하고 있기 때문에 최적화된 플라즈마의 구동 조건을 얻는 과정에서 빅데이터 및 AI 기반 기술을 도입하고자 하는 노력이 근래에 시작되고 있다. 본 연구에서는 빅데이터 기술과 딥러닝 기술을 도입하여 예측이 어려운 비선형 플라즈마 시스템에 인공지능 기술을 적용하여 예측 모델을 만들고 정확도를 분석하였다. 첫번째 사례는 세 파동의 상호작용을 이용한 Raman Back Scattering (RBS) 시스템으로서, 플라즈마 매질 내에서 서로 반대 방향으로 진행하는 두 레이저의 상호작용을 통해 초고출력 레이저를 얻기 위해 고안된 레이저 증폭 시스템이다. RBS에서 발생하는 플라즈마 현상 중 비선형성으로 인해 동일한 모양이 유지된 파동이 진행하는 솔리톤(Soliton, Solitary Wave)이 발생한다. 솔리톤 특성을 기반으로 솔리톤 발생 여부를 자동 판단하는 알고리즘을 계발하여 어떤 파라미터 조건에서 솔리톤이 발생하는지를 예측하는 프로그램을 구축하고 훈련 데이터를 만들었다. 솔리톤 발생 예측하는 Neural Network 모델을 만들고 수동 판단 방법과 정확도를 비교 분석하였다. 두번째 사례는 두 전극 사이의 열전자 방출에 의한 전류 흐름을 관찰하는 Pierce Diode 시스템으로서 개선된 1차원 유체 방정식을 계산하는 Pierce Diode 시뮬레이션 코드를 사용하여 Pierce 매개변수, 이온-전자 비율, 인가 전압 등의 구동 조건을 변화시키며 예측에 필요한 원시 데이터(raw data)들을 생성하였다. 전기장의 시간 변화, 푸리에 변환으로 얻어진 스펙트럼, 위상 공간의 진동 패턴 등의 원시 데이터를 확인하여 진동 패턴을 자동 분류하는 알고리즘을 개발하여 플라즈마 상태 예측에 사용할 훈련 데이터(Training Data) 및 시험 데이터(Test Data)를 생성하였다. 플라즈마 상태를 예측하는 머신 러닝(Machine Learning)의 다항 분류(Multinomial Classification)와 딥러닝(Deep-Learning)의 신경망(Neural Network) 시스템을 구축하여 자체 진동 및 혼돈 현상을 비교 분석하였다. 제안된 기법의 예측 성능 및 정확성을 확인한 결과 본 연구에서는 직접적인 시뮬레이션 사례와 비교했을 때 높은 정확도의 예측 결과를 보여준다. 이러한 분석 기법을 토대로 향후에는 반도체 공정용 플라즈마 장치에 대한 Particle-in-Cell (PIC) 시뮬레이션의 예측 시스템을 구축하고자 하며, 본 논문에서는 제어 변수 변화에 따른 방대한 양의 시험용 데이터를 생성하기 위한 데이터베이스 구축에 빅데이터 기술을 사용한 결과를 보고한다. 시뮬레이션을 통해 만들어진 데이터를 PIC 시뮬레이션에 복원하여 재실행하고 예측 시스템에 사용할 수 있도록 확장성 있는 Hadoop과 Hbase를 사용하여 구축하였고, 향후 딥러닝 기술과 접목하여 비선형 현상 예측 연구로 반도체 공정에 최적화된 장치 개발에 활용하고자 한다.;Deep learning and BigData technologies are emerging as new alternatives for optimization and prediction in computation-intensive and data-intensive engineering problems. Particularly, in the case of plasma systems used in the research fields such as energy conversion and material processing through charged particle behavior, it is difficult to predict the results due to instabilities caused by nonlinear interaction. Thus, BigData and artificial intelligence(AI)-based technologies have begun to be introduced in recent years. In this study, BigDatta and deep learning technologies were investigated to create predictive models and to analyze accuracy by applying AI to non-predictable nonlinear plasma systems. The first example is the Raman Back Scattering (RBS) system using three-wave interactions. A seed laser is amplified by the counter-propagating pump laser in a plasma medium to obtain very high power lasers through the RBS. An unperturbed soliton (solitary wave) is generated by the nonlinearity of the plasma phenomena generated in the RBS by the balance of dispersion and nonlinear amplification. Based on the features of solitons, an algorithm has been developed in order to automatically determine whether soliton occurs or not. A neural network model was developed to predict the occurrence of solitons with the variation of parameter conditions. The accuracy of prediction is very high compared with a time-consuming manual judgment. The second example is the Pierce Diode system that observes the current flow by an electron emission between two electrodes, using Pierce Diode simulation code to calculate modified one-dimensional fluid equations with the variations of the Pierce parameter, ion-electron ratios, applied voltages, etc. The raw data required for the prediction were generated while changing the parameter conditions. Algorithms are developed to automatically classify oscillation patterns by checking raw data such as electric field time variation, Fourier transformed spectra and oscillation patterns in phase space. Also training and test data are generated for the prediction of plasma state. The machine learning multinomial classifier that predicts the plasma state and the neural network system of deep learning was constructed to compare the self-oscillation and chaos. By verifying the prediction performance and accuracy of the proposed method, it was found that this study shows a high accuracy prediction result compared with the time-consuming direct simulation cases. Based on these analytical techniques, it is proposed to build a prediction system for a particle-in-cell (PIC) simulation of plasma devices for semiconductor processing for a final goal. As a first step, BigData technology for the simulation data sets is reported. It was constructed using scalable Hadoop and Hbase so that the data created through the simulation can be restored and re-executed from the PIC simulation and used for prediction purposes. As future work, the combination of deep learning and BigData technologies will be exploited to apply for the prediction of optimized plasma processing for semiconductor industry.
Fulltext
Show the fulltext
Appears in Collections:
일반대학원 > 컴퓨터공학과 > Theses_Ph.D
Files in This Item:
There are no files associated with this item.
Export
RIS (EndNote)
XLS (Excel)
XML


qrcode

BROWSE