View : 218 Download: 0

Full metadata record

DC Field Value Language
dc.contributor.advisor안재윤-
dc.contributor.author윤성원-
dc.creator윤성원-
dc.date.accessioned2023-02-24T16:30:31Z-
dc.date.available2023-02-24T16:30:31Z-
dc.date.issued2023-
dc.identifier.otherOAK-000000202040-
dc.identifier.urihttps://dcollection.ewha.ac.kr/common/orgView/000000202040en_US
dc.identifier.urihttps://dspace.ewha.ac.kr/handle/2015.oak/264127-
dc.description.abstract기계학습 방법은 Prediction accuracy을 높이는 방향으로 발전되어 왔다. 하지만 전통적 통계모형에 비교하여 설명력이 떨어지는 단점이 있고, 이를 보완하기 위해 여러가지 방법론들이 개발되어져 왔다. 그 중 대표적인 방법으로 Attention mechanism을 이용한 방법이 있다. Attention mechanism을 사용하여 설명력을 얻기 위해 회귀분석에서 상수인 계수를 Attention weights로 대체하고 이를 각 변수의 중요도로 사용하는 것이다. 하지만 Jain at al. [1], Wiegreffe et al. [2] 등의 논문에 나타나 있듯이 Attetion weights를 해석하는 것에는 각 논문마다 이견이 존재한다. 본 연구에서는 Attention weights가 해석력을 가질수 있는지를 전통적인 설명기법인 Feature importance등과 비교하여 살펴보고자 한다.;Machine learning methods have been developed in the direction of increasing prediction accuracy. However, there is a disadvantage of poor explanatory power compared to the traditional statistical model, and various methodologies have been developed to compensate for this. Among them, there is a method using Attention Mechanism as a representative method. In order to obtain explanatory power using attention mechanism, the coefficient, which is a constant, is replaced with attention weights in regression analysis and used as the importance of each variable. However, as shown in papers such as "Attention is not Explanation" (Jain and Wallace, 2019) and "Attention is not not Explanation"(Wiegreff and Pinter, 2019), there is a disagreement in interpreting attention weights. In this study, we will compare whether Attention weights can have interpretation power with variable importance, a traditional explanatory technique.-
dc.description.tableofcontentsⅠ. 서론 1 A. 연구의목적 1 Ⅱ. 연구모형 2 A. 데이터설명 2 B. 연구모형개요 3 Ⅲ. 방법론 4 A. 로지스틱 회귀(Logistic Regression) 4 B. XG Boost 5 C. 어텐션 메커니즘(Attention Mechanism) 5 D. Local GLM net 6 Ⅳ. 비교 분석 및 결과 7 A. 모형 성능 비교 분석 7 B. 모형 해석력 비교 분석 8 C. 시뮬레이션 테스트 및 결과 9 Ⅴ. 결론 및 고찰 10 참고문헌 11 ABSTRACT 13-
dc.formatapplication/pdf-
dc.format.extent441911 bytes-
dc.languagekor-
dc.publisher이화여자대학교 대학원-
dc.subject.ddc500-
dc.title인공지능 모형에서 어텐션 메커니즘의 전역적 해석력에 관한 고찰-
dc.typeMaster's Thesis-
dc.title.translatedA Study on the Global Interpretability of Attention Mechanism in Artificial Intelligence-
dc.creator.othernameYoon, Seongwon-
dc.format.pageiv, 13 p.-
dc.identifier.thesisdegreeMaster-
dc.identifier.major대학원 통계학과-
dc.date.awarded2023. 2-
Appears in Collections:
일반대학원 > 통계학과 > Theses_Master
Files in This Item:
There are no files associated with this item.
Export
RIS (EndNote)
XLS (Excel)
XML


qrcode

BROWSE