View : 481 Download: 0

Full metadata record

DC Field Value Language
dc.contributor.advisor오유란-
dc.contributor.author정승아-
dc.creator정승아-
dc.date.accessioned2022-02-07T16:31:48Z-
dc.date.available2022-02-07T16:31:48Z-
dc.date.issued2022-
dc.identifier.otherOAK-000000184110-
dc.identifier.urihttps://dcollection.ewha.ac.kr/common/orgView/000000184110en_US
dc.identifier.urihttps://dspace.ewha.ac.kr/handle/2015.oak/260076-
dc.description.abstractFinding a specific object is an essential task in daily life for every people. However, people with visual impairments have the challenge of understanding the 3D position of the objects. Thus, many studies have been conducted to provide directional guidance using nonvisual feedback, but most are limited to two-dimensional guidance. In this study, we investigated various feedback designs that inform the direction of the target in 3D space. As for visual feedback, we proposed the PanoCue system, which provides a panorama view of the surrounding environment informing the direction, height, and distance of the target. In addition, we proposed two-step guidance as for nonvisual feedback, which guides the user in a horizontal direction of the target first then vertical direction followed. We conducted user studies with target finding tasks to confirm the effectiveness of each feedback. Based on the findings of user studies, we designed the omnidirectional feedback system, which detects the object using a deep learning model and conveys the object’s directional information using visual and nonvisual feedback. ;모든 사람에게 특정한 대상을 찾는 것은 일상 생활에서 필수적인 일이다. 그러나, 시각 장애가 있는 사람들은 물체의 3차원 위치를 확인하는 데 어려움을 겪는다. 이러한 이유로 비시각적 피드백을 사용하여 물체의 방향 안내를 제공하기 위한 많은 연구가 수행되었으나, 대부분은 2차원에서의 안내로 제한된다. 따라서 본 연구에서는 3차원 공간에서 표적의 방향을 전달하기 위한 다양한 피드백 디자인을 조사하였다. 시각적 피드백으로는 주변 환경을 파노라마 뷰로 나타내어 대상의 방향, 높이, 거리를 알려주는 파노큐 시스템을 제안하였다. 또한 비시각적 피드백으로는 사용자를 먼저 대상의 수평 방향으로 안내한 후 수직 방향 안내로 이어지는 2단계 안내를 제안하였다. 각 피드백의 효과를 확인하기 위해 표적을 찾는 작업을 통한 사용자 연구를 수행하였다. 사용자 연구의 결과를 바탕으로 딥러닝 모델을 사용하여 물체를 감지하고 물체의 방향 정보를 전달하는 전방향 피드백 시스템을 설계하였다.-
dc.description.tableofcontentsI. Introduction 1 II. Related Work 4 A. Visual Cues for Spatial Information 4 B. Auditory Cues for Spatial Information 6 C. Haptic Cues for Spatial Information 7 III. System Overview with User Scenario 8 A. Target Setting 8 B. Target Detection 8 C. Directional Guidance 10 IV. Feedback Design and User Study 11 A. Visual Feedback 11 1. System Design 12 2. Experiments 14 3. Findings 19 B. Nonvisual Feedback 26 1. Formative Study 27 2. Experiments 42 3. Findings 48 V. Discussion 56 A. Limitations 56 B. Distance Guidance for the System 57 C. System Implementation for Real World 58 VI. Conclusion 59 References 60 Abstract(in Korean) 70-
dc.formatapplication/pdf-
dc.format.extent2232097 bytes-
dc.languageeng-
dc.publisher이화여자대학교 대학원-
dc.subject.ddc000-
dc.titleOmnidirectional Feedback System in VR for People With Visual Impairments-
dc.typeMaster's Thesis-
dc.title.translated시각 장애인을 위한 가상 현실의 전방향 피드백 시스템-
dc.creator.othernameChung, SeungA-
dc.format.pageviii, 70 p.-
dc.identifier.thesisdegreeMaster-
dc.identifier.major대학원 인공지능·소프트웨어학부-
dc.date.awarded2022. 2-
Appears in Collections:
ETC > ETC
Files in This Item:
There are no files associated with this item.
Export
RIS (EndNote)
XLS (Excel)
XML


qrcode

BROWSE