View : 979 Download: 0

Full metadata record

DC Field Value Language
dc.contributor.advisor남양희-
dc.contributor.author이서진-
dc.creator이서진-
dc.date.accessioned2016-08-25T10:08:10Z-
dc.date.available2016-08-25T10:08:10Z-
dc.date.issued2010-
dc.identifier.otherOAK-000000061169-
dc.identifier.urihttps://dspace.ewha.ac.kr/handle/2015.oak/186040-
dc.identifier.urihttp://dcollection.ewha.ac.kr/jsp/common/DcLoOrgPer.jsp?sItemId=000000061169-
dc.description.abstractWhile Augmented Reality(AR) technology and applications are gathering big attention both from the industry and academy, there's no authoring tool without requiring knowledge of computer and programming skill. This thesis aims to develop an enabling techniques for quick authoring of AR contents so that domain experts or service designer can use them without requiring much computer skill. To define AR contents, some augmenting conditions or context should be defined first. Generally 'where', 'when', or other personal or situational condition can serve as an augmenting context. Among those, recent AR systems often use GPS or directional sensor based location condition as a context, but such AR system only allows simple 2D overlay type augmentation based on the regional context. On the other hand, 'true' 3D AR requires more complex techniques to derive 3D structure from the video of 3D real world to define the relationship between real world object and augmenting (virtual) object. The reason that most AR systems do not use this true 3D AR feature is, first of all, it is quite difficult to extract 3D information from 2D video, and second, it is also difficult and cumbersome to model dynamic or 3D virtual objects, and finally there's no easy way of inserting virtual moving object into the video scene representing real world. For the aforementioned 3 problems, the thesis provides simple user interaction based approach for 3D object definition from video and how to simply mix real and virtual objects in their 3D spatial relationships. Our approach can be summarized as : (1) After indicating region of interest on the real world video or pre-recorded video, the system computes segmentation of the target object area, and object planes are calculated based on 3D feature points in that area. By tracking 3D feature points and computing camera pose in subsequent video frames, broader parts of object are modeled as its constituting planes. (2) To create a virtual dynamic object, the thesis suggests a techniques to use video object by extracting the interesting object's motion parts. User defines a region of interest in the first video frame, and the system does automatic tracking of the target object in subsequent video frames. (3) Extracted dynamic video objects can now be placed in the real-world based 3D scene constructed from (1). This is also achieved by simple drawing of motion path for the virtual video object extracted in step (2) relatively around the interesting real world object defined as 3D in step (1). As the result of an experiment for many objects, we found that the suggested method could construct a 3D model of the video object relatively fast and easy against previous researches, and also showed that it can provide additional capabilities of defining of virtual dynamic objects from video and enabled layout them into the real world video in 3D spatial relations.;최근 증강현실(Augmented Reality, AR) 기술이 발전하면서 증강현실 기술을 이용한 개인화된 서비스나 새로운 형태의 콘텐츠를 저작하고 제공 받고자하는 사용자의 요구도 함께 증가되고 있다. 이런 요구에 부응하여 최근, 증강 객체 콘텐츠를 저작할 수 있는 증강현실 저작도구가 활발히 연구되고 있다. 그러나 지금까지 개발된 증강현실 저작도구는 대부분 프로그래밍 지식을 요구하는 스크립트 언어기반이기 때문에 프로그래밍 지식이 없는 서비스 개발자나 도메인 전문가들이 사용하기 어려운 단점이 있다. 따라서 프로그래밍 지식이 없는 사용자들도 쉽게 사용할 수 있는 증강현실 저작도구가 필요하다. 증강현실 저작도구는 언제, 어디서와 같은 지리적 맥락을 포함하는 컨택스트(context) 등 증강을 위한 조건과 그 조건이 부합될 때 증강되어야 할 이미지, 텍스트, 사운드 등의 증강 객체를 저작할 수 있도록 지원해야 한다. 첫째, 조건 요소 중에서 최근에 GPS 위치 데이터를 이용한 증강현실 응용이 많이 개발되고 있으나 실세계의 3차원 공간 구조에 맞게 증강 객체를 배치하거나 실세계 비디오 영상이 전달하는 공간 속에서 3차원적으로 움직이는 객체를 증강하는 문제를 해결한 어플리케이션은 거의 드물다. 이는 2차원인 실시간 비디오에서 3차원 구조를 알아내기 어렵기 때문이며, 동적 객체의 움직임 정의나 비디오 공간 속 이동경로 설정이 어렵기 때문이다. 따라서 본 논문에서는 첫째, 비디오 상의 객체와 증강 객체와의 3차원 공간 관계를 정의하는 문제에 대해 오랜 시간이 소요되고 정확도가 떨어지는 기존의 완전 자동 복원 방법 대신에, 간단한 상호작용에 의해 비디오 속 관심 영역을 3차원 모델로 정의하는 방법을 제시한다. 이 방법은 사용자의 입력으로부터 관심영역에 포함된 객체를 추출하는 단계와 카메라 트래킹 방법을 이용하여 알아낸 3차원 특징점을 기반으로 관심 영역 내 3차원 평면들을 추출하여 모델이 구축되게 하는 단계로 나눠진다. 두 번째 문제인 동적 증강객체 저작에 대해서는 모델링 도구나 애니메이션 편집 도구를 이용하는 복잡한 저작방법이 아닌, 비디오 클립의 동적 객체를 추출하여 증강하는 방법을 제안한다. 이 방법은 동영상에서 사용자가 원하는 동적 객체의 관심 영역을 지정하는 전처리 단계와 동영상이 재생되는 동안 전처리 과정에서 찾아낸 경계선을 추적하는 단계로 구성되며 3차원 모델은 아니지만 2차원의 비디오 객체가 3차원 내에서 이동하고 차원의 동적 객체를 지원하는 접근법이다. 본 연구에서 제안한 연구는 기존의 접근법들과 다음과 같이 차별화된다. 첫째, 기존 증강현실 저작도구에서는 비디오 객체와 증강 객체 간의 3차원 공간관계를 저작할 수 있는 기능을 지원하지 않거나 프로그래밍 지식을 요구하였다. 본 연구는 기존 저작도구와 달리 프로그래밍에 대한 전문 지식 없이 객체간의 3차원 공간 관계를 정의할 수 있도록 한다. 둘째, 비디오 객체와 증강 객체간의 3차원 공간관계를 정의하기 위해, 경계선을 일일이 지정하는 기존 방식과 달리 비디오 객체의 대략적인 관심 영역을 정의하여 자동으로 객체의 형상을 알아낸다. 이는 경계선을 최대한 정확히 지정해 주어야 했던 노력과 시간을 줄인다. 셋째, 실시간에 경계선을 일일이 지정해야하는 불편을 감소시키기 위해 동영상 캡쳐링(capturing) 모드와 모델링(modeling) 모드를 분리시킨 기존 방법과 달리 실시간 영상에서 객체를 바로 모델링 할 수 있도록 한다. 넷째, 동적 객체를 정의하기 위해 전문 애니메이션 툴에서 미리 애니메이션 파일을 구축한 후 사용하거나 스크립트 언어로 객체의 움직임을 저작해야하는 어려움이 존재했던 기존 방법들과 달리 비디오 클립에서 매우 간단한 상호작용만으로 동적 객체를 추출하고 실세계 비디오 공간에 삽입하는 방법을 사용한다. 본 논문에서 제안한 관심영역 기반 객체 정의에 의한 3차원 증강현실 저작 방법은 실세계 비디오 속 관심영역의 3차원 구조를 모델화함으로써 비디오 객체와 가상 객체 간의 올바른 3차원 폐색(Occlusion)이나 조명 일관성, 그리고 가상 객체와의 충돌(collision) 문제 처리 등을 가능하게 하는 기반 모델을 제공한다. 이와 같은 증강현실 저작방법은 향후 증강현실 기반 학습이나 체험투어와 같은 다양한 응용에서 사용자 중심의 간단한 저작방법으로 활용될 수 있다.-
dc.description.tableofcontentsI. 서론 1 A. 연구 배경 1 B. 연구 목표 4 II. 관련 연구 6 A. 증강현실 저작도구 6 B. 비디오 객체의 3차원화 기술 7 C. 동적인 증강 객체 추출 방법 10 D. 3차원 공간 관계 정의 12 III. 비디오 객체 3차원화 알고리즘 13 A. 관심 영역 기반 영역 분할 방법 13 1. GrabCut에 의한 대략적인 영역 분할 15 2. GrowCut에 의한 보정 영역 분할 16 B. 관심 영역 내 특징 점 기반 3차원 평면 추출 18 1. 특징점 추출 18 2. 모델 정의 22 IV. 동적인 증강 객체 추출을 위한 객체 정의 알고리즘 25 A. 관심영역 지정에 의한 객체 정의 25 1. 지역 분류기에 의한 연속 영상 속 객체 정의 25 V. 3차원 공간 관계 정의 알고리즘 33 A. 공간 관계 정의를 위한 인터랙션 방법 33 VI. 구현 및 실험 결과 35 A. 시스템 구현 35 B. 실험 결과 36 1. 전처리 결과 36 2. 사용자의 직접 정의에 의한 모델 정의 38 3. 관심 영역 정의에 의한 모델 정의 결과 39 4. 동적 증강 객체 정의 결과 41 5. 프로그램 인터페이스 45 6. 실험 결과 평가 47 VII. 결론 49 A. 연구 결과 및 의의 49 B. 향후 발전 방향 50 참고문헌 51 ABSTRACT 56-
dc.formatapplication/pdf-
dc.format.extent3621634 bytes-
dc.languagekor-
dc.publisher이화여자대학교 대학원-
dc.title관심영역 기반 객체 정의에 의한 3차원 증강현실 저작 방법-
dc.typeMaster's Thesis-
dc.title.translatedRegion of Interest based 3D Object Definition Method for Authoring Augmented Reality Contents-
dc.creator.othernameLee, Seo Jin-
dc.format.pagex, 58 p.-
dc.identifier.thesisdegreeMaster-
dc.identifier.major대학원 디지털미디어학부-
dc.date.awarded2010. 8-
Appears in Collections:
일반대학원 > 디지털미디어학부 > Theses_Master
Files in This Item:
There are no files associated with this item.
Export
RIS (EndNote)
XLS (Excel)
XML


qrcode

BROWSE