최근 비디오가 대화형 콘텐츠를 위한 타입으로 많은 각광을 받기 시작하면서 비디오 데이터에 포함된 객체들을 의미적으로 표현하고 검색하기 위한 시맨틱 어노테이션 방법에 대한 연구가 ...
http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
https://www.riss.kr/link?id=A101698681
2011
Korean
시맨틱 어노테이션 ; 온톨로지 ; 이동 객체 ; 스플라인 보간법 ; 비디오 ; Semantic Annotation ; Ontology ; Moving object ; Spline interpolation ; Video
KCI등재
학술저널
67-76(10쪽)
1
0
상세조회0
다운로드국문 초록 (Abstract)
최근 비디오가 대화형 콘텐츠를 위한 타입으로 많은 각광을 받기 시작하면서 비디오 데이터에 포함된 객체들을 의미적으로 표현하고 검색하기 위한 시맨틱 어노테이션 방법에 대한 연구가 ...
최근 비디오가 대화형 콘텐츠를 위한 타입으로 많은 각광을 받기 시작하면서 비디오 데이터에 포함된 객체들을 의미적으로 표현하고 검색하기 위한 시맨틱 어노테이션 방법에 대한 연구가 활발히 진행되고 있다. 비디오 데이터에 포함된 객체들은 시간의 변화에 따라 공간적 위치가 변화하기 때문에 매 프레임마다 상이한 위치 데이터가 발생한다. 따라서 모든 프레임의 객체에 대한 위치 데이터들을 저장하는 것은 매우 비효율적이므로 이를 부적절한 오차가 발생하지 않는 범위 내에서, 효과적으로 압축하여 표현할 필요가 있다. 본 논문은 컴퓨터 또는 에이전트가 직관적으로 객체에 대한 정보를 이해할 수 있도록 표현하기 위해 비디오 데이터가 포함하는 객체에 대하여 의미적 정보를 부여하기 위한 온톨로지 모델링 방법과 이동 객체의 위치 데이터를 압축하기 위해 3차 스플라인 보간법을 적용하여 의미적 정보와 함께 어노테이션 하는 방법을 제안한다. 제안한 어노테이션 방법의 효율을 검증하기 위한 대화형 비디오 시스템을 구현하고, 다양한 특징을 가지는 객체가 나타나는 비디오 데이터 셋을 이용하여 샘플링 간격에 따른 오차율과 데이터량을 비교하였다. 그 결과, 샘플링 간격이 15프레임 이하 일 때, 최대 80%의 데이터 저장 공간을 절약할 수 있을 뿐만 아니라 객체의 실제 좌표 대비 최대 31픽셀, 평균 4픽셀 미만의 오차 편차를 얻을 수 있었다.
다국어 초록 (Multilingual Abstract)
Recently, researches for semantic annotation methods which represent and search objects included in video data, have been briskly activated since video starts to be popularized as types for interactive contents. Different location data occurs at each ...
Recently, researches for semantic annotation methods which represent and search objects included in video data, have been briskly activated since video starts to be popularized as types for interactive contents. Different location data occurs at each frame because coordinates of moving objects are changed with the course of time. Saving the location data for objects of every frame is too ineffective. Thus, it is needed to compress and represent effectively. This paper suggests two methods; the first, ontology modeling for moving objects to make users intuitively understandable for the information, the second, to reduce the amount of data for annotating moving objects by using cubic spline interpolation. To verify efficiency of the suggested method, we implemented the interactive video system and then compared with each video dataset based on sampling intervals. The result follows : when we got samples of coordinate less than every 15 frame, it showed that could save up to 80% amount of data storage; moreover, maximum of error deviation was under 31 pixels and the average was less than 4 pixels.
참고문헌 (Reference)
1 D.B. Goldman, "Video object annotation, navigation, and composition" 3-12, 2008
2 Y. Li, "Video Analysis and Trajectory Based Video Annotation System" 307-310, 2010
3 A.R.J. Francois, "VERL: an ontology framework for representing and annotating video events" 12 (12): 76-86, 2005
4 M. Everingham, "Taking the bite out of automated naming of characters in TV video" 27 : 545-559, 2009
5 Y.J. Ji, "Numerical Analy sis with C Programming Language" NopiGipi 279-290, 2010
6 O. Wolfson, "Moving objects databases: issues and solutions" 111-122, 1998
7 S. You, "Mobile Augmented Reality for Enhancing E-Learning and E-Business" 1-4, 2010
8 J.R. Cózar, "Logotype detection to support semantic-based video annotation" 22 (22): 669-679, 2007
9 V.S. Tseng, "Integrated Mining of Visual Features, Speech Features, and Frequent Patterns for Semantic Video Annotation" 10 (10): 260-267, 2008
10 L. Chen, "EmoPlayer: A media player for video clips with affective annotations" 20 (20): 17-28, 2008
1 D.B. Goldman, "Video object annotation, navigation, and composition" 3-12, 2008
2 Y. Li, "Video Analysis and Trajectory Based Video Annotation System" 307-310, 2010
3 A.R.J. Francois, "VERL: an ontology framework for representing and annotating video events" 12 (12): 76-86, 2005
4 M. Everingham, "Taking the bite out of automated naming of characters in TV video" 27 : 545-559, 2009
5 Y.J. Ji, "Numerical Analy sis with C Programming Language" NopiGipi 279-290, 2010
6 O. Wolfson, "Moving objects databases: issues and solutions" 111-122, 1998
7 S. You, "Mobile Augmented Reality for Enhancing E-Learning and E-Business" 1-4, 2010
8 J.R. Cózar, "Logotype detection to support semantic-based video annotation" 22 (22): 669-679, 2007
9 V.S. Tseng, "Integrated Mining of Visual Features, Speech Features, and Frequent Patterns for Semantic Video Annotation" 10 (10): 260-267, 2008
10 L. Chen, "EmoPlayer: A media player for video clips with affective annotations" 20 (20): 17-28, 2008
11 W.C. Lee, "Effi cient Management of Moving Object Trajectories in the Stream Enviroment" KCC 166-170, 2006
12 O. Wolfson, "Cost and imprecision in modeling the position of moving objects" 588-596, 1998
13 박승보, "Character-Net을 이용한 주요배역 추출" 한국인터넷정보학회 11 (11): 85-102, 2010
14 J. Carmigniani, "Augmented reality technologies, systems and applications" 51 : 341-377, 2011
15 J.H. Lee, "Au tomatic Video Annotation using Extraction of Character Name" 36 (36): 525-530, 2009
16 안윤애, "3차 스플라인 보간법을 이용한 이동 객체의 위치 추정" 한국정보과학회 31 (31): 479-491, 2004
강건한 얼굴 검출 알고리즘을 위한 YCbCr 컬러 모델과 러프 집합 연구
협조적 분산시스템 환경에서 무임승차 방지를 위한 인센티브 디자인 고려사항 도출에 관한 연구
학술지 이력
연월일 | 이력구분 | 이력상세 | 등재구분 |
---|---|---|---|
2026 | 평가예정 | 재인증평가 신청대상 (재인증) | |
2020-01-01 | 평가 | 등재학술지 유지 (재인증) | |
2017-01-01 | 평가 | 등재학술지 유지 (계속평가) | |
2013-01-01 | 평가 | 등재학술지 유지 (등재유지) | |
2010-01-01 | 평가 | 등재학술지 유지 (등재유지) | |
2007-01-01 | 평가 | 등재학술지 선정 (등재후보2차) | |
2006-01-01 | 평가 | 등재후보 1차 PASS (등재후보1차) | |
2004-07-01 | 평가 | 등재후보학술지 선정 (신규평가) |
학술지 인용정보
기준연도 | WOS-KCI 통합IF(2년) | KCIF(2년) | KCIF(3년) |
---|---|---|---|
2016 | 0.44 | 0.44 | 0.44 |
KCIF(4년) | KCIF(5년) | 중심성지수(3년) | 즉시성지수 |
0.43 | 0.38 | 0.58 | 0.15 |