http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
유헌우(Yoo, Hun-Woo),이명의(Lee, Myung-Eui) 한국산학기술학회 2007 한국산학기술학회논문지 Vol.8 No.1
본 논문은 뉴스 비디오를 색인, 검색하기 위한 관리 시스템의 기본 기술인 앵커 샷을 검출하는 방법을 제안 한다. 이를 위해 현재 가장 많은 사람이 시청하는 ‘KBS 9시 뉴스’와 ‘MBC 9시 뉴스’의 앵커 샷의 특정 요소를 분석 하여 4단계의 규칙기반 검출방법을 제안한다. 먼저 전처리로 비디오의 샷 경계를 검출하고 첫 번째 프레임을 키 프레임으로 선택한 후에 다음의 4가지 조건을 모두 만족하면 해당 샷을 앵커 샷으로 판단한다. 1) 키 프레임에 앵커의 얼굴이 존재하는가의 여부, 2) 에지의 분포가 구조적으로 적합한지의 여부, 3) 배경의 색상 정보를 추출하여 기존의 앵커 모텔의 색상과유사한지의 여부, 마지막으로 4) 샷 내의 움직임 비율이 일정 임계치 이하인지의 여부를 판단한다. 제안된 방법의 성능을 보이기 위해, 총 108분 분량의 서로 다른 날에 저장된 KBS와 MBC의 9시 뉴스 비디오에 대해 실험한 결과 평균적으로 0.97의 정확도와 1.0의 회수율,0.98의 F-값을 얻을 수 있었다. In this paper, an anchor shot detection method, which is a basic technology for managing news videos for index and retrieval purposes is proposed. To do that, two most popular news program such as 'KBS 9 Hour News' and 'MBC 9 Hour News' are analyzed and 4-step rule based detection method is proposed. First, in the preprocessing, video shot boundaries are detected and the 1st frame of each shot is extracted as a key frame. Then, the detected shot is declared as an anchor shot, if all the following 4 conditions are satisfied. 1) There is an anchor face in the key frame of a shot. 2) Spatial distribution of edges in the key frame is adequate. 3) Background color information of the key frame is similar to the color information of an anchor model. 4) Motion rate in the shot is low. In order to show the validity of the proposed method, three 'KBS 9 Hour News' and three 'MBC 9 Hour News', which have total running time of 108 in minute and are broadcasted at different days, are used for experiments. Average detection rates showed 0.97 in precision, 1.0 in recall, and 0.98 in F-measure.
인간의 인지도에 근거한 질의를 통한 영상 검색의 성능 향상
유헌우(Hun-Woo Yoo),장동식(Dong-Sik Jang),오근태(Geun-Tae Oh) 한국정보과학회 2003 정보과학회 컴퓨팅의 실제 논문지 Vol.9 No.2
영상간의 유사도는 일반적으로 영상으로부터 추출한 특징벡터간의 벡터공간상의 거리를 계산해서 판단한다. 그러나 이러한 특징벡터가 유사도 계산을 위한 하나의 방법이지만 항상 인간의 유사도 개념을 충실히 반영하지는 않는다. 그러므로 현존하는 대부분의 영상검색시스템들은 각 특징간의 중요도를 선정하여 유사도에 반영하는 방법을 사용하고 있다. 본 논문에서는 영상검색을 위한 새로운 초기 가중치 설정과 갱신 알고리즘을 제안한다. 이를 위해서 먼저 데이타베이스 영상을 인간의 인지도 판단에 의해 그룹화 한 후, 내부질의와 외부질의를 수행하고, 검색된 영상중 유사한 영상이 어느 그룹에 속하는지 알아내어 각 영상별로 유사도 계산에 필요한 최적 특징 가중치를 계산한다. 2000개의 영상데이타에 대한 실험을 통해서 제안된 알고리즘의 우수성을 보인다. Image similarity is often decided by computing the distance between two feature vectors. Unfortunately, the feature vector cannot always reflect the notion of similarity in human perception. Therefore, most current image retrieval systems use weights measuring the importance of each feature. In this paper new initial weight selection and update rules are proposed for image retrieval purpose. In order to obtain the purpose, database images are first divided into groups based on human perception and, inner and outer query are performed, and, then, optimal feature weights for each database images are computed through searching the group where the result images among retrieved images are belong. Experimental results on 2000 images show the performance of proposed algorithm.
유헌우(Hun-Woo Yoo),장동식(Dong-Sik Jang) 한국정보과학회 2001 한국정보과학회 학술발표논문집 Vol.28 No.2Ⅱ
본 논문에서는 내용기반 영상검색중 객체기반검새 방법에 대해 다룬다. 먼저 색상과 질감정보가 동일한 영역을 VQ알고리즘을 이용해 군집화 함으로써 동일한 영역을 추출하는 새로운 영상분할기법을 제안하고, 분할 후에 분할에 사용된 색상과 질감 정보, 객체간의 위치정보와 영역크기정보를 가지고 객체간 유사도를 판별하여 영상을 검색한다. 이 때 사용되는 색상의 범위를 몇 개의 주요한 색상으로 표시하기 위해 색상테이블을 사용하고 인간의 인지도에 의해 다시 구룹화 함으로써 계산량과 데이터저장의 효율성을 높인다. 영상검색시에는 질의 영상의 관심객체와 비교대상이 되는 데이터베이스 영상의 여러 객체와의 유사성을 판단하여 영상간의 유사도를 계산하는 일대다 매칭 방법(One Object to Multi Objects Matching)과 질의 영상의 여러 객체와 데이터베이스영상의 여러 객체간의 유사도를 판단하는 다대다 매칭 방법(Multi Objects to Multi Objects Matching)을 제안한다. 또한 제안된 시스템은 고속검색을 실현하기 위해 주요한 색상값을 키(Key)색인화 해서 일치가능성이 없는 영상들은 1차적으로 제거함으로써 검색시간을 줄일 수 있도록 했다.
대화형 유전자 알고리즘을 이용한 감성기반 비디오 장면 검색
유헌우(Hun-Woo Yoo),조성배(Sung-Bae Cho) 한국정보과학회 2004 정보과학회 컴퓨팅의 실제 논문지 Vol.10 No.6
본 논문에서는 감성에 기반한 장면단위 비디오 검색방법을 제안한다. 먼저 특정 줄거리를 담은 장면 비디오 클립에서 급진적/점진적 샷 경계 검출 후, “평균 색상 히스토그램”, “평균 밝기”, “평균 에지 히스토그램”, “평균 샷 시간”, “점진적 샷 변화율”의 5가지 특징을 추출하고, 이 특징과 사람이 막연하게 가지고 있는 감성공간과의 매핑을 대화형 유전자 알고리즘(IGA, Interactive Genetic Algorithm)을 통하여 실현한다. 제안된 검색 알고리즘은 초기 모집단 비디오들에 대해 찾고자 하는 감성을 내포하고 있는 비디오를 선택하면 선택된 비디오들에서 추출된 특징 벡터를 염색체로 간주하고 이에 대해 교차연산(crossover)을 적용한다. 다음에 새롭게 생성된 염색체들과 특징벡터로 색인된 데이타베이스 비디오들간에 유사도 함수에 의해 가장 유사한 비디오들을 검색하여 다음 세대의 집단으로 제시한다. 이와 같은 과정을 여러 세대에 걸쳐서 실행하여 사용자가 가지고 있는 감성을 내포하는 비디오 집단들을 얻게 된다. 제안된 방법의 효과성을 보이기 위해, 300개의 광고 비디오 클립들에 대해 “action”, “excitement”, “suspense”, “quietness”, “relaxation”, “happiness” 의 감성을 가진 비디오를 검색한 결과 평균 70%의 만족도를 얻을 수 있었다. An emotion-based video scene retrieval algorithm is proposed in this paper. First, abrupt/gradual shot boundaries are detected in the video clip representing a specific story. Then, five video features such as “average color histogram”, “average brightness”, “average edge histogram”, “average shot duration”, and “gradual change rate” are extracted from each of the videos and mapping between these features and the emotional space that user has in mind is achieved by an interactive genetic algorithm. Once the proposed algorithm has selected videos that contain the corresponding emotion from initial population of videos, feature vectors from the selected videos are regarded as chromosomes and a genetic crossover is applied over them. Next, new chromosomes after crossover and feature vectors in the database videos are compared based on the similarity function to obtain the most similar videos as solutions of the next generation. By iterating above procedures, new population of videos that user has in mind are retrieved. In order to show the validity of the proposed method, six example categories such as “action“, “excitement”, “suspense”, “quietness”, “relaxation”, “happiness” are used as emotions for experiments. Over 300 commercial videos, retrieval results show 70% effectiveness in average.