RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 등재정보
        • 학술지명
          펼치기
        • 주제분류
        • 발행연도
          펼치기
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • SCOPUSKCI등재
      • KCI등재
      • KCI등재후보
      • KCI등재후보

        규칙기반 뉴스 비디오 앵커 TIT 검출방법

        유헌우(Yoo, Hun-Woo),이명의(Lee, Myung-Eui) 한국산학기술학회 2007 한국산학기술학회논문지 Vol.8 No.1

        본 논문은 뉴스 비디오를 색인, 검색하기 위한 관리 시스템의 기본 기술인 앵커 샷을 검출하는 방법을 제안 한다. 이를 위해 현재 가장 많은 사람이 시청하는 ‘KBS 9시 뉴스’와 ‘MBC 9시 뉴스’의 앵커 샷의 특정 요소를 분석 하여 4단계의 규칙기반 검출방법을 제안한다. 먼저 전처리로 비디오의 샷 경계를 검출하고 첫 번째 프레임을 키 프레임으로 선택한 후에 다음의 4가지 조건을 모두 만족하면 해당 샷을 앵커 샷으로 판단한다. 1) 키 프레임에 앵커의 얼굴이 존재하는가의 여부, 2) 에지의 분포가 구조적으로 적합한지의 여부, 3) 배경의 색상 정보를 추출하여 기존의 앵커 모텔의 색상과유사한지의 여부, 마지막으로 4) 샷 내의 움직임 비율이 일정 임계치 이하인지의 여부를 판단한다. 제안된 방법의 성능을 보이기 위해, 총 108분 분량의 서로 다른 날에 저장된 KBS와 MBC의 9시 뉴스 비디오에 대해 실험한 결과 평균적으로 0.97의 정확도와 1.0의 회수율,0.98의 F-값을 얻을 수 있었다. In this paper, an anchor shot detection method, which is a basic technology for managing news videos for index and retrieval purposes is proposed. To do that, two most popular news program such as 'KBS 9 Hour News' and 'MBC 9 Hour News' are analyzed and 4-step rule based detection method is proposed. First, in the preprocessing, video shot boundaries are detected and the 1st frame of each shot is extracted as a key frame. Then, the detected shot is declared as an anchor shot, if all the following 4 conditions are satisfied. 1) There is an anchor face in the key frame of a shot. 2) Spatial distribution of edges in the key frame is adequate. 3) Background color information of the key frame is similar to the color information of an anchor model. 4) Motion rate in the shot is low. In order to show the validity of the proposed method, three 'KBS 9 Hour News' and three 'MBC 9 Hour News', which have total running time of 108 in minute and are broadcasted at different days, are used for experiments. Average detection rates showed 0.97 in precision, 1.0 in recall, and 0.98 in F-measure.

      • 내용기반 검색을 위한 분할된 영상객체간 유사도 판별

        유헌우(Hun-Woo Yoo),장동식(Dong-Sik Jang) 한국정보과학회 2001 한국정보과학회 학술발표논문집 Vol.28 No.2Ⅱ

        본 논문에서는 내용기반 영상검색중 객체기반검새 방법에 대해 다룬다. 먼저 색상과 질감정보가 동일한 영역을 VQ알고리즘을 이용해 군집화 함으로써 동일한 영역을 추출하는 새로운 영상분할기법을 제안하고, 분할 후에 분할에 사용된 색상과 질감 정보, 객체간의 위치정보와 영역크기정보를 가지고 객체간 유사도를 판별하여 영상을 검색한다. 이 때 사용되는 색상의 범위를 몇 개의 주요한 색상으로 표시하기 위해 색상테이블을 사용하고 인간의 인지도에 의해 다시 구룹화 함으로써 계산량과 데이터저장의 효율성을 높인다. 영상검색시에는 질의 영상의 관심객체와 비교대상이 되는 데이터베이스 영상의 여러 객체와의 유사성을 판단하여 영상간의 유사도를 계산하는 일대다 매칭 방법(One Object to Multi Objects Matching)과 질의 영상의 여러 객체와 데이터베이스영상의 여러 객체간의 유사도를 판단하는 다대다 매칭 방법(Multi Objects to Multi Objects Matching)을 제안한다. 또한 제안된 시스템은 고속검색을 실현하기 위해 주요한 색상값을 키(Key)색인화 해서 일치가능성이 없는 영상들은 1차적으로 제거함으로써 검색시간을 줄일 수 있도록 했다.

      • KCI등재

        대화형 유전자 알고리즘을 이용한 감성기반 비디오 장면 검색

        유헌우(Hun-Woo Yoo),조성배(Sung-Bae Cho) 한국정보과학회 2004 정보과학회 컴퓨팅의 실제 논문지 Vol.10 No.6

        본 논문에서는 감성에 기반한 장면단위 비디오 검색방법을 제안한다. 먼저 특정 줄거리를 담은 장면 비디오 클립에서 급진적/점진적 샷 경계 검출 후, “평균 색상 히스토그램”, “평균 밝기”, “평균 에지 히스토그램”, “평균 샷 시간”, “점진적 샷 변화율”의 5가지 특징을 추출하고, 이 특징과 사람이 막연하게 가지고 있는 감성공간과의 매핑을 대화형 유전자 알고리즘(IGA, Interactive Genetic Algorithm)을 통하여 실현한다. 제안된 검색 알고리즘은 초기 모집단 비디오들에 대해 찾고자 하는 감성을 내포하고 있는 비디오를 선택하면 선택된 비디오들에서 추출된 특징 벡터를 염색체로 간주하고 이에 대해 교차연산(crossover)을 적용한다. 다음에 새롭게 생성된 염색체들과 특징벡터로 색인된 데이타베이스 비디오들간에 유사도 함수에 의해 가장 유사한 비디오들을 검색하여 다음 세대의 집단으로 제시한다. 이와 같은 과정을 여러 세대에 걸쳐서 실행하여 사용자가 가지고 있는 감성을 내포하는 비디오 집단들을 얻게 된다. 제안된 방법의 효과성을 보이기 위해, 300개의 광고 비디오 클립들에 대해 “action”, “excitement”, “suspense”, “quietness”, “relaxation”, “happiness” 의 감성을 가진 비디오를 검색한 결과 평균 70%의 만족도를 얻을 수 있었다. An emotion-based video scene retrieval algorithm is proposed in this paper. First, abrupt/gradual shot boundaries are detected in the video clip representing a specific story. Then, five video features such as “average color histogram”, “average brightness”, “average edge histogram”, “average shot duration”, and “gradual change rate” are extracted from each of the videos and mapping between these features and the emotional space that user has in mind is achieved by an interactive genetic algorithm. Once the proposed algorithm has selected videos that contain the corresponding emotion from initial population of videos, feature vectors from the selected videos are regarded as chromosomes and a genetic crossover is applied over them. Next, new chromosomes after crossover and feature vectors in the database videos are compared based on the similarity function to obtain the most similar videos as solutions of the next generation. By iterating above procedures, new population of videos that user has in mind are retrieved. In order to show the validity of the proposed method, six example categories such as “action“, “excitement”, “suspense”, “quietness”, “relaxation”, “happiness” are used as emotions for experiments. Over 300 commercial videos, retrieval results show 70% effectiveness in average.

      • KCI등재

        질의 감성 표시자와 유사도 피드백을 이용한 감성 영상 검색

        유헌우(Hun-Woo Yoo) 한국정보과학회 2005 정보과학회논문지 : 소프트웨어 및 응용 Vol.32 No.3

        본 논문에서는 새로운 감성기반 영상검색방법을 제안한다. 서로 다른 색상, 명도, 도트크기를 나타내는 30개의 랜덤 패턴이 제시될 때 인간이 느끼는13가지 감성(“like”, “beautiful”, “natural”, “dynamic”, “warm”, “gay”, “cheerful”, “unstable”, “light”, “strong”, “gaudy”, “hard”, “heavy”) 평가데이타로부터 질의 칼라코드와 질의 그레이코드로 명명한 질의 감성 표시자를 설계한다. 감성영상검색을 위해서 질의 감성을 선택하면 질의를 표현하는 칼라코드와 그레이코드가 선택되고 데이타베이스의 영상의 색상 정보를 나타내는 DB 칼라코드와 명도와 도트크기 정보를 나타내는 DB그레이코드값을 추출하여, 칼라코드간의 매칭과 그레이 코드간의 매칭을 통해 유사도를 판단한다. 또한 검색과정에 사용자의 의도를 반영하여 질의 칼라코드와 질의 그레이코드사이의 가중치와 칼라코드내의 가중치를 자동적으로 갱신하는 새로운 유사도 피드백 방법을 제안한다. 450개의 영상에 대해 실험한 결과 최초 질의에 대해 적합한 영상이 부적합한 영상보다 많았으며 유사도 피드백을 사용함에 따라 적합한 영상의 개수가 증가하였다. A new emotion-based image retrieval method is proposed in this paper. Query emotion descriptors called query color code and query gray code are designed based on the human evaluation on 13 emotions(“like”, “beautiful”, “natural”, “dynamic”, “warm”, “gay”, “cheerful”, “unstable”, “light”, “strong”, “gaudy”, “hard”, “heavy”) when 30 random patterns with different color, intensity, and dot sizes are presented. For emotion image retrieval, once a query emotion is selected, associated query color code and query gray code are selected. Next, DB color code and DB gray code that capture color and, intensity and dot size are extracted in each database image and a matching process between two color codes and between two gray codes are performed to retrieve relevant emotion images. Also, a new relevance feedback method is proposed. The method incorporates human intention in the retrieval process by dynamically updating weights of the query and DB color codes and weights of an intra query color code. For the experiments over 450 images, the number of positive images was higher than that of negative images at the initial query and increased according to the relevance feedback.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼