http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
PCA와 템플릿 정합을 사용한 눈 및 입 영상 기반 얼굴 표정 인식
우효정(Hyo-Jeong Woo),이슬기(Seul-Gi Lee),김동우(Dong-Woo Kim),유성필(Sung-Pil Ryu),안재형(Jae-Hyeong Ahn) 한국콘텐츠학회 2014 한국콘텐츠학회논문지 Vol.14 No.11
본 연구는 PCA와 템플릿 정합을 사용한 얼굴 표정 인식 알고리즘을 제안한다. 먼저 얼굴 영상은 Haar-like feature의 특징 마스크를 사용하여 획득한다. 획득한 얼굴 영상은 눈과 눈썹을 포함하고 있는 얼굴 상위 부분과 입과 턱을 포함하고 있는 얼굴 하위 부분으로 분리하여 얼굴 요소 추출에 용이하게 나눈다. 얼굴 요소 추출은 눈 영상과 입 영상을 추출하는 과정으로 먼저 학습영상으로 PCA를 거쳐 생성된 고유 얼굴을 구한다. 고유 얼굴에서 고유 입과 고유 눈을 획득하고, 이를 얼굴 분리 영상과 템플릿 매칭시켜 얼굴요소를 추출한다. 얼굴 요소는 눈과 입이 있으며 두 요소의 기하학적 특징으로 표정을 인식한다. 컴퓨터 모의실험 결과에 따르면 제안한 방법이 기존의 방법보다 추출률이 우수하게 나왔으며, 특히 입 요소의 추출률은 99%에 달하였다. 또 이 얼굴 요소 추출방법을 표정인식에 적용하였을 때 놀람, 화남, 행복의 3가지 표정의 인식률이 80%를 상회하였다. This paper proposed a recognition algorithm of human facial expressions using the PCA and the template matching. Firstly, face image is acquired using the Haar-like feature mask from an input image. The face image is divided into two images. One is the upper image including eye and eyebrow. The other is the lower image including mouth and jaw. The extraction of facial components, such as eye and mouth, begins getting eye image and mouth image.Then an eigenface is produced by the PCA training process with learning images. An eigeneye and an eigenmouth are produced from the eigenface. The eye image is obtained by the template matching the upper image with the eigeneye, and the mouth image is obtained by the template matching the lower image with the eigenmouth. The face recognition uses geometrical properties of the eye and mouth. The simulation results show that the proposed method has superior extraction ratio rather than previous results; the extraction ratio of mouth image is particularly reached to 99%. The face recognition system using the proposed method shows that recognition ratio is greater than 80% about three facial expressions, which are fright, being angered, happiness.
이슬기(Seul-Gi Lee),우효정(Hyo-Jeong Woo),유성필(Sung-Pil Ryu),김동우(Dong-Woo Kim),안재형(Jae-Hyeong Ahn) 한국콘텐츠학회 2014 한국콘텐츠학회논문지 Vol.14 No.11
감성 인식은 기계가 작업을 자동적으로 판단하여 인간의 감성을 인식하도록 하는 것이다. 인간의 감성은 매우 주관적이므로 객관적인 측정이 불가능하다. 따라서 감성 인식의 목표는 가급적 많은 사람들이 공감하는 척도를 만드는 것이다. 영상에서의 감성 인식은 영상의 여러 가지 특징을 감성과 매칭하는 방법으로 구현된다. 본 논문에서는 고바야시의 영상 척도를 참고하여 의류 영상에서 색상 특징을 이용한 감성 인식 시스템을 제안한다. 제안 시스템은 영상 척도의 색상 정보를 데이터화하고, 입력 의류 영상에서 추출한 색상을 저장된 색상 데이터와 비교하여 가장 유사한 색상을 찾고, 이 색상과 연관된 감성을 출력한다. 제안된 시스템은 한 의류 영상에서 최대 3개까지 감성을 찾을 수 있다. 제안한 시스템의 성능을 평가하기 위하여 70명의 관찰자가 검사하였다. 그 결과에 따르면 제안한 시스템이 인식한 감성과 관찰자의 감성이 매우 유사하였다. Emotion recognition is defined as that machines automatically recognize human emotions. Because the human emotions is very subjective, it is impossible to measure objectively. Therefore, the goal of emotion recognition is to obtain a measure that is agreed by as many people as possible. Emotion recognition in a image is implemented as the method that matches human emotions to the various features of the image. In the paper, we propose an emotion recognition system using color features of clothing image based on the Kobayashis image scale. The proposed system stores colors of image scale into a database. And extracted major colors from a input clothing image are compared with those in the database. The proposed system can obtain three emotions maximally. In order to evaluate the system performance 70 observers are tested. The test results shows that recognized emotions of the proposed system are very similar to the observers emotions.