http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
모듈화된 신경회로망 중간층 출력의 재학습에 의한 필기체 숫자 인식
류강수(Gang Soo Ryu),진성일(Sung Il Chien) 한국정보과학회 1996 정보과학회논문지(B) Vol.23 No.9
본 논문에서는 필기체 숫자를 인식하기 위한 인식기로서 두 단계의 신경회로망을 제안하였다. 첫번째 단계의 인식기는 총 4개의 부인식기로 모듈화되어 있으며, 각 부인식기의 입력은 서로 다른 특징들을 사용하였다. 두 번째 단계의 인식기는 첫 번째 단계의 모듈화된 각 부인식기의 중간층 출력을 입력 특징으로 사용하였다. 제안된 인식기는 캐나다 Concordia 대학의 필기체 숫자 데이타베이스 6000자로서 성능 시험을 수행하였다. 학습 데이터 4000자에 대한 각 단계별 학습률은 100%였다. 테스트 데이타 2000자에 대한 인식 실험 결과는 98.0%의 인식률을 나타냈다. 또한 출력값의 임계치에 의한 인식 신뢰도 실험 결과는 인식 거절률 4.0%일 때 인식률 95.6%, 오인식률 0.4%로 나타났다. In this paper, we propose two step neuroclassifier for enhancing the recognition accuracy of handwritten numerals. The first step classifier combines four modular subclassifiers using multi-layer perceptrons rule. The input of each subclassifier is comprised of a group of specialized feature sets. The second step classifier also consists of the multi-layer perceptrons. This classifier has new input feature vectors, which correspond of hidden-layer-outputs of the first step subclassifiers. The performance of the proposed classifier was tested on 6000 handwritten numerals database of Concordia University of Canada. The recognition rate of each step for learned database 4000 numerals has shown 100% respectively, A 98.0% of recognition rate was achieved for tested database 2000 numerals. And the typical recognition reliability test employing a rejection threshold value has shown 95.6% recognition, 0.4% substitution and 4% rejection rates.
류강수(Gang Soo Ryu),진성일(Sung Il Chien) 한국정보과학회 1995 한국정보과학회 학술발표논문집 Vol.22 No.2A
본 논문에서는 인쇄체와 필기체가 혼용된 문서를 인식하기 위한 인식기로서 신경회로망을 사용하였다. 인식기는 3단계의 계층적 구조를 가지고 있다. 인식기에 사용된 데이터는 두종류의 필기체 데이터 베이스인 KPNU 데이터와 Concordia 데이터 및 한 종류의 인쇄에 숫자 데이터를 사용하였다. 첫번째 단계는 각 숫자체별로 인식기를 구성하였으며, 두번째 단계와 세번째 단계는 각 전단계의 신경회로망 중간층을 이용하였다. 특히 필기체 숫자는 변형이 심하므로 첫번째 단계에서 필기체 숫자의 인식기는 다중 특징에 따라 모듈화된 구조를 갖는다. 첫번째 단계의 인식률에 비해 첫번째 단계를 통합한 두번째 단계의 인식률이 높게 나타났으며, 이때 숫자체별 인식률은 KPNU의 경우 98.98%, Concordia 데이터의 경우 98% 및 인쇄체 숫자 데이터의 경우는 99.74%를 나타내었다. 세번째 단계는 다중 숫자체를 통합 인식하는 단계로서 각 숫자체별 인식률은 KPNU의 경우 98.08%, Concordia 데이터의 경우 97.1% 및 인쇄체 숫자 데이터의 경우는 98.21%를 나타내었다.
김정준(Jung-Joon Kim),김태훈(Tae-Hun Kim),류강수(Gang-Soo Ryu),이대식(Dae-Sik Lee),이종학(Jong-Hak Lee),박길흠(Kil-Houm Park) 한국지능시스템학회 2013 한국지능시스템학회논문지 Vol.23 No.3
의약품을 자동 포장하는 시스템에서는 캐니스터(Canister)에 해당 약을 정확히 보충할 수 있는 해당 약통과 캐니스터와의 일치 여부를 판단하는 정합 알고리즘이 필수적이다. 본 논문에서는 약화사고 방지를 위해 많은 종류의 약통을 분류하기 위한 분류 성능뿐만 아니라 실시간으로 처리할 수 있는 상·하 계층으로 구성된 계층적 신경회로망을 제안한다. 먼저 약통 정보를 나타내는 라벨 영상으로부터 다수의 저 차원 특징 벡터를 추출한다. 추출된 특징 벡터를 사용하여 하위계층의 다층 퍼셉트론(MLP, Multi-layer Perceptron) 신경회로망을 학습한다. 다음으로 학습된 MLP의 중간층 출력을 입력으로 사용하여 상위계층의 MLP를 학습한다. 100개의 약통에 대해 좌우 30도까지 회전한 영상에 대해 제안한 계층적 신경회로망의 분류 성능 시험과 실시간 연산처리 성능의 우수함을 보였다. In The matching algorithm for automatic packaging of drugs is essential to determine whether the canister can exactly refill the suitable medicine. In this paper, we propose a hierarchical neural network with the upper and lower layers which can perform real-time processing and classification of many types of medicine bottles to prevent accidental medicine disaster. A few number of low-dimensional feature vector are extracted from the label images presenting medicine-bottle information. By using the extracted feature vectors, the lower layer of MLP(Multi-layer Perceptron) neural networks is learned. Then, the output of the learned middle layer of the MLP is used as the input to the upper layer of the MLP learning. The proposed hierarchical neural network shows good classification performance and real-time operation in the test of up to 30 degrees rotated to the left and right images of 100 different medicine bottles.
김태훈(Tae-Hun Kim),김기승(Gi-Seung Kim),송영철(Young-Chul Song),류강수(Gang-Soo Ryu),최병재(Byung-Jae Choi),박길흠(Kil-Houm Park) 한국지능시스템학회 2013 한국지능시스템학회논문지 Vol.23 No.1
본 논문에서는 약병의 크기와 색상정보 특징을 추출하여 약병영상 분류 기법을 제안한다. 약병영상 분류에 있어 유사한 크기와 모양을 지닌 약병이 다양하게 존재하므로, 약병의 한 가지 특징만으로는 약병을 분류하기가 어렵다. 이러한 약병의 분류 문제를 해결하기 위해 본 논문에서는 약병의 크기와 색상정보의 특징을 추출하여 약병을 분류하였다. 제안된 알고리즘의 첫 번째 단계에서는 약병 영상에서 Red, Green, Blue의 이진화 문턱치(Binary threshold)를 이용하여 약병 영역의 MBR(Minimum Boundary Rectangle)을 추출하여 크기로 분류하였고, 두 번째 단계에서는 크기로 분류된 약병영상 가운데 조명의 조도 변화에 강인한 색상(Hue)정보와 RGB 각각의 채널에 대한 컬러 평균 비율 정보를 이용하여 약병을 분류하였으며, 마지막 단계에서는 SURF(Speeded Up Robust Features)알고리즘을 사용하여 데이터베이스에서 특징점을 추출한 후보군 약병영상과 입력 약병영상의 유사도가 가장 높은 약병영상을 검색하여 약병을 분류하였다. 실험을 통해 이러한 방법이 보다 효율적이고 신뢰성 있음을 입증하였다. In this paper, we propose the classification method of medicine bottle images using the features with color and size information. It is difficult to classify with size feature only, because there are many similar sizes of bottles. Therefore, we suggest a classification method based on color information, which robust to illumination variations. First, we extract MBR(Minimum Boundary Rectangle) of medicine bottle area using Binary Threshold of Red, Green, and Blue in image and classify images with size. Then, hue information and RGB color average rate are used to classify image, which features are robust to lighting variations. Finally, using SURF(Speed Up Robust Features) algorithm, corresponding image can be found from candidates with previous extracted features. The proposed method makes to reduce execution time and minimize the error rate and is confirmed to be reliable and efficient from experiment.
이희열(Hee-Yul Lee),이은영(Eun-Young Lee),구은혜(Eun-Hye Gu),최일(Il Choi),최병재(Byung-Jae Choi),류강수(Gang-Soo Ryu),박길흠(Kil-Houm Park) 한국지능시스템학회 2011 한국지능시스템학회논문지 Vol.21 No.2
본 논문은 GrabCut 알고리듬을 기반으로 적외선(infrared; IR) 영상에서 물체를 배경으로부터 분할하는 방법을 제안한다. GrabCut 알고리듬은 관심 있는 물체를 둘러싸는 윈도우가 필요하며, 이는 사용자가 설정한다. 그렇지만 이 알고리듬을 영상 시이퀀스에서 물체인식에 적용하려면 윈도우의 로케이션이 자동으로 결정되어야만 한다. 이를 위해서 본 논문에서는 Otsu 알고리듬으로 한 영상에서 관심은 있으나 알져지지 않는 물체를 적당히 분할하고 블랍 해석을 통해 윈도우를 자동으로 로케이션한다. 그랩 컷 일고리듬은 관심있는 물체와 배경의 확률분포를 추정해야한다. 이 경우에 관심 있는 물체의 확률분포는 자동으로 로케이션된 윈도우 내부의 화소들로부터 추정하고, 배경의 확률 분포는 물체의 윈도우를 둘러싸고 면적은 동일한 영역으로부터 추정한다. 다양한 IR 영상에 대한 분할 실험을 통해 제안한 분할 방법이 IR 영상의 분할에 적합함을 보이고, 기존의 IR 영상 분할 방법과의 비교 및 분석을 통해 제안 알고리듬이 우수한 분할 성능을 보임을 증명한다. This paper proposes a method for segmenting objects from the background in IR(Infrared) images based on GrabCut algorithm. The GrabCut algorithm needs the window encompassing the interesting known object. This procedure is processed by user. However, to apply it for object recognition problems in image sequences. the location of window should be determined automatically. For this, we adopted the Otsu' algorithm for segmenting the interesting but unknown objects in an image coarsely. After applying the Otsu' algorithm, the window is located automatically by blob analysis. The GrabCut algorithm needs the probability distributions of both the candidate object region and the background region surrounding closely the object for estimating the Gaussian mixture models(GMMs) of the object and the background. The probability distribution of the background is computed from the background window, which has the same number of pixels within the candidate object region. Experiments for various IR images show that the proposed method is proper to segment out the interesting object in IR image sequences. To evaluate performance of proposed segmentation method, we compare other segmentation methods.