RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 음성지원유무
        • 학위유형
        • 주제분류
        • 수여기관
          펼치기
        • 발행연도
          펼치기
        • 작성언어

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 적응형 전처리 기법에 기반한 문서 영상의 단어단위 분할에 관한 연구

        정창부 全南大學校 2006 국내박사

        RANK : 248702

        In this paper, we propose a method of decomposing document images into word images based on adaptive preprocessing operations. The proposed method extracts word images from text regions, table regions and image regions. We propose a method for word extraction from text regions by utilizing projection histograms and a hierarchical gap clustering method. First, we divide a text region into text lines by analyzing a horizontal projection histogram, and then compute the gap by analyzing connected components in the divided text line. To divide the text line into words, computed gaps are first classified into inter-word-gaps and inter-character-gaps based on a hierarchical clustering method. The clustering method determines the classification criterion based on the statistical information of gaps within a text line. Since the criterion is determined by the features of an individual text line, an accuracy of word extraction is not sensitive to the changes of font size, language (English, Korean), and resolution of text lines. In addition, two types of special symbols lying between words are detected by using their morphologic features in order to enhance the word image extraction accuracy To extract word images from a table region, we propose a method to divide a table into cell regions and to extract words from cell regions. For cell extraction from a table, an intersection analysis with mask operation is first applied. Then the word extraction from cell regions reuses the method of word extraction from text regions and adds a post-processing procedure for over-divided words. The proposed method can economize computation time by reducing table-sized objects into cell-sized objects. This method can also apply for extracting characters that touch the table frame because the word image extraction occurs within the cell region. To extract word images from image regions, character components need to be separated from graphic components. For this separation process, we propose an application of a box-plot analysis by utilizing structural components. The accuracy of this extraction method is not sensitive to the changes of images because the separation criterion is defined by the statistics of the components as in the method of text regions. The character regions are determined by analyzing the local density of the separated character components, and they are separated into text lines and word images as in the method of table regions. Because the proposed method works adaptively according to the visual characteristics of document images, we were able to reduce the influence resulting from the changes of font size, language (English, Korean), the resolution of document images, and so on. In other words, the proposed method can guarantee a uniform accuracy regardless of the variety of shapes and types of document images. Moreover, through a partial comparison of the proposed method, we were able to demonstrate the excellence of the proposed method by comparing our method with Armi 6.0 Pro^(TM), which is a state-of-the-art commercial OCR software application. Furthermore, although the existing processing research is limited to a text region, we were able to extract word images from entire regions including table regions and image regions utilizing the proposed method. In conclusion, we expect the result of this paper to positively contribute to the development of the Korean character recognition technology, and to be applied effectively to post-processing methods improving the accuracy of OCR and the automatic indexing of words for keyword spotting. 본 논문에서는 문서 형태에 적응적인 전처리 기법에 기반한 문서 영상을 단어단위 영상으로 분리하는 방법을 제안한다. 제안 방법은 문서 영상의 기울어짐 교정과 문서 구조 분석에 통하여 분할 및 분류된 텍스트 영역과 테이블 영역, 그림 영역에서 단어 영상을 추출한다. 텍스트 영역에서 단어 영상을 추출하기 위하여 계층적 군집화 기법을 제안한다. 먼저 수평 투영 히스토그램을 분석하여 문자열을 분리하고, 문자열에 대한 연결 요소 분석을 통하여 갭을 구한다. 문자열을 단어로 분리하기 위해서는 구해진 갭을 문자 간의 갭과 단어 간의 갭으로 분류해야 하는데, 계층적 군집화 기법은 분류의 기준이 되는 값을 문자열에 존재하는 갭에 의해서 결정된다. 특정 값이 아닌 문자열의 형태에 따라 기준이 정해지므로 폰트의 크기, 언어(영어, 한글), 해상도 등의 변화에 민감하지 않는 성능을 보여준다. 또한 보다 정확한 단어 영상을 추출하기 위하여 단어와 단어 사이에 존재하는 특수 기호를 형태적 특징을 이용하여 검출한다. 테이블 영역에서 단어 영상을 추출하기 위하여 테이블을 셀 영역으로 분할하고, 셀 영역에서 단어 영상을 추출하는 방법을 제안한다. 테이블을 셀로 분할하는 것은 마스크 연산을 이용한 교차점 분석을 적용하며, 셀 영역에서 단어 영상을 추출하는 것은 텍스트 영역에서의 방법을 이용하고 과다 분리되는 단어 영상에 대한 후처리를 추가한다. 제안 방법은 테이블 영역에서 셀 영역으로 대상을 축소함으로써 계산량을 줄일 수 있고, 테이블 프레임과 접촉한 문자도 처리할 수도 있다. 그림 영역에서 단어 영상을 추출하기 위하여 문자 성분과 그래픽 성분을 분류해야 하는데, 이에 대한 방법으로 구성 원소들의 통계값을 이용하는 상자그림 분석의 응용을 제안한다. 텍스트 영역에서와 마찬가지로 분류의 기준이 구성 원소들의 통계값으로 결정되기 때문에 제안한 방법의 성능이 그림의 형태에 민감하지 않는다. 그리고 분류된 문자 성분들의 지역적 밀집도를 조사하여 문자 영역을 결정하고, 테이블 영역에서의 방법을 이용하여 단어 영상을 추출한다. 본 논문에서 제안한 방법은 문서의 형태에 적응적으로 수행하기 때문에, 문서의 언어(영어, 한글)나 폰트의 크기, 해상도 등의 변화에 대한 영향을 감소시켰다. 즉, 문서 영상의 종류가 다양하더라도 일관성 있는 성능의 보장을 의미한다. 또한 부분 요소의 비교지만, 현재 OCR의 최첨단 기술인 상용프로그램 아르미와의 비교를 통하여 제안방법의 우수함을 입증하였다. 그리고 기존 연구들이 처리의 대상이 주로 텍스트 영역에 국한하였지만, 제안 방법은 테이블과 그림 영역에서도 단어 영상의 추출을 시도하였다. 따라서 본 논문의 결과는 한글인식기술의 진일보에 기여할 수 있으며, 더불어 OCR의 정확도를 향상시키기 위한 후처리와 주제어 검색을 위한 단어의 자동 색인 등에서 효과적으로 응용될 수 있을 것으로 기대한다.

      • 휴먼비전기반의 얼굴영역 검출 알고리듬 및 3차원 embedded data를 이용한 얼굴인식 시스템에 관한 연구

        박장한 광운대학교 2005 국내박사

        RANK : 248671

        본 논문에서는 2차원 영상의 제약조건인 얼굴의 크기, 거리, 이동, 회전, 입체감(깊이) 등의 불확실한 정보로 인해 얼굴인식률이 떨어지는 문제점을 3차원 Embedded Data를 이용해 개선하고자 한다. 제안된 연구는 사람의 시각 구조와 유사한 휴먼비전의 시각계를 스테레오비전 시스템으로 도입한다. 스테레오비전 시스템은 정확한 거리 및 입체 정보가 추출 가능하므로 보다 강건한 얼굴정보를 추출할 수 있다. SAD, MAD, MSE의 기존 스테레오 정합 방법은 잡음과 빛에 민감하다. 따라서 잡음의 해결은 가우시안 마스크(3×3)를 적용하고, 빛의 민감한 해결은 패턴정합의 NGC(Normalized Gray-level Correlation)를 적용한다. 제안된 스테레오 정합 방법은 좌측영상에서 후보영역의 고유블록(eigen block)(20×10)을 설정하고, NGC를 이용해 우측영상의 제한된 후보영역에서 가장 유사한 블록을 탐색한다. 따라서 좌·우 영상의 시차(disparity)를 추출하고, 삼각 측량법에 의해 거리를 산출한다. 본 논문에서 제안된 3차원 Embedded Data를 추출하기 위한 요소는 눈과 입의 검출, 얼굴영역 검출, 거리와 깊이 정보 추출, PCA 기법 등이다. 얼굴영역의 검출은 고속처리를 위해 RGB컬러공간에서 YCbCr컬러공간으로 변환하며, 타원정합 기술, 거리와 깊이 정보를 적용한다. 눈과 입의 검출은 얼굴 후보영역에서 Multi-Layered relative Gray Map의 템플릿(13×9)을 이용한다. 정규화된 92×112크기의 얼굴영상은 추출된 거리를 통해 기준거리(100㎝)로 확대와 축소를 수행하여 취득한다. 3차원 Embedded Data를 추출하기 위한 학습은 PCA를 적용하며, 정규화된 얼굴의 전체영역을 학습하는 것이 아니라 분할된 특정영역만 학습한다. 따라서 적용된 PCA의 방법은 고속 학습과 실시간 고유벡터를 추출할 수 있다. 3차원 Embedded Data는 고유벡터 값을 고유공간에 투영된 특징벡터이며, 얼굴인식 시스템에 탑재되어 실시간으로 처리할 수 있는 개개인의 특징벡터이다. 얼굴의 분류과정은 Euclidean 거리가 가장 짧은 값을 가지는 얼굴이 출력되며, 실험결과 정면 얼굴인식률은 최고 95.0(%)을 얻을 수 있었다. 또한 인식시간은 평균 3.8×10^(-3(s))이 걸렸다. 따라서 본 논문에서는 3차원 Embedded Data를 제안하여 인식률 향상을 위한 방안과 실시간 얼굴인식이 가능한 모델을 제시하였다. In this paper, we'll improve uncertain information for a face size, distance, movement, rotation and perspective (depth) which is the constraint of 2D image and also the recognition rate dropping using 3D Embedded Data. The proposed research imports the sight system of human vision similar to person's sight structure with the stereo vision system. The stereo vision system can extract more robust face information because it is possible to extract the correct distance and perspective information. The existing stereo matching methods of SAD, MAD, MSE are very sensitive to the noise and light. Therefore, we use Gaussian mask(3×3) as the solution for the noise and use the Normalized Gray-level Correlation(NGC) of pattern matching as the solution for the sensitiveness for the light. The proposed stereo matching method sets the eigen block(20×10) of candidate region in the left image and detects the most similar block in the limited candidate region of right image with NGC algorithm. Therefore, we extract the disparity of the left and right images and product the distance with Trigonometry. There are elements such as face region detection, eyes and mouth detection, distance and depth information extraction and PCA method in order to extract proposed 3D Embedded Data in this paper. In this paper, elements to extract proposed the 3D Embedded Data are face region detection, eyes and mouth's detection, a distance and depth information extraction and PCA method. The detection of face region change YCbCr from RGB color for fast processing. Also, it applies the ellipse matching technology, distance and depth information. It uses the template Multi-Layered relative Gray Map(13×9) in the face candidate region to detect eyes and mouth. The detection of eyes and mouth to use the template Multi-Layered relative Gray Map(13×9). The face image of normalized size of 92×112 acquires to archive scale up and down with the standard distance through the extracted distance. The proposed 3D Embedded Data uses Principal Component Analysis. The applied PCA is training the method of divided special region but not training the normalized facial whole area. Therefore, the applied PCA method can extract the fast training and eigen vector of real time. 3D Embedded Data is special vector which projects the eigen value to the eigen space and special vector of each person which can process in real time with embedded on the face recognition system. The 3D Embedded Data is defined as special vector projected to the eigen space, and it is each single person's special vector who can process by real time becoming embedded on the face recognition system. The classification process of face outputs the face that the Euclidean distance has the shortest value, the frontal face recognition rate can get the best 95.0 (%) as experiment result. Also, the recognition time took average 3.8×10^(-3(s)). Therefore, in this paper, we propose 3D Embedded Data and present the method to raise the recognition rate and the model which can recognize the face in real time.

      • 신경망-영상 기반 실시간 교통 파라미터 측정 시스템 구현

        하동문 亞洲大學校 2005 국내박사

        RANK : 248671

        In this dissertation, the author improves the problems of existing loop detectors and image-based traffic parameter measurement systems via the proposition of a neural-image based traffic parameter measurement method and the implementation of a low-cost embedded system that processes this method real-time. Because laying new pavement or adding more lanes, that is the optimal solution for serious traffic congestion problems, is becoming less and less feasible, thus ITS may be a realistic alternative to solve those problems. Such ITS can be implemented by maximizing the efficiency of existing traffic system's components through efficient control of traffic flow and systematic management of traffic system based on various traffic parameters that are measured real-time via traffic monitoring. Thus real-time measurement of traffic parameter is the prior condition for ITS construction that is firstly resolved. Currently the traffic parameter is mainly measured through the loop detectors of buried under-pavement type and the image-based systems of hung-over-road type. However the loop detectors have problems such as traffic disturbance induction at installation time and excessive expense for repair and management. Also they cannot be used for more sophisticated task such as queue length measurement, vehicle tracking, etc. While the image-based systems measure traffic parameter by processing image acquired by camera thus they doesn't make traffic disturbance and also can measure various traffic parameters. Since the image-based systems process an image that can encompass several lanes or images from multiple cameras, it is often a cost-effective approach. But existing image-based systems are restrictively used because they have a performance degradation problem due to their sensitiveness to environmental change, performance degradation according to the change of outdoor operating conditions, and high installation cost due to their industrial or general computer system based implementation for real-time processing of computation intensive image processing algorithms. This dissertation proposes a neural-image based traffic parameter measurement method and implements a low-cost embedded system that processes this method real-time to improve the problems of existing loop detectors and image-based systems. Firstly the author improves the accuracy of traffic parameter measurement by proposing a neural-image based traffic parameter measurement method. In this method the performance degradation problem of existing vehicle region extraction method is improved via the introduction of a combined method and DBED. This dissertation also proposes a novel approach that uses the feature information extraction method and neural network to improve the accuracy of vehicle detection and classification. And the author resolves the performance degradation and high expense problems of existing industrial computer based systems by implementing the proposed neural-image based method on a low-cost embedded system. To achieve this, the author makes it possible to measure traffic parameter real-time on a low-cost embedded system via a DBED that reduces the computation amount through an implementation method using the decomposable median filter and decomposition property of morphological operation and a hardware implementation of the digital pulse mode neural network that reduces the computation time of neural network implemented via software. The proposed neural-image based real-time traffic parameter measurement system achieved the vehicle detection rate higher than 97[%] and vehicle classification rate higher than 92[%] in the performance evaluation experiment using test data collected on various road and under various weather and lighting condition. Also the proposed system can process more than 20 frames[size : 320x240, color : 8-bit grayscale] per second thus which proves that it has the ability of real-time traffic parameter measurement. Moreover the proposed system successfully measured traffic parameters concerning traffic flow, such as vehicle count and vehicle speed. 본 논문에서는 신경망-영상 기반 교통 파라미터 측정 방법의 제안과 이의 실시간 수행을 위한 저가의 내장형 시스템 구현을 통해 기존 루프 검지기와 영상 방식 교통 파라미터 측정 시스템의 문제점을 개선한다. 오늘날 여러 가지 사회적, 경제적 요인으로 인해 교통문제 해결을 위한 최선책인 신규 도로 건설과 차로 확장이 점점 제한되고 있는 현실을 고려할 때 ITS는 이의 해결을 위한 현실적인 대안이다. 이러한 ITS는 다양한 교통 파라미터의 실시간 측정을 통해 교통흐름을 유기적으로 제어하고 도로 및 교통체계를 효율적으로 정비하여 기존 교통 시스템 구성요소들의 효율성을 극대화함으로써 실현된다. 그러므로 교통 파라미터의 실시간 측정은 ITS 구축을 위해 선결되어야할 기본 전제조건이라고 할 수 있다. 현재 교통 파라미터 측정은 주로 지하 매설형인 루프 검지기와 지상 거치형인 영상 기반 시스템을 통해 이루어진다. 그러나 루프 검지기는 설치 시 교통 혼잡 유발, 과도한 유지보수 비용, 그리고 대기행렬길이 측정, 차량추적 등과 같은 정교한 교통 파라미터 측정 작업을 수행할 수 없다는 문제점이 있다. 반면에 영상 기반 시스템은 카메라로부터 획득한 영상을 이용하여 교통 파라미터를 측정하므로 위와 같은 교통 혼잡을 발생시키지 않으며 다양한 교통 파라미터의 측정이 가능하다. 또한 영상 기반 측정 시스템은 다 차로 영상 또는 여러 대의 카메라로부터 입력되는 복수 개의 영상을 단일 시스템에서 동시에 처리할 수 있으므로 비용 효율이 높은 접근방법이다. 그러나 기존 영상 기반 시스템은 주변 환경 변화에 민감하기 때문에 루프 검지기보다 차량검출 성능이 저하되고 연산량이 많은 영상처리 알고리즘의 실시간 수행을 위해 대부분 고성능 CPU를 탑재한 산업용 또는 범용 컴퓨터를 기반으로 구현되기 때문에 외부 동작조건 변화에 따른 성능저하와 설치비용이 높다는 문제점으로 인해 활발한 도입이 제한되고 있는 실정이다. 본 논문에서는 이러한 기존 루프 검지기와 영상 기반 시스템의 문제점을 개선하기 위해 신경망-영상 기반 교통 파라미터 측정 방법을 제안하고 이를 실시간으로 수행하는 저가의 내장형 시스템을 구현한다. 먼저 신경망-영상 기반 교통 파라미터 측정 방법을 제안하여 교통 파라미터 측정 정확도를 향상시킨다. 이를 위해 기존 차량영역추출 방법의 주변밝기 변화, 그림자, 그리고 전조등의 영향으로 인한 성능저하 문제를 결합 방법과 DBED를 도입하여 개선한다. 또한, 차량검출과 차종분류 정확도 향상을 위해 특징정보추출 방법과 신경망을 이용한 새로운 접근 방법을 제안한다. 그리고 제안한 신경망-영상 기반 방법을 저가의 내장형 시스템에서 실시간으로 구현함으로써 기존 산업용 컴퓨터 기반 시스템의 성능저하와 고비용 문제를 해결한다. 이를 위해 본 논문에서는 분해가능 중간값 필터와 형태학 연산의 분해 특성을 이용한 구현 방식을 통해 연산량을 감소시킨 DBED와 디지털 펄스 모드 신경망의 하드웨어 구현을 통해 소프트웨어 방식 신경망의 연산시간을 감소시킴으로써 저가의 내장형 시스템에서 실시간 교통 파라미터 측정이 가능하도록 한다. 마지막으로 교통흐름과 관련된 파라미터들인 차량통과대수와 차량속도는 차량추적 방법을 통해서 측정한다. 제안한 신경망-영상 기반 실시간 교통 파라미터 측정 시스템은 다양한 도로, 날씨, 그리고 밝기 조건에서 획득한 실험 데이터를 이용한 실험에서 97[%] 이상의 차량검출률과 92[%] 이상의 차종분류율을 나타내었다. 또한 제안한 시스템은 320×240 크기의 8-비트 그레이 레벨 영상을 초당 20[프레임] 이상 처리할 수 있으므로 실시간 교통 파라미터 측정이 가능함을 확인하였다. 아울러 교통흐름과 관련된 파라미터인 차량통과대수와 차량속도를 성공적으로 측정하였다.

      • 자동화 공정에서의 저화질 제품식별번호 인식

        안인모 단국대학교 2003 국내박사

        RANK : 248671

        자동화 공정의 효과적인 관리를 위해서는 제품 또는 부품의 자동 분류, 공정 상태의 감시 확인이 매우 중요하며, 이 과정을 효과적으로 수행하기 위해서는 제품정보를 담고 있는 제품식별번호를 빠르고 정확하게 인식하여야 한다. 그러나 제품식별번호는 재질 특성, 문자 표기 방법 및 위치, 배경의 형태에 따라 육안 식별이 곤란함은 물론, 영상 취득 장치를 이용하여 영상데이터를 얻은 경우에도 문자 영역 검출이 불가능할 만큼 영상 품질이 매우 좋지 않은 경우가 적지 않아 자동화 공정의 효율을 떨어뜨리는 요인이 되고 있다. 본 논문의 목적은 자동화 공정 내의 제품식별번호 인식시스템의 성능을 개선하기 위한 대책으로서 저화질의 제품식별번호를 자동 인식하기 위한 영상처리 기법을 제시하고 이를 이용한 비전시스템을 구현하여 그 성능을 검토함에 있다. 먼저, 일반적 영상처리 방법으로는 문자 인식이 곤란한 저화질 영상의 문자 영역 탐색과 개별 문자로의 분리에 적용하기 위하여 능동 다중 템플레이트(active multiple template) 정합법을 제안한다. 능동 다중 템플레이트 모델은 문자열 구성에 따라 다양하게 변화하는 개별 문자들을 능동적으로 추적하면서 영역을 분리하는 방법이다. 능동 다중 템플레이트 기법은 입력영상의 자간 거리 변화에 따라, 각 템플레이트 간의 간격을 자동 조정하여 다중 템플레이트의 효과를 극대화하는 기법으로 최적의 템플레이트 간격을 구하기 위해 snake 알고리즘을 적용하고 탐욕적 방법(greedy algorithm)으로 이를 구현함으로써 문자 영역 검출과 문자 분리 성능을 개선한다. 문자영역이 검출된 개별 문자들은 이치화 및 크기의 정규화 과정을 거친 후, 그물망 특징을 추출하여 신경망으로 인식한다. 문자인식을 수행할 신경회로망의 학습을 위해 다수의 실제 시편데이터를 얻기 어려운 점을 고려하여 소수의 시편데이터 만을 얻은 다음, 이들을 근거로 잡영 모델(noisy image model)을 발생시켜 학습 패턴으로 사용하는 방법을 제시하고 그 유용성을 실험적으로 검토하였다. 제안된 기법들의 유용성을 검증하기 위해 기존 기법에 의한 문자영역의 추출과 분리가 곤란한 저화질 영상을 대상으로 실험을 실시하였다. 실험 영상은 HD TV(high definition television) 및 컴퓨터 모니터용 브라운관 유리 패널에 새겨진 레이저 마킹 식별자와 반도체 웨이퍼 식별번호(wafer ID) 등이다. 실험 결과 기존의 OCR 알고리즘으로 인식이 불가능한 영상에 대해 문자 분리가 성공적으로 이루어지고, 인식 결과도 매우 양호하여 실질적 적용이 가능함을 확인하였다. In many advanced automation processes, the overall performance is largely dependent on the performance of the machine vision system employed for the recognition of product identification numbers that carry the product information that will be used for the classification of the materials, the verification of their status in a process, and efficient management of the process. Unfortunately, the performance enhancement of the vision system is known to be a difficult problem because these identification numbers usually have low-quality images. Sometimes they cannot be perceived with the naked eye due to the variations in the characteristics of product materials, character positions, inscription methods, and background types. In many cases, the quality of images acquired through an image acquisition hardware is very poor and the recognition systems fail even to search these character areas. The purpose of this research is to suggest and to implement an automatic recognition system for very low-quality product identification numbers in the factory automation process. An active multiple template matching method is proposed to search character areas and to segment them into meaningful regions for low-quality images. Two main features of the proposed method are the use of multiple templates and the adoption of a snake algorithm to optimize the distance between the templates. Comparing to the single template model, the multiple template model inherently contributes to the increase of the difference in the matching score between the candidate template models, and the optimization algorithm further increases the differences(score) by controlling the distance between every successive two templates. Another contribution of this study is the proposition of a training patterns generation method by which arbitrary number of training patterns can be generated from only a few couples of typical product samples in place of the real images of all types of good products. To verify usefulness of the proposed methodology, various experiments are conducted for a few kinds of low-quality images such as wafer ID and characters/marks on glass panels of Brown tubes for HD(high definition) television and computer monitors. It is noteworthy that an artificial neural network is employed to improve the recognition system performance. While the conventional methods are fail to recognize ID numbers mainly due to the difficulties in the character area detection and segmentation, the proposed ID number recognition system shows very good character area searching/ segmentation performance and recognition results for the low-quality images acquired from glass panel marks and wafer ID numbers

      • 칼라 영상내의 객체 추출을 위한 분할 영역간의 관계성 분석 기법

        이승수 建國大學校 2005 국내박사

        RANK : 248671

        한글초록:본 논문은 칼라 영상의 영역 분할에서 추출된 각 영역간의 등조선(isophote)의 변화를 분석하여 영역 간의 효율적인 정합을 통해 의미 있는 객체 분리의 방법을 제시한다. 컴퓨터를 이용한 영상의 사용이 증가함에 따라 영상에 포함된 정보를 이용하기 위한 시도들이 다양하게 이루어지고 있다. 그 중에서도 영상에 포함된 객체를 활용하는 영상 데이터 베이스의 인덱싱(indexing), 내용 기반 검색(content based retrieval), 영상 인식 및 변환 등이 주류를 이루고 있다.영상에 포함된 객체 영역은 단일 색상이나 단일 영역으로 구성되기 보다는 여러 개의 영역(area)이나 다양한 색상(color)을 포함하고 있으므로 하나의 객체가 여러 개의 영역으로 분할되어 있거나 복합적으로 구성되어 있는 것이 더 일반적이다. 특정 객체 내에 무질서하게 반복되거나, 여러 가지 색으로 표현되는 무늬, 문자 또는 도형 등과 같이 복잡한 영역이 존재할 경우, 각 영역을 독립적인 영역으로 인식하게 되는 단점이 발생하며, 효율적인 영역 정합에 의한 객체 분리를 할 수 없는 상황이 발생한다.기본적으로 색상 정보에 기초하여, 이러한 영역들을 병합하여 의미 있는 객체 영역을 추출하는 것은 쉬운 일이 아니다. 정밀한 영상 분할을 위해서는 픽셀 단위의 정교한 영역 경계 추출이 요구되지만, 이러한 방법은 너무 많은 시간이 소요되고 텍스처에 의해 영역이 세분화되어 객체의 분리가 어렵게 된다. 또한, 객체 내부에 존재하는 그림자, 하이라이트, 불규칙한 패턴 등에 의해 객체 단위의 영역 추출이 어렵게 된다. 일반적으로 영역구분과 병합을 위해 칼라 분포 유사도나 텍스처 분포 유사도를 이용하여 영역을 분할, 병합하는 방법을 이용한다. 그러나 이러한 방법은 영역간의 관계(relationship)가 고려되지 않는 문제가 발생하게 된다.만약, 하나의 객체 내에 존재하는 영역들이 상이한 칼라의 집합으로 구성되어 있다면, 해당 객체는 독립적인 영역들로 분할되기 때문에 객체의 의미가 상실된다. 따라서 영역에 대한 칼라 정보 외에 다른 지식 정보를 선택적으로 적용할 수 있는 방법이 요구된다. 이러한 방법론으로 본 논문에서는 영상을 구성하는 색상 정보 외에 입체감을 표현하기 위한 방법으로 명암의 등가를 연결한 등조선의 형태분석을 이용하고 있다. 그리고 분석된 정보를 통해 영역 간의 독립, 종속 여부를 판단하여 객체의 의미 있는 영역 정합을 통한 객체 분리의 방법을 제시하고 있다 영문초록:This paper intends to propose a way of significant object isolation by analysing changes in the isophotes of the areas of a color image that are extracted through region segmentation and by efficient matching of the areas. As computers are increasingly utilized for images, many attempts to use information included in the images are being made. Among the attempts, indexing of image database, which uses objects in images, content-based retrieval, image recognition, and transformation are representative. An object area in the image includes several areas or various colors, not one color or one area so in general, an object is segmented into several areas or it is complexly designed. In case a particular object has complex areas like patterns, letters or figures of various colors, or in case it has areas that are repeated in disorder, each area may be recognized as an independent one and further, it gets impossible to isolate an object through efficient regional matching. Basically, it is not easy to merge these areas based on color information and then, to extract a significant object area. Precise image segmentation requires elaborate extraction in pixel of regional border, but it requires too much time and areas get segmented on the basis of textures so object isolation becomes difficult. And, because of shades existing in an object, highlight, and irregular patterns, it becomes difficult to extract an object area. In general, for zoning and merging, color distribution similarity or texture distribution similarity is used. However, this method doesn’t consider relationship among the areas, which is the problem.If the areas existing in an object are composed of different color sets, the applicable object is segmented into independent areas so it gets to lose the meaning as an object. Therefore, it is required to selectively apply other information on the areas in addition to color information. Based on this methodology, this study, in addition to color information, has also analysed the shape of isophotes that connect equivalence of brightness as a way of expressing cubic effect. And, through the analysed information, it has judges independence or dependence of the areas, and then, proposed a way of object isolation through significant regional matching of an object

      • 보로노이 거리와 기하정보를 이용한 영상 등록에 관한 연구

        배기태 全南大學校 2006 국내박사

        RANK : 248671

        본 논문에서는 제약되지 않은 카메라에서 얻어진 회전과 크기 변화를 가진 영상들을 특징 기반의 보로노이 거리 매칭 방법을 이용하여 등록하는 기법에 관해 기술한다. 기존의 특징점 기반 매칭 기법들이 사람의 개입에 의해 영상을 정합하거나, 크기나 회전 변화를 고려하지 않은 형태의 영상들을 처리하는 것과 달리 회전이나 크기변화요소가 포함된 입력영상들을 사람의 개입이 없이 자동으로 정확한 중첩영역을 빠르게 검색하는 방법을 제안한다. 또한 특징 점들의 위치 정보를 이용하여 새로운 특징 공간을 빠르게 생성하는 방법을 제안 한다. 논문의 전체 과정을 살펴보면 먼저 영상내의 특징 점을 잡음에 강한 Susan 코너 검출기와 조명변화에 강한 Harris 코너 검출기를 사용하여 추출하고, 둘째로 이를 통해서 얻어진 특징 점들의 고유값 및 분산정보를 기반으로 가장 두드러진 샘플 특징 점 집합을 자동 선택한다. 구해진 특징점을 기준으로 기준 영상에 대해 우선 순위 기반 보로노이 거리 계산 방법을 이용하여 특징 점들의 위상 정보와 특징 점들 사이의 거리 정보를 가지는 보로노이 맵을 생성한다. 다음으로 샘플 특징점 집합이 포개지는 기준 영상의 보로노이 평면에서 보로노이 거리의 합이 최소화되는 대응점을 추출하여 2차원 투영의 초기 변환 행렬을 구한다. 다음으로 비선형 자승오차 최적화 알고리즘을 이용하여 최적의 변환 행렬을 구한 후, 마지막으로 구해진 변환 행렬을 이용하여 고속으로 영상을 합성한다. 제안한 방법의 장점은 첫째로 영상간의 중첩이 일어날 부분을 제한하고, 특정한 샘플 영역 안에서만 특징 점을 구하는 방법을 사용하여 대응영역을 찾는데 걸리는 계산시간을 줄였다. 둘째로 샘플 영역 내의 특징 점들의 기하 위상 정보와 특징점 사이의 거리 정보를 가지는 보로노이 맵(Voronoi Map)을 이용하여 샘플 영역내의 특징 점들의 배열구조가 유사한 대응영역을 쉽고 빠르게 검색할 수 있다. 셋째로 우선순위 기반 보로노이 거리 계산법에 의해 특징점 수에 상관없이 빠르고 효율적인 특징 공간을 구성할 수 있으며, 넷째로 특징 점들의 기하 위상 정보를 이용하여 회전이나 크기가 다른 영상 간에 정합영역을 검색하는데 있어서 좋은 성능을 나타낸다. 실험 결과를 통해 본 논문에서 제시한 알고리즘이 기존의 대응점 검색 방법들에 비해 검색 속도 및 정합영역의 매칭률, 샘플 영역 선택 자동화 부분에서 좋은 성능을 나타냄을 알 수 있다. This thesis describes image registration technique that registers images with different size and rotation element by using Voronoi distance matching method based on feature point. This thesis proposes scale and rotation invariant searching method without user-interaction unlike the conventional methods which match images by user-interaction or do not consider rotation and scale element. Also, this thesis presents a method which makes a new feature space rapidly using position information of feature points. The whole process is as follows: First, it extracts feature points from adjacent images by well-known detectors like Susan or Harris corner detector. Secondly, it selects the dominant sample patch area automatically using the eigenvalue and variance information of feature points. Thirdly, it creates a voronoi map which has distance information among feature points in the reference image with Voronoi distance computation method based on priority-order. Fourthly, it extracts the nearest overlapping area from the candidate areas in the Voronoi surface of reference image which is overlapped with the sample area using Voronoi map and calculates the initial transform matrix. And then, it calculates the accurate transform matrix with Levenberg-Marquardt method. Finally, those images are stitched into one large scale image by applying the transform matrix. This technique has several advantages. First, it can considerably reduce computation quantity by restricting overlapped area between images and using a method which extracts feature point from only the particular area in input image. Second, it can rapidly search exact correspondent area with a structure similar to array structure of feature points in sample area by using geometry-phase information of extracted points in images and the Voronoi map which has the distance value among feature points. Third, it can rapidly compose a efficient feature space regardless of the number of feature points using Voronoi distance computation based on priority-order. Finally, it has a good performance to search exact correspondent area among images with different scale and rotation element. From the experimental result, it is guaranteed that this thesis presents a good performance in the searching speed and the accuracy of area matching and automatic sample selection comparing to other registration method.

      • 저 품질 한글 문서 영상의 검색을 위한 문자 분할 및 키워드 매칭

        박상철 全南大學校 2006 국내박사

        RANK : 248654

        본 논문에서는 저 품질 한글 문서 영상의 검색을 위한 두 가지 문자 분할 방법과 문자 모델 및 SVM(support vector machine)을 이용한 키워드 매칭을 제안한다. 문자 분할의 첫 번째 방법은 투영 프로파일 기반 개선된 문자 분할 방법이다. 이 방법은 분할 가능한 세 가지 문자수 추정, 분할 점 획득 및 문자 경계 탐색, 최적의 분할 결과 선택으로 구성된다. 두 번째는 근접한 문자들이 서로 연결된 저 품질 문서 영상에 적합한 분할 방법이다. 이 경우 연결요소를 제거하기 위해 투영 프로파일의 일부를 잘라내는데, 이를 이라 한다. 그 후 전자의 방법을 변형하여 문자 분할을 수행한다. 제안한 키워드 매칭은 특징 추출, 문자 모델 설계, SVM을 이용한 키워드 매칭으로 구성된다. 특징 추출은 한글 문자를 표현하기 위해 잘 알려진 메쉬, 프로파일 그리고 웨이블릿 특징 추출 방법 중, 실험을 통해 우수한 성능을 보인 메쉬 특징을 선택한다. 문서 영상은 획득 과정에서 변형이 일어날 수 있고, 다양한 폰트로 작성된다. 문자 모델 설계에서는 이러한 영상의 변이와 여러 폰트에 강인한 검색어를 만들고자 문자 모델을 제안한다. 마지막으로 단어 영상의 유사함을 판별하기 위해 SVM을 이용한 키워드 매칭을 제안한다. 본 논문에서 제안한 문자 분할 방법의 성능을 평가하기 위해 43,572개의 한글 단어 영상을 대상으로 실험한 결과, 투영 프로파일 기반 개선된 문자 분할 알고리즘이 91.81%, 투영 프로파일에 을 적용한 알고리즘이 99.57%의 문자 분할 성공률을 보였다. 또한 제안한 키워드 매칭과 OCR 누적 인식 기반 검색 방법을 비교한 결과, 저 품질 한글 문서 영상에서의 내용기반 검색으로 OCR을 이용한 방법보다 키워드 매칭이 효과적임을 입증하였다. 더불어 두 이미지의 유사성을 판단함에 있어 SVM이 베이즈 결정규칙이나 신경망보다 더욱 우수함을 입증하였다. In this paper, we propose two character segmentation methods and a keyword matching technique using character models and a support vector machine (SVM) for the retrieval of low quality Korean document images. The first segmentation method is an improved version of a projection profile-based method. It involves estimating the number of characters, obtaining the split points and then searching for each character's boundary, and selecting the best segmentation result. The second one is developed for low quality document images including adjacent characters which are connected. In this case, parts of the projection profile are cut to resolve the connection between the characters. This is called as . Afterwards, the revised former segmentation procedure is conducted. The keyword matching technique is composed of feature extraction, designing character models, and keyword matching by SVM. In the feature extraction procedure, we choose a mesh feature, which has the best performance in the experiment among well-known features such as mesh, profile, and wavelet, for describing a Korean character. Document images could be written in various fonts and distorted during the acquisition. In designing the character models, we propose character models to produce a robust keyword against different fonts and distortions. Lastly, we propose keyword matching using a SVM to discriminate the similarity between two word images. To evaluate the proposed character segmentation methods, we conducted an experiment with 43,572 Korean word images. An improved projection profile-based character segmentation method and a method appling to a projection profile had 91.81% and 99.57% success rates, respectively. We also demonstrated that the proposed keyword matching is more effective than an accumulated OCR-based searching method for content-based retrieval on low quality Korean document images, and the SVM is better than Bayesian decision or artificial neural net for determining the similarity of two images.

      • 원격진료 응용을 위한 TMO 기반의 의료영상 처리 시스템 개발

        이수진 건국대학교 2005 국내박사

        RANK : 248639

        영문초록: Today, demands on an effective telemedicine system have been ever increasing. With advances in information technologies and telecommunication technologies, construction of an effective telemedicine system becomes possible. In addition, the ubiquitous computing paradigm leads application areas of embedded systems to become much broader. Many fields including the telemedicine field are affected by this phenomenon. Now, research and development for various medical systems is being conducted, for example, u-hospital, telemedicine used IMT 2000 service, and web-based PACS. However, most of current telemedicine systems depend on special platform/devices and those are not compatible each other. Also, research on the telemedicine field in ubiquitous or distributed environments has not been carried out yet. In this paper, we propose a TMO based medical image processing system for telemedicine applications, named u-KoMIPS (ubiquitous Konkuk Medical Image Processing System), based on the time-triggered message-triggered object (TMO) structuring scheme that is a distributed real-time object model. The u-KoMIPS is designed with the TMO model and its execution environment is based on TMOSM/Linux that is an execution engine for a TMO structured program on Linux. The purpose of the u-KoMIPS is that it helps developers to design complex distributed real-time medical image processing system in ubiquitous or distributed environments. In order to achieve this goal, the u-KoMIPS consist of 7-medical image processing service objects, MIAcquisition TMO, MIProcess TMO, MIAnalysis TMO, MIDicom TMO, MIDisplay TMO, MISManager TMO, and MIService TMO. The u-KoMIPS provides a set of analysis functions such as ROI (region of interest) setting, contrast adjust, and MCA (multi-channel analyzer), and a set of image processing functions such as filtering, edge detection, and binary arithmetic. Also, the u-KoMIPS can acquire a medical image from various medical image scanners (e.g., MRI, CT, gamma camera, etc.), converts it into a DICOM image, and transfers the DICOM image to one or more clients. Then, a client can analyze, process, and diagnose the DICOM image. In conclusion, we expect that telemedicine applications based on our system would accurately acquire a medical image from various medical image devices and efficiently analyze it

      • 영상 검색을 위한 히스토그램 정합 알고리즘

        유기형 全北大學校 2007 국내박사

        RANK : 248639

        The number of digital images and video that are being captured and stored is increasing rapidly. In order to use this information effectively, an efficient retrieval technique is required. One major development in this area is content based image retrieval, which uses image features for image indexing and retrieval. Content-based image retrieval (CBIR) is a promising approach to search through an image database by means of image feature, such as appearance, color, texture, shape, pattern, or a combination these factors . Among different types of low level features, color is the most basic of information, which can be easily retrieved from digital images, using a simple and compact description, while others require more pre-processing and computational tasks such as pattern recognition or texture analysis. Feature vectors can be calculated efficiently because of image invariance to rotation and translation of the content. In the early 90’s, Swain and Ballard first proposed that the color of an image can be represented through a color histogram . Then, they performed similar retrieval by evaluating the histogram intersection between query image and database images. After, many researchers proposed the use of different kinds of color histograms as feature vectors to be stored in the index. Histogram intersection method(HIM), perceptually weighted histogram(PWH) method, merged histogram method(MHM), and gaussian weighted histogram intersection(GWHI) were introduced. They could get good result in image retrieval. In conventional histogram method, the lighting conditions alters the histogram of an image. Even two pictures with little difference in lighting conditions can not easily be matched. In this thesis, we proposed histogram matching algorithm(HMA), to overcome the problem of image changed by intensity or color in the image retrieval. In HMA, histogram bin of query image matches histogram bin of database image. HMA is insensitive to lighting change. In the experiment results, the proposed histogram matching algorithm(HMA) can achieve up to 32% and up to 30% more recall than PWH and GWHI method, respectively. Also, HMA can achieve up to 38% and up to 34% more precise than PWH and GWHI, respectively. HMA is almost invariant to lighting change. We can reach a following conclusion about the histogram matching algorithm by the study experiment. This algorithm is effective to retrieve the images that have high similarities in visual side and the color distribution. It is effective to retrieve the images that have high similarities in visual side and histogram color distribution forms. ① It is effective to retrieve the images that the color tone is changed entirely by the change of environment itself. ② It is effective to retrieve the images that get bright or dark entirely by the light.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼