RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
          펼치기
        • 등재정보
          펼치기
        • 학술지명
          펼치기
        • 주제분류
          펼치기
        • 발행연도
          펼치기
        • 작성언어

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • System Development Network

        차의영,박승규 한국정보과학회 1983 한국정보과학회 학술발표논문집 Vol.10 No.1

        지난 한해동안 우리는 모든 사람들의 공동의 노력을 통하여 System Development Network을 개발하였다. 여기서는 System Development Network에 대한 소개와 설치를 하는데 당면했던 문제점을 설명하고 있다. We have been developed the System Development Network during last year. This paper briefly describes the Mtroduction of system Development Network and the problems we have been confronted with.

      • System Development Network에 대한 소개

        차의영,박승규 한국정보과학회 1982 한국정보과학회 학술발표논문집 Vol.9 No.2

        이 논문은 KIET의 Computer Architecture개발 프로젝트중의 하나인 system architecture의 system development network을 설명한 것이다. This paper briefly describes SDN which is the research subject of global network in Computer Architecture Development Project which is doing in KIET now.

      • 조명 제거를 이용한 객체 움직임 탐지 시스템

        차의영(Eui-Young Cha),허우형(Woo-Hyung Heo),구은진(Eun-Jin Goo) 한국컴퓨터정보학회 2013 한국컴퓨터정보학회 학술발표논문집 Vol.21 No.1

        본 논문은 조명을 제거한 차영상을 이용하여 객체의 움직임을 탐지하는 시스템을 제안한다. 먼저, 입력받은 RGB영상을 Lab영상으로 변환하여 L채널 영상을 분리해낸다. 분리해낸 L채널 영상을 반전시켜 역 조명 영상을 만들어 원 영상과 합성한다. 그 후 만들어진 영상에 모폴로지 기법을 적용하고, 잡음 제거를 위해 크기 필터링을 사용한다. 그리고 배경 영상과 현재 영상의 차영상을 이용하여 객체의 움직임을 탐지한다. 실험 결과 제안된 시스템은 조명이 밝거나 어두워 영상 분석이 힘든 경우, 제대로 분석되지 않은 배경과 전경에 있어서 더욱 효과적으로 작동함을 증명한다.

      • 군복의 색깔을 이용한 피아식별 기법

        차의영(Woo-Hyung Heo),구은진(Eun-Jin Gu),허우형(Eui-Young Cha) 한국컴퓨터정보학회 2013 한국컴퓨터정보학회 학술발표논문집 Vol.21 No.1

        본 논문에서는 차세대 무인 군사 로봇에 활용할 수 있는 적군 및 아군 식별 수단으로 군복의 색깔을 이용한 기법을 제안한다. 이 기법은 전장지역의 군사로봇이 할 수 있는 피아식별법 중에 하나로 로봇에 부착되어 있는 카메라 외에 추가적으로 가져야 하는 장비가 필요 없기 때문에 추가비용 없이 효과적으로 적군을 포착할 수 있다. 군복의 색깔 차이를 식별하기 위해서는 먼저 HOG(Histogram of Oriented Gradients) 기법을 이용하여 사람을 검출한 다음, 이후 검출된 사람영역에 대하여 인체 비율을 고려해서 추출한 상의 부분의 색깔 데이터를 받는다. 이때 색공간은 HSV 공간으로 하여 조명의 변화에 덜 민감하도록 하였다. 북한 군복 색깔 영역의 pixel들만 추출하여 이진화를 한 후, 상의 전체 픽셀에 대한 개수 비율을 계산한다. 비율이 임계값 보다 높을 경우 적으로 인식한다.

      • KCI등재후보
      • 화산재 확산을 계산하는 프로그램에 대한 연구

        여재윤,차의영,조민혁,디니,김민하 한국방재학회 2012 한국방재학회 학술발표대회논문집 Vol.11 No.-

        본 논문에서는 백두산 화산 분출시 화산재의 확산이 한반도에 미치는 영향을 분석하기 위하여 화산재 확산을 계산하는 프로그램인 Puff, Fall3D, Tephra 모델에 대해 연구하였다. 연구에서 세 가지 프로그램의 구성 및 설치환경, 기본적인 특성파악 및 장단점을 분석하였으며, 모델링을 위한 입력 조건을 비교하고 각 모델의 계산 결과에 대해 테스트하였다.

      • KCI등재

        한글 인식을 위한 CNN 기반의 간소화된 GoogLeNet 알고리즘 연구

        김연규,차의영,Kim, Yeon-gyu,Cha, Eui-young 한국정보통신학회 2016 한국정보통신학회논문지 Vol.20 No.9

        CNN(Convolutional Neural Network)을 사용한 심화 학습이 다양한 분야에서 진행되고 있으며 관련 연구들은 이미지 인식의 많은 분야에서 높은 성능을 보이고 있다. 본 논문에서는 한글 인식을 위해 대규모 한글 데이터베이스를 학습할 수 있는 CNN 구조의 간소화된 GoogLeNet을 사용한다. 본 논문에 사용된 데이터베이스는 대규모 한글 데이터베이스인 PHD08로 총 2,350개의 한글 문자에 대해 각 2,187개의 샘플을 가져 총 5,139,450개의 데이터로 구성되어 있다. 간소화된 GoogLeNet은 학습의 결과로 학습 종료 시점에서 PHD08에 대해 99% 이상의 Top-1 테스트 정확도를 보였으며 실험의 객관성을 높이기 위해 PHD08에 존재하지 않는 한글 폰트로 이루어진 한글 데이터를 제작하여 상용 OCR 프로그램들과 분류 성능을 비교하였다. 상용 OCR 프로그램들은 66.95%에서 83.17%의 분류 성공률을 보인 반면, 제안하는 간소화된 GoogLeNet은 평균 89.14%의 분류 성공률을 보여 상용 OCR 프로그램들보다 높은 분류 성공률을 보였다. Various fields are being researched through Deep Learning using CNN(Convolutional Neural Network) and these researches show excellent performance in the image recognition. In this paper, we provide streamlined GoogLeNet of CNN architecture that is capable of learning a large-scale Korean character database. The experimental data used in this paper is PHD08 that is the large-scale of Korean character database. PHD08 has 2,187 samples for each character and there are 2,350 Korean characters that make total 5,139,450 sample data. As a training result, streamlined GoogLeNet showed over 99% of test accuracy at PHD08. Also, we made additional Korean character data that have fonts that are not in the PHD08 in order to ensure objectivity and we compared the performance of classification between streamlined GoogLeNet and other OCR programs. While other OCR programs showed a classification success rate of 66.95% to 83.16%, streamlined GoogLeNet showed 89.14% of the classification success rate that is higher than other OCR program's rate.

      • KCI등재

        차영상과 ART2 클러스터링을 이용한 스마트폰 기반의 FND 인식 기법

        구경모,차의영,Koo, Kyung-Mo,Cha, Eui-Young 한국정보통신학회 2012 한국정보통신학회논문지 Vol.16 No.7

        본 논문에서는 가전기기에 탑재 된 FND에 표시되는 부호화 된 코드를 스마트폰으로 촬영하여 이로부터 원문데이터를 추출하는 인식기법에 대해 제안한다. 제안하는 스마트폰 기반의 FND 인식 기법은 먼저 차영상을 이용하여 입력되는 영상에서 FND의 위치를 추정한 뒤 RGB값 클러스터링을 통해 Segment를 추출한다. 다음으로 기울어진 Segment에 대한 정규화 과정을 거친 뒤 상대적인 거리를 이용하여 각각의 Segment를 인식한다. 실험을 통해 실제 스마트폰에서 사용 시 속도와 인식률이 모두 양호함을 확인하였다. In this paper, we propose a novel recognition method that extract source data from encoded signal that are displayed on FND mounted on home appliances. First of all, it find a candidate FND region from sequential difference images taken by smartphone and extract segment image using clustering RGB value. After that, it normalize segment images to correct a slant error and recognize each segments using a relative distance. Experiments show the robustness of the recognition algorithm on smartphone.

      • KCI등재

        디지털 영상 객체의 불투명도 추정을 위한 SOM Matting

        박현준,차의영,Park, Hyun-Jun,Cha, Eui-Young 한국정보통신학회 2009 한국정보통신학회논문지 Vol.13 No.10

        본 논문은 인공신경망을 이용한 새로운 매팅 기법을 제안한다. 매팅이란 영상에서 객체의 불투명도를 추정하는 기술이다. 매팅 기법을 이용하면 객체를 자연스럽게 추출할 수 있다. 먼저 trimap을 이용하여 영상을 배경 영역, 전경 영역, 미지 영역으로 구분한다. 배경 영역과 전경 영역의 정보를 이용하여 미지 영역 화소의 불투명도를 추정한다. 제안하는 알고리즘은 배경 영역과 전경 영역의 정보를 SOM을 이용하여 학습하고 그 결과를 이용하여 미지 영역의 각 화소의 불투명도를 추정한다. 본 논문에서는 배경 영역과 전경 영역의 정보를 학습하는 방법에 따라서 전역적 SOM matting과 지역적 SOM matting으로 구별한다. 제안하는 알고리즘의 성능을 평가하기 위하여 영상에 적용해보았다. 이를 통해 제안하는 알고리즘이 객체를 영상에서 분리 가능함을 확인 할 수 있다. This paper presents new matting techniques. The matting is an alpha estimation technique of object in an image. We can extract the object in an image naturally using the matting technique. The proposed algorithms begin by segmenting an image into three regions: definitely foreground, definitely background, and unknown. Then we estimate foreground, background, and alpha for all pixels in the unknown region. The proposed algorithms learn the definitely foreground and definitely background using self-organizing map(SOM), and estimate an alpha value of each pixel in the unknown region using SOM learning result. SOM matting is distinguished between global SOM matting and local SOM matting by learning method. Experiment results show the proposed algorithms can extract the object in an image.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼