http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
Foreground Extraction in Thermal Videos Based on Selective Histogram Bins
유광현,자히르,김진영,신도성,Yu, Gwang-Hyun,Zaheer, Muhammd Zaigham,Kim, Jin-Young,Sin, Do-Seong Digital Contents Society 2018 한국디지털콘텐츠학회논문지 Vol.19 No.4
Foreground extraction is the most significant step in thermal imaging based surveillance systems. This step needs to be efficient in terms of time and memory consumption in order for the system to provide real time results but usually this efficiency reciprocates with the accurateness of the ROI detection. In this study, novel selective histogram bins based two background & foreground separation approaches for thermal videos processing have been proposed which exploit the temporal-consistency property of the thermal images in a given environment and can save over 80% memory than their simplest counterpart temporal median filtering. 열화상 영상기반 감시 시스템에서 전경추출은 매우 중요한 단계이다. 전경추출단계는 계산시간과 메모리 사용측면에서 시스템의 실시간 처리가 매우 효율적이어야 한다. 그러나 이러한 효율성은 ROI 탐지의 정확도와 매우 연관되어 있다. 본 논문에서 열화상 비디오 처리를 위하여 새로운 히스토그램 빈에 기반하여 배경과 전경을 분리하기 위한 두 가지 방법을 제시하는데, 이는 임의의 주어진 환경에서 열화상영상의 시간상에서 일관성을 갖는 다는 점과, 이러한 성질이, 간단한 시간축 메디안 필터링에 비하여 80%이상의 메모리를 절감할 수 있다.
열화상 비디오에서 합성곱 신경망 기반의 실시간 인간 탐지
나지르 샤히드(Nazeer Shahid),유광현(Gwang-Hyun Yu),황성민(Seong-Min Hwang),보 호앙 트롱(Vo Hoang Trong),김진영(Jin-Young Kim) 대한전자공학회 2018 대한전자공학회 학술대회 Vol.2018 No.11
In this paper, we have proposed a Convolution Neural Network based human classification technique that efficiently operates in real time. Background subtraction is done using improved Running Gaussian Average to get the initial background model. Background updating is implemented using selectivity updating and random selection of background pixel from every new frame. Morphology is applied to extract ROIs from each frame. For classification, CNN model is trained and tested with our own dataset. For incorporating the model with real-time application, we neglect the nodes from computational graph that have no weights and convert other weights to constants. With this trained CNN model, ROI is classified as human or non-human in real-time. The processing time depends on number of ROI present in the frame. For our testing data, average processing time is 25fps.
다양한 합성곱 신경망 접근법을 이용한 잡초 이미지 분류
보 호앙 트롱(Vo Hoang Trong),유광현(Gwang-Hyun Yu),나지르 샤히드(Nazeer Shahid),황성민(Seong-Min Hwang),김진영(Jin-Young Kim) 대한전자공학회 2018 대한전자공학회 학술대회 Vol.2018 No.11
In this paper, we present a multimodal approach for weeds classification. We apply the transfer learning to classify on Convolutional Neural Networks(CNN) VGG16, Inception-Resnet, and Mobilenet separately. Then, we combine probabilities returned from each model, and start voting by scoring classes. We choose a class that has the highest score to conclude the final classification. We experiment on own weeds dataset and achieve 95.927% accuracy after voting on fusion classification.
Removing Out - Of - Distribution Samples on Classification Task
Thanh-Vu Dang,Hoang-Trong Vo,유광현(Gwang-Hyun Yu),이주환(Ju-Hwan Lee),Huy-Toan Nguyen,김진영(Jin-Young Kim) 한국스마트미디어학회 2020 스마트미디어저널 Vol.9 No.3
Out - of - distribution (OOD) samples are frequently encountered when deploying a classification model in plenty of real-world machine learning-based applications. Those samples are normally sampling far away from the training distribution, but many classifiers still assign them high reliability to belong to one of the training categories. In this study, we address the problem of removing OOD examples by estimating marginal density estimation using variational autoencoder (VAE). We also investigate other proper methods, such as temperature scaling, Gaussian discrimination analysis, and label smoothing. We use Chonnam National University (CNU) weeds dataset as the in - distribution dataset and CIFAR-10, CalTeach as the OOD datasets. Quantitative results show that the proposed framework can reject the OOD test samples with a suitable threshold.
그래프 트랜스포머 기반 농가 사과 품질 이미지의 그래프 표현 학습 연구
배지훈(Ji-Hoon Bae),김진영(JinYoung Kim),이주환(Ju‑Hwan Lee),유광현(Gwang-Hyun Yu),권경주(Gyeong Ju Kwon) 한국스마트미디어학회 2023 스마트미디어저널 Vol.12 No.1
최근 농가의 사과 품질 선별 작업에서 인적자원의 한계를 극복하기 위해 합성곱 신경망(CNN) 기반 시스템이 개발되고 있다. 그러나 합성곱 신경망은 동일한 크기의 이미지만을 입력받기 때문에 샘플링 등의 전처리 과정이 요구될 수 있으며, 과도 샘플링의 경우 화질 저하, 블러링 등 원본 이미지의 정보손실 문제가 발생한다. 본 논문에서는 위 문제를 최소화하기 위하여, 원본 이미지의 패치 기반 그래프를 생성하고 그래프 트랜스포머 모델의 랜덤워크 기반 위치 인코딩 방법을 제안한다. 위 방법은 랜덤워크 알고리즘 기반 위치정보가 없는 패치들의 위치 임베딩 정보를 지속적으로 학습하고, 기존 그래프 트랜스포머의 자가 주의집중 기법을 통해 유익한 노드정보들을 집계함으로써 최적의 그래프 구조를 찾는다. 따라서 무작위 노드 순서의 새로운 그래프 구조와 이미지의 객체 위치에 따른 임의의 그래프 구조에서도 강건한 성질을 가지며, 좋은 성능을 보여준다. 5가지 사과 품질 데이터셋으로 실험하였을 때, 다른 GNN 모델보다 최소 1.3%에서 최대 4.7%의 학습 정확도가 높았으며, ResNet18 모델의 23.52M보다 약 15% 적은 3.59M의 파라미터 수를 보유하여 연산량 절감에 따른 빠른 추론 속도를 보이며 그 효과를 증명한다. Recently, a convolutional neural network (CNN) based system is being developed to overcome the limitations of human resources in the apple quality classification of farmhouse. However, since convolutional neural networks receive only images of the same size, preprocessing such as sampling may be required, and in the case of oversampling, information loss of the original image such as image quality degradation and blurring occurs. In this paper, in order to minimize the above problem, to generate a image patch based graph of an original image and propose a random walk-based positional encoding method to apply the graph transformer model. The above method continuously learns the position embedding information of patches which don`t have a positional information based on the random walk algorithm, and finds the optimal graph structure by aggregating useful node information through the self-attention technique of graph transformer model. Therefore, it is robust and shows good performance even in a new graph structure of random node order and an arbitrary graph structure according to the location of an object in an image. As a result, when experimented with 5 apple quality datasets, the learning accuracy was higher than other GNN models by a minimum of 1.3% to a maximum of 4.7%, and the number of parameters was 3.59M, which was about 15% less than the 23.52M of the ResNet18 model. Therefore, it shows fast reasoning speed according to the reduction of the amount of computation and proves the effect.