http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
적외선 영상의 자연칼라 영상으로 변환을 위한 인공신경망
형성웅(Hyung, Sung Woong),신영하(Shin, Young Ha),이동천(Lee, Dong-Cheon) 한국측량학회 2020 한국측량학회 학술대회자료집 Vol.2020 No.7
Artificial Neural Network (ANN) based Deep Learning (DL) aims to solve problems, that are limited by traditional methods, such as object recognition and classification that require perception, and intelligence. DL is implemented through training without relying on principles and mathematical formulas. In this study, we proposed an approach to reduce the inherent problem of the ANN for converting color infrared (CIR) images to true color images. Training efficiency and performance were improved using ANN model with optimal initial weights.
능동소나 linear frequency modulation 신호의 fractional Fourier transform 분석에 기반한 표적의 거리 추정
형성웅,박명호,황수복,배건성,Hyung, Sungwoong,Park, Myungho,Hwang, Soobok,Bae, Keunsung 한국음향학회 2016 韓國音響學會誌 Vol.35 No.1
Fractional 푸리에 변환(Fractional Fourier Transform : FrFT)은 기존의 푸리에 변환의 일반화된 형태로서, 변환차수 ${\alpha}$에 따라 임의의 시간-주파수 영역에서의 신호해석이 가능하다. FrFT는 특히 LFM(Linear Frequency Modulation) 신호의 분석에 있어 잡음에 강한 특성으로 인해 많은 장점을 가진다. 본 논문에서는 능동소나에서 표적에 맞고 반향된 수신신호의 FrFT 스펙트럼으로부터 표적과의 거리를 추정하는 새로운 방법을 제안하였다. 합성한 표적 신호를 통해 제안한 방법의 타당성을 검증하였으며, 실제 수중 실험을 통해 얻은 잡음 및 잔향 환경에서의 신호에서도 신뢰성 있는 표적과의 거리 추정이 가능함을 확인하였다. As a generalized form of the conventional Fourier transform, fractional Fourier transform (FrFT) can analyze a signal at intermediate domain between time and frequency domains with a transform order ${\alpha}$. Especially, FrFT has a number of advantages in the analysis of LFM (Linear Frequency Modulation) signals due to its robustness to noise. In this paper, we have proposed a new method to detect and estimate the distance of the target from the FrFT spectrum of the received echo signal. Experimental results have validated the proposed method, and shown that reliable target distance could be estimated in noise and reverberation environments.
딥러닝에 의한 라이다 반사강도 데이터의 자연칼라 영상화
신영하(Shin, Young Ha),형성웅(Hyung, Sung Woong),이동천(Lee, Dong-Cheon) 한국측량학회 2020 한국측량학회 학술대회자료집 Vol.2020 No.7
본 연구에서는 생성적 적대 신경망(GAN; Generative Adversarial Network)기반의 딥러닝 모델을 이용하여 라이다 반사강도 데이터의 자연칼라 영상화를 수행하였다. 반사강도 데이터는 능동센서인 레이저 스캐너에 의해 근적외선 파장대에서 획득되므로 광학영상과 비교하면 물리적, 광학적, 해상도, 품질, 패턴 등 여러 측면에서 다른 특성을 가지고 있다. 특히 라이다 데이터는 중심투영의 광학영상과 다르게 정사투영에 의해 획득되고, 폐색영역과 그림자 영향이 없으므로, 라이다 반사강도 데이터를 딥러닝에 의해 고품질의 자연칼라로 영상화하면 엄밀정사영상을 효율적이고 획기적으로 생성할 수 있는 방법이라고 판단된다.
신영하(Shin, Young Ha),형성웅(Hyung, Sung Woong),이동천(Lee, Dong-Cheon) 한국측량학회 2021 한국측량학회 학술대회자료집 Vol.2021 No.11
객체를 분류하기 위한 딥러닝(DL)은 주로 합성곱 신경망을 기반으로 한다. 본 논문에서는 딥러닝 모델인 Yolov5와 TACO (Trash Annotations in Context) 데이터 셋을 사용하여 학습을 수행하였다. DL은 학습 조건에 따라 결과가 다를 수 있으므로 신경망 구조, 학습 데이터의 크기 및 학습 파라미터를 변화시킨 학습 결과를 분석하였다. 이를 바탕으로 재활용품 수거장에서 다양한 폐기물이 컨베이어 벨트로 이동하는 상황을 시뮬레이션하여 재활용품을 분류한 결과를 확인하고 개선 방안을 제시하였다.
시뮬레이션 데이터로 학습된 딥러닝 모델을 사용한 항공 라이다 데이터의 건물 모델링
신영하(Shin, Young-Ha),형성웅(Hyung, Sung-Woong),손경완(Son, Kyung-Wan),이동천(Lee, Dong-Cheon) 한국측량학회 2023 한국측량학회지 Vol.41 No.6
Photogrammetry is based on object modeling technology that extracts and measures important information about various objects and geographical features from images for 3D object reconstruction. Technological advances have made it possible to acquire various types of high quality data with inherent characteristics from different kinds of sensors. In particular, LiDAR (Light Detection and Ranging) which could directly obtain high-accuracy 3D information, is getting more widely used in various applications. This paper aims to develop a system that automatically models buildings in 3D using airborne LiDAR data. Roof surface segmentation, an important process of building modeling, was performed by deep learning. Deep learning model training requires a large amount of various data. To obtain enough amount of airborne LiDAR data for training deep learning model is difficult task. Therefore, simulated building dataset of point clouds was created for training the deep learning model. The simulated dataset consisting of 3D coordinates and normal vectors depicts buildings with various roof types. The roof surfaces were segmented by feeding airborne LiDAR data to the deep learning model trained with simulation dataset. Finally, building models with CityJSON format were generated by extracting model key points such as vertex and apex automatically from the segmented roof surfaces. In addition, a web system for processing and visualizing spatial information data was implemented to display results.