http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
김현정 ( H. J. Kim ),노현권 ( H. K. Noh ),강태환 ( T. H. Kang ) 한국농업기계학회 2020 한국농업기계학회 학술발표논문집 Vol.25 No.2
화상병(火傷病, Fire blight)은 배와 사과 등 장미과 식물에 생기는 세균성 병해의 일종으로 병원균인 Erwinia amylovora에 의해 발생한다. 국내에서는 2015년 5월 경기도 안성과 충남 천안에서 최초로 화상병이 발생하였으며, 2020년 현재까지 새로운 지역으로 전염되고 있다. 강한 전염성으로 인하여 감염시 2일 이내에 확진여부가 판정되고, 판정 직후 발병된 과수를 중심으로 100 m 반경의 과수를 매몰하기 때문에 화상병발병과수의 충분한 영상취득이 매우 어려운 실정이다. 따라서 지속적인 모니터링을 통해 확산·전염에 의한 2차 피해를 줄일 수 있는 화상병 예찰 시스템에 관한 연구가 필요하다. 본 연구에서는 실제 화상병 발병 과수에서 회전익 드론에 A6300 RGB 카메라를 장착하여 고도 10~12m 상공에서 영상을 취득하였다. 취득된 영상의 공간분해능은 6,000 pixel × 4,000 pixel 이었다. 화상병 검출을 위한 SU-net 구조는 Image input layer, Convolution layer, Batch normal layer, ReLU layer, Max Pooling Layer, Transpose Convolution layer 및 Sigmoid Layer로 구성되어 있다. 특히 화상병 영상 검출의 성능을 향상시키기 위하여 Batch normal layer를 적용하였고, depthwize_conv 결과에 pointwise filter(가중치, 스칼라)를 곱한 후 (1x1 convolution) 다른 필터의 연산 결과와 Sum하는 방법으로 사과 화상병 영상을 분석하였다. 기존 U-net 학습결과는 화상병 감염 과수 영상 가운데 64장이 화상병 감염으로 인식하였고, 16장은 비감염으로 인식하여 예측율은 80.0%로 나타났다. SU-net 학습결과는 화상병 감염 과수 영상 80장 중 70장이 화상병 감염으로 인식하였고, 10장은 비감염으로 인식하여 예측율은 87.5%로 나타났다. 또한 비감염과수 영상 20장의 테스트 결과 19장이 비감염으로 인식하였고, 1장은 감염으로 인식되어 예측율이 95.0%로 나타났으며 개선된 SU-net 학습 알고리즘이 기존의 U-net 학습 알고리즘보다 화상병 예측이 7.5% 증가한 것으로 나타나 성능이 향상된 것으로 판단된다. 따라서 향후 현장에서 드론을 이용한 화상병 예찰에 효과적으로 사용될 수 있을 것으로 판단된다.