RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • 토마토 인식을 위한 효율적인 학습데이터 가공 방법 연구

        손민하 ( Min-ha Son ),권경도 ( Kyung-do Kwon ),김원경 ( Won-kyung Kim ),홍영기 ( Young-ki Hong ),서강훈 ( Gang-hun Seo ),김경철 ( Kyoung-chul Kim ) 한국농업기계학회 2022 한국농업기계학회 학술발표논문집 Vol.27 No.2

        현재, 국내 토마토 생산의 대부분이 시설재배로 이루어지고 있으며, 토마토 재배면적은 6,010ha로 전체 시설작물 재배면적의 약 7.26%를 차지하고 있다. 최근에는 생산량 증가, 생산비 감소 및 상품화율 증가 등으로 인하여 일반 시설재배에서 스마트 온실로 전환하는 농가가 증가하고 있는 추세로, 이와 관련하여 수경재배 방식으로 재배되는 토마토의 방제, 수확 등의 전반적인 작업을 농업용 로봇을 이용하여 자동화하기 위한 연구가 활발하게 수행되고 있다. 특히, 작물인식은 농업용 로봇의 필수적인 요소기술로써, 작물 인식 시에 잎이나 줄기 및 다른 과실에 의해 가려져서 나타나는 문제점을 해결하기 위한 다양한 연구가 수행 중에 있다. 따라서 본 연구에서는 농업용 로봇의 작물 인식모델 개발을 위한 기초연구로써, 작물의 가려진 부분을 고려하여 라벨링 한 학습모델과 고려하지 않고 라벨링한 학습모델의 인식 정확도를 비교하여 효율적인 학습데이터 가공 방법을 제안하고자 하였다. 모델학습에 이용된 데이터셋은 총 269개의 이미지와 1,990개의 어노테이션 데이터로, 국립농업과학원(전라북도 완주군)의 스마트 온실에서 RGB-D 카메라(D435, In tel, CA, USA)로 촬영하였다. 또한 bounding box 기법을 사용하여 라벨링 하였으며, 75% 이상 가려진 토마토와 뒷 배지의 토마토는 제외하였다. YOLOv4 모델을 활용하여 기계학습을 진행한 결과, IoU50 (Intersection over Union)에서 최고 mAP (mean Average Precision)는 가려진 부분을 고려한 모델과 고려하지 않은 모델이 각각 74.86%, 72.06%로, 가려진 부분을 예측하여 라벨링 한 학습모델의 정확도가 2.8% 더 높은 것으로 나타났다. 하지만 실제 모델에 적용하기에는 다소 낮은 정확도로 판단되므로, 추후 연구에서 더 많은 양의 데이터셋를 적용하여 모델의 정확도를 향상 시켜 두 모델의 성능을 평가하고자 한다.

      • 작물인식 인공지능모델 학습을 위한 효과적인 토마토 분할 Annotation 방식 비교

        서강훈 ( Gang-hun Seo ),김용현 ( Yong-hyun Kim ),손민하 ( Min-ha Son ),권경도 ( Kyung-do Kwon ),홍영기 ( Youngki Hong ),김경철 ( Kyoung-chul Kim ) 한국농업기계학회 2022 한국농업기계학회 학술발표논문집 Vol.27 No.2

        농업인구 감소 추세와 고령화로 인한 노동력 부족을 해결하기 위해 농업에 인공지능을 활용한 자동화 연구가 주목되고 있다. 특히, 인공지능을 활용한 작물 인식연구가 활발히 진행되고 있다. 한편, 농작물 데이터는 환경의 영향을 많이 받기 때문에 Annotation 방식에 따라 모델의 정확도에 큰 영향을 끼친다. 따라서, 본 연구에서는 효과적인 토마토 영상의 Annotation 방식을 규명하기 위해 두 가지 Annotation 방식으로 라벨링된 데이터 셋을 각각 학습하고 정확도를 비교하였다. 토마토 영상은 국립농업과학원(Wanju, Korea)의 첨단온실에서 취득하였다. 영상 데이터는 RGB-D 카메라(D435, Intel, CA, USA)를 활용하여 취득하였으며, 총 269장의 영상에 1,990개의 과실 정보가 포함된다. Annotation 방식은 다음과 같다. 첫 번째 방식은 영상에 노출 되어있는 토마토만을 Annotation하는 방식으로, 폐색으로 인해 육안으로 볼 수 없는 부분을 제외한 가시적으로 확인할 수 있는 토마토의 부분만 Annotation하는 방식이다. 두 번째 방식은 영상에 노출 되어있는 토마토에 폐색이 있는 경우, 작업자의 주관적인 판단에 따라 폐색 뒤의 토마토 과형을 예측하여 Annotation하는 방식이다. 앞의 두 가지 방식으로 만들어진 데이터 셋은 YOLACT 알고리즘을 통해 각각 학습되었으며, Epoch과 Batch size 및 학습율은 각각 300, 16, 0.001로 설정되었다. 그 결과, 두 가지 학습방식에서 Total Loss의 최종 수렴 값은 각각 1.0616 및 1.0728로 확인되었다. 이처럼 두 방식 모두 Total Loss 값이 높은 이유는 데이터 수가 부족하기 때문으로 사료된다. 따라서 향후에는 더 많은 데이터를 확보하여 인식 모델의 정확도를 향상시키기 위한 연구를 진행할 계획이다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼