RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 원문제공처
        • 학술지명
        • 주제분류
        • 발행연도
        • 작성언어
        • 저자
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • 무료
      • 기관 내 무료
      • 유료
      • 능동자극 열영상 분석을 통한 계란의 기실 측정 시스템 개발

        박대서 ( Daeseo Park ),노태균 ( Taegyun Rho ),김준태 ( Juntae Kim ),조병관 ( Byoung-kwan Cho ) 한국농업기계학회 2021 한국농업기계학회 학술발표논문집 Vol.26 No.2

        현재까지 계란의 신선도 판정은 그룹별로 샘플링된 계란을 할란하여 난백의 높이와 계란의 무게를 측정하고, 이를 통해 계산한 Haugh unit(HU)으로 그룹 전체의 계란에 등급을 부여해왔다. 이러한 방법은 전체 계란에 대한 전수조사가 어렵고, 측정 시간과 노동력 소모가 심하다. 그리고 파괴적 방법이므로 측정을 통한 경제적 손실이 발생하는 단점이 있다. 따라서 이러한 문제들을 해결하기 위한 계란 신선도의 비파괴 측정기술 개발이 요구되어왔다. 본 연구는 기실 부피를 통해 계란의 신선도를 예측할 수 있는 능동자극 열영상 기반의 기실측정 시스템 개발을 위해 수행되었다. 계란에 공기유동을 통한 능동자극을 부여하여 열영상을 촬영한 후 영상분석을 통해 기실의 크기를 자동으로 측정하는 장치 및 소프트웨어를 제작하였다. 실험을 위해 총 800개의 계란을 15°C에서 60%의 상대습도에서 0, 1, 2, 4, 7일간 보관하며 사용하였다. 측정된 기실 이미지에서 특징을 추출하여 회귀모델을 만들고 물치환법으로 실측한 기실 크기와 비교 분석하였다. 계란의 기실 크기 예측 결과 R2가 0.90, 평균제곱근오차(RMSE, root mean square error)는 51.1 mm3의 성능을 보였다. 이미지 특징을 통해 HU 예측 모델을 구축하였는데, HU 데이터의 비선형성 때문에, 비선형 회귀모델인 Artificial Neural Network 모델을 활용하였다. 총 256개의 레이어와 10,000회의 학습 횟수로 하이퍼파라미터를 결정한 결과 기실 부피 예측은 RMSE가 40.3 mm3으로 개선되었으며, HU의 예측도 RMSE 3.4 HU으로 우수한 성능을 보였다. 본 연구는 능동자극 열영상 분석을 통해 계란 내 기실크기와 신선도 지표인 HU의 예측 가능성을 보여주었다.

      • RGB 이미지 딥러닝을 활용한 밭작물 종류 탐지 및 경지면적 예측

        박대서 ( Daeseo Park ),김한기 ( Hanki Kim ),은수 ( Eunsoo Park ),조병관 ( Byoung-kwan Cho ) 한국농업기계학회 2023 한국농업기계학회 학술발표논문집 Vol.28 No.2

        드론 및 고성능 카메라를 통해 경작지의 영상 데이터를 수집하고, 수집된 데이터가 학습된 인공지능을 통해 작물의 상태 및 종류를 판독하는 기술은 경작지 작물재배 현황 파악은 물론 작물별 수확량 예측에 활용될 수 있다. 본 연구에서는 RGB 이미지의 기계학습을 통해 경작지의 재배작물의 종류를 파악하고 경지면적을 산출할 수 있는 인공지능 모델을 개발하고자 하였다. 2022년 6월부터 2023년 9월까지 겨울을 제외한 시기에 배추, 무, 양파, 마늘, 고추, 대파의 총 6가지 작물의 재배지를 드론을 이용하여 전국 8곳의 각기 다른 자연환경에서 10 m 간격의 고도별로 촬영한 RGB 이미지를 학습에 사용하였고, 작물 개개별로 라벨을 삽입하는 대신 작물이 재배되는 영역을 하나의 라벨로 묶어 면적 예측에 적합하도록 데이터를 구축하였다. 학습 전 7,105장의 원본 이미지를 211,897장의 640 pixel 크기 이미지로 분할하여 데이터셋을 증강한 후 Train 60%, Validation 20%, Test 20%로 나누어 YOLOv8과 Detectron2의 두 가지 딥러닝 아키텍처를 이용해 모델을 학습하여 성능을 비교하였다. 모델 학습 결과 YOLOv8 기반의 모델에서 mAP@50 95.1%의 예측 정확도를, Detectron2 기반 모델에서는 mAP@50 90.2%의 정확도를 보였다. 또한 대부분의 작물이 고도 면에서는 촬영고도 20-50 m 부근에서, 시기적으로는 수확기에 가까울수록 서로 간의 혼동이 적고 더욱 높은 예측 정확도를 보였다. 최종적으로 이러한 고도 및 시기 정보를 입력받아 실제 경지면적을 예측할 수 있는 통합 어플리케이션을 개발하였으며, 사물 인터넷 기술과 결합하여 사용될 경우 드론 등의 UAV를 이용한 생산량 예측 및 재배현황 조사를 더욱 용이하게 만들어 줄 것으로 기대된다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼