RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI등재

      잡음에 강건한 이미지 분류 모델을 위한 다양한 필터 크기를 가진 다중 합성곱 신경망 앙상블 학습 연구 = A Research on Multiple CNN Ensemble Learning with Various Filter Sizes for Training a Noise-robust Image Classification Model

      한글로보기

      https://www.riss.kr/link?id=A109146110

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      국문 초록 (Abstract)

      본 논문에서는 노이즈 이미지에 대한 강건한 분류 모델 작성을 위하여 다양한 필터크기를 가진 다중 합성곱 신경망 앙상블 모델을 연구하였다. 다중 합성곱 신경망 앙상블 모델은 2개의 다중필터 합성곱 신경망 앙상블 모델의 소프트 보팅(soft voting) 조합으로 구성되는데, 각각의 다중필터 합성곱 신경망 앙상블 모델은 다시 5개의 단일 합성곱 신경망의 소프트 보팅 조합으로 구성된다. 단일 합성곱 신경망들은 서로 다른 필터 크기가 적용되었으며, 그 필터 크기는 임의의 크기인 3, 5, 7, 11, 13이다. 단일 합성곱 신경망들은 학습 과정에서 특별한 연산이 적용되었는데, 각 단일 합성곱 신경망에서 마지막 완전 연결 계층의 출력이 서로 적절히 조합되어, 다시 각각의 단일 합성곱 신경망 모델의 소프트맥스 및 교차 엔트로피 오차(softmax-with-Loss) 계층으로 보내져 순전파 연산을 수행한다. 그 후, 오차역전파 연산을 수행하며 가중치를 갱신하도록 함으로써 단일 합성곱 신경망 모델들이 학습 과정에서 상호보완 될 수 있도록 하였다. 작성된 다중 합성곱 신경망 앙상블 학습모델의 강건성 평가는 MNIST(Modified National Institute of Standards and Technology) 손글씨 숫자 이미지 데이터로 수행되었다. 숫자 이미지 데이터는 1개의 정상 데이터 셋과, 3개의 비정상 잡음 데이터 셋으로 구성되어 있으며, 정상/비정상 데이터 상관없이 학습 및 테스트하여 모델의 성능을 평가하였다. 그 결과, 다중 합성곱 신경망 앙상블 모델의 분류 성능이 단일 합성곱 신경망 모델보다 전반적으로 향상된 것을 확인하였다.
      번역하기

      본 논문에서는 노이즈 이미지에 대한 강건한 분류 모델 작성을 위하여 다양한 필터크기를 가진 다중 합성곱 신경망 앙상블 모델을 연구하였다. 다중 합성곱 신경망 앙상블 모델은 2개의 다...

      본 논문에서는 노이즈 이미지에 대한 강건한 분류 모델 작성을 위하여 다양한 필터크기를 가진 다중 합성곱 신경망 앙상블 모델을 연구하였다. 다중 합성곱 신경망 앙상블 모델은 2개의 다중필터 합성곱 신경망 앙상블 모델의 소프트 보팅(soft voting) 조합으로 구성되는데, 각각의 다중필터 합성곱 신경망 앙상블 모델은 다시 5개의 단일 합성곱 신경망의 소프트 보팅 조합으로 구성된다. 단일 합성곱 신경망들은 서로 다른 필터 크기가 적용되었으며, 그 필터 크기는 임의의 크기인 3, 5, 7, 11, 13이다. 단일 합성곱 신경망들은 학습 과정에서 특별한 연산이 적용되었는데, 각 단일 합성곱 신경망에서 마지막 완전 연결 계층의 출력이 서로 적절히 조합되어, 다시 각각의 단일 합성곱 신경망 모델의 소프트맥스 및 교차 엔트로피 오차(softmax-with-Loss) 계층으로 보내져 순전파 연산을 수행한다. 그 후, 오차역전파 연산을 수행하며 가중치를 갱신하도록 함으로써 단일 합성곱 신경망 모델들이 학습 과정에서 상호보완 될 수 있도록 하였다. 작성된 다중 합성곱 신경망 앙상블 학습모델의 강건성 평가는 MNIST(Modified National Institute of Standards and Technology) 손글씨 숫자 이미지 데이터로 수행되었다. 숫자 이미지 데이터는 1개의 정상 데이터 셋과, 3개의 비정상 잡음 데이터 셋으로 구성되어 있으며, 정상/비정상 데이터 상관없이 학습 및 테스트하여 모델의 성능을 평가하였다. 그 결과, 다중 합성곱 신경망 앙상블 모델의 분류 성능이 단일 합성곱 신경망 모델보다 전반적으로 향상된 것을 확인하였다.

      더보기

      다국어 초록 (Multilingual Abstract)

      A multiple CNN ensemble model was developed using various filter sizes to train a noise-robust image classification model. The multiple CNN ensemble model consisted of a soft voting combination of two multiple-sized filter CNN ensemble models. The multiscale filter CNN ensemble model consisted of a soft voting combination of five single CNN models. Single CNN models were made using 3, 5, 7, 11, and 13-sized filters. During the modeling, a special calculation process was applied to CNNs, outputs of last affine layer in each CNN model are combine properly. The combined outputs were sent to softmax-with-loss layer to conduct rest of forward propagation. Lastly, by progressing progress back propagation calculation, CNN models made it possible to complement each other's weight variables. Evaluation of the robustness of the multiple CNN ensemble model was performed using an MNIST handwritten number image data set, 1 normal data set, and 3 noise added data set. These image data sets were used to model and test the performance of the classification model regardless of normal or noise. The resulting multiple CNN ensemble model had better classification performance than the single CNN model.
      번역하기

      A multiple CNN ensemble model was developed using various filter sizes to train a noise-robust image classification model. The multiple CNN ensemble model consisted of a soft voting combination of two multiple-sized filter CNN ensemble models. The mul...

      A multiple CNN ensemble model was developed using various filter sizes to train a noise-robust image classification model. The multiple CNN ensemble model consisted of a soft voting combination of two multiple-sized filter CNN ensemble models. The multiscale filter CNN ensemble model consisted of a soft voting combination of five single CNN models. Single CNN models were made using 3, 5, 7, 11, and 13-sized filters. During the modeling, a special calculation process was applied to CNNs, outputs of last affine layer in each CNN model are combine properly. The combined outputs were sent to softmax-with-loss layer to conduct rest of forward propagation. Lastly, by progressing progress back propagation calculation, CNN models made it possible to complement each other's weight variables. Evaluation of the robustness of the multiple CNN ensemble model was performed using an MNIST handwritten number image data set, 1 normal data set, and 3 noise added data set. These image data sets were used to model and test the performance of the classification model regardless of normal or noise. The resulting multiple CNN ensemble model had better classification performance than the single CNN model.

      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼