RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI등재

      앙상블을 이용한 기계학습 기법의 설계: 뜰개 이동경로 예측을 통한 실험적 검증 = Ensemble Design of Machine Learning Technigues: Experimental Verification by Prediction of Drifter Trajectory

      한글로보기

      https://www.riss.kr/link?id=A105226874

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      다국어 초록 (Multilingual Abstract)

      The ensemble is a unified approach used for getting better performance by using multiple algorithms in machine learning. In this paper, we introduce boosting and bagging, which have been widely used in ensemble techniques, and design a method using ...

      The ensemble is a unified approach used for getting better performance by using multiple algorithms in
      machine learning. In this paper, we introduce boosting and bagging, which have been widely used in
      ensemble techniques, and design a method using support vector regression, radial basis function network,
      Gaussian process, and multilayer perceptron. In addition, our experiment was performed by adding a
      recurrent neural network and MOHID numerical model. The drifter data used for our experimental
      verification consist of 683 observations in seven regions. The performance of our ensemble technique is
      verified by comparison with four algorithms each. As verification, mean absolute error was adapted. The presented methods are based on ensemble models using bagging, boosting, and machine learning. The error
      rate was calculated by assigning the equal weight value and different weight value to each unit model in
      ensemble. The ensemble model using machine learning showed 61.7% improvement compared to the
      average of four machine learning technique.

      더보기

      국문 초록 (Abstract)

      앙상블 기법은 기계학습에서 다수의 알고리즘을 사용하여 더 좋은 성능을 내기 위해 사용하는 방 법이다. 본 논문에서는 앙상블 기법에서 많이 사용되는 부스팅과 배깅에 대해 소개를 하고...

      앙상블 기법은 기계학습에서 다수의 알고리즘을 사용하여 더 좋은 성능을 내기 위해 사용하는 방
      법이다. 본 논문에서는 앙상블 기법에서 많이 사용되는 부스팅과 배깅에 대해 소개를 하고, 서포트벡
      터 회귀, 방사기저함수 네트워크, 가우시안 프로세스, 다층 퍼셉트론을 이용하여 설계한다. 추가적으
      로 순환신경망과 MOHID 수치모델을 추가하여 실험을 진행한다. 실험적 검증를 위해 사용하는 뜰개
      데이터는 7 개의 지역에서 관측된 683 개의 관측 자료다. 뜰개 관측 자료를 이용하여 6 개의 알고리
      즘과의 비교를 통해 앙상블 기법의 성능을 검증한다. 검증 방법으로는 평균절대오차를 사용한다. 실
      험 방법은 배깅, 부스팅, 기계학습을 이용한 앙상블 모델을 이용하여 진행한다. 각 앙상블 모델마다
      동일한 가중치를 부여한 방법, 차등한 가중치를 부여한 방법을 이용하여 오류율을 계산한다. 가장 좋
      은 오류율을 나타낸 방법은 기계학습을 이용한 앙상블 모델로서 6 개의 기계학습의 평균에 비해
      61.7%가 개선된 결과를 보였다.

      더보기

      목차 (Table of Contents)

      • 1. 서론
      • 2. 기법 개요
      • 3. 성능 검증 및 실험 환경
      • 4. 모델 설계 및 실험 결과
      • 5. 결론
      • 1. 서론
      • 2. 기법 개요
      • 3. 성능 검증 및 실험 환경
      • 4. 모델 설계 및 실험 결과
      • 5. 결론
      • References
      더보기

      참고문헌 (Reference)

      1 G. Tilmann, "Weather forecasting with ensemble methods" 310 (310): 248-249, 2005

      2 MOHID, "Water Modeling System"

      3 Basak, Debasish, "Support vector regression" 11 (11): 203-224, 2007

      4 Mikolov, T., "Recurrent neural network based language model" 2010

      5 B. Albert, "New ensemble methods for evolving data streams" ACM 139-148, 2009

      6 Orr, Mark J. L., "Introduction to Radial Basis Function Networks" Institute for Adaptive and Neural Computation, Edinburgh Univ 1996

      7 Rasmussen, Carl E., "Gaussian Processes for Machine Learning" MIT press 2006

      8 Y. Freund, "Experiments with a new boosting algorithm" 96 : 1996

      9 L. Breiman, "Bagging predictors" 24 (24): 123-140, 1996

      10 Gardner, Matt W., "Artificial neural networks (the multilayer perceptron)—a review of applications in the atmospheric sciences" 32 (32): 2627-2636, 1998

      1 G. Tilmann, "Weather forecasting with ensemble methods" 310 (310): 248-249, 2005

      2 MOHID, "Water Modeling System"

      3 Basak, Debasish, "Support vector regression" 11 (11): 203-224, 2007

      4 Mikolov, T., "Recurrent neural network based language model" 2010

      5 B. Albert, "New ensemble methods for evolving data streams" ACM 139-148, 2009

      6 Orr, Mark J. L., "Introduction to Radial Basis Function Networks" Institute for Adaptive and Neural Computation, Edinburgh Univ 1996

      7 Rasmussen, Carl E., "Gaussian Processes for Machine Learning" MIT press 2006

      8 Y. Freund, "Experiments with a new boosting algorithm" 96 : 1996

      9 L. Breiman, "Bagging predictors" 24 (24): 123-140, 1996

      10 Gardner, Matt W., "Artificial neural networks (the multilayer perceptron)—a review of applications in the atmospheric sciences" 32 (32): 2627-2636, 1998

      더보기

      동일학술지(권/호) 다른 논문

      동일학술지 더보기

      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      인용정보 인용지수 설명보기

      학술지 이력

      학술지 이력
      연월일 이력구분 이력상세 등재구분
      2020 평가예정 신규평가 신청대상 (신규평가)
      2019-12-01 평가 등재 탈락 (기타)
      2019-01-01 평가 등재학술지 유지 (계속평가) KCI등재
      2016-01-01 평가 등재학술지 선정 (계속평가) KCI등재
      2014-01-01 평가 등재후보학술지 선정 (신규평가) KCI등재후보
      더보기

      학술지 인용정보

      학술지 인용정보
      기준연도 WOS-KCI 통합IF(2년) KCIF(2년) KCIF(3년)
      2016 0.33 0.33 0.32
      KCIF(4년) KCIF(5년) 중심성지수(3년) 즉시성지수
      0.33 0.32 0.407 0.14
      더보기

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼