RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      은닉층 특징정보 양자화를 통한 고속 다층 신경회로망 설계 = High speed multilayer neural network design by hiddenlayer feature information quanization

      한글로보기

      https://www.riss.kr/link?id=T7281787

      • 저자
      • 발행사항

        광주 : 朝鮮大學校 大學院, 1999

      • 학위논문사항

        학위논문(박사) -- 조선대학교 대학원 , 전산통계학과 , 1999. 8

      • 발행연도

        1999

      • 작성언어

        한국어

      • 주제어
      • KDC

        004.73 판사항(4)

      • DDC

        006.32 판사항(19)

      • 발행국(도시)

        광주

      • 형태사항

        xi, 96p. : 삽도 ; 27cm

      • 일반주기명

        참고문헌: p. 84-88

      • 소장기관
        • 강원대학교 도서관 소장기관정보
        • 계명대학교 동산도서관 소장기관정보
        • 광주대학교 도서관 소장기관정보
        • 국립순천대학교 도서관 소장기관정보
        • 국립중앙도서관 국립중앙도서관 우편복사 서비스
        • 동아대학교 도서관 소장기관정보
        • 원광대학교 중앙도서관 소장기관정보
        • 전남대학교 중앙도서관 소장기관정보
      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      다국어 초록 (Multilingual Abstract)

      The multi-layer neural network structure that uses back-propagation algorithm to learning algorithm is often utilized for solving complicated problems of artificial perception such as pattern recognition, computer vision, and phonetic recognition. How...

      The multi-layer neural network structure that uses back-propagation algorithm to learning algorithm is often utilized for solving complicated problems of artificial perception such as pattern recognition, computer vision, and phonetic recognition. However, these calculation amounts should design a suitable optimum neural network structure to solve a big problem.
      Especially, in the case of multi-layer neural network structure, the decision of the number of hidden layer and hidden node is very important. The hidden node plays a role of the functional units that classifies the features of input pattern in the given question. However, there is a problem that decides the number of hidden nodes based on back-propagation learning algorithm. If the number of hidden nodes is designated very small, perfect learning is not done because the input pattern given cannot be classified enough. On the other hand, if designated a lot, overfitting occurs due to the unnecessary execution of operation and extravagance of memory point. So, the recognition rate is been law and the generality is fallen. Therefore, a neural network that consists of the number of a suitable optimum hidden node has be on the rise as a factor that has an important effect upon a result. The existing neural network structure design process is a field that a fixed principle does not exist, so it has depended entirely upon subjective experiencing knowledge and trial and error of neural network development experts. According to this, various researches were progressed for the optimum neural network structure design, this method decides the number of hidden node using the error sum of spreading information during attending the study. However there is a disadvantage that eliminates an available hidden node because this method only uses output value of hidden layers for pruning hidden node.
      The power of neural network is dominated by parameters of learning algorithm, especially, influenced by weights, the number of article of hidden layers, and the number of article of nodes.
      Therefore, this monograph suggests a method that decides the number of neural network node with feature information consisted of the parameter of learning algorithm. This method uses for the parameter of learning algorithm that improves weight and offset that were come to the front as a problem of existing back-propagation learning algorithm.
      When looks for new weight, the improved weight reflects the changing rate of the error about output value of hidden node used in error function, and although the output value of hidden node changes, the improved weight prevents the error changing.
      The improved offset rule can restrain vibrating phenomenon reaching at the global minimum value as reflecting total errors changed by h e in offset, which uses sigmoid function for the threshold function. It can seek for the feature information of hidden layer using the improved weight, offset, and output value of hidden layer, and the feature information is used for the estimated value pruning the hidden node.
      It excludes a node in the pruning target, that has a maximum value among the feature value obtained and compares the average of the rest of hidden node feature value with the feature value of each hidden node, and then would like to improve the learning speed of neural network deciding the optimum structure of the multi-layer neural network as pruning the hidden node that has the feature value smaller than the average.

      더보기

      목차 (Table of Contents)

      • 목차 = ⅰ
      • 표목차 = ⅳ
      • 그림목차 = ⅴ
      • ABSTRACT = ⅶ
      • Ⅰ. 서론 = 1
      • 목차 = ⅰ
      • 표목차 = ⅳ
      • 그림목차 = ⅴ
      • ABSTRACT = ⅶ
      • Ⅰ. 서론 = 1
      • Ⅱ. 다층 신경망 구조 = 6
      • A. 신경망의 대표적인 활성화 함수 = 7
      • B. 다층 퍼셉트론 = 8
      • 1. 3계층 MLP 구조 = 9
      • 2. MLP 구조의 중요성 = 10
      • 3. 다층 신경망 구조 결정요인 = 13
      • Ⅲ. 신경망 학습 = 17
      • A. Back-Propagation Algorithms = 18
      • B. 오류역전파 학습규칙의 문제점 = 21
      • Ⅳ. 다층 신경망 구조 결정 방법 = 23
      • A. 최적화된 은닉노드를 갖는 NBP 알고리즘 = 23
      • 1. 초기설정 = 23
      • 2. 은닉노드 결정법 = 24
      • 3. 학습곡선과 C_(j)와의 관계 = 25
      • B. 유전자 알고리즘을 이용한 은닉노드 제거에 의한 구조설계 = 26
      • 1. GA를 이용한 MLP 학습 = 27
      • 2. MLP의 구조결정 = 28
      • C. 유전자 알고리즘을 이용한 은닉노드 수 결정에 의한 구조 설계 = 30
      • 1. 신경망 구조 설계를 위한 구성 = 30
      • 2. 다층신경망 구조 결정방법 = 33
      • Ⅴ. 은닉층 특징정보를 이용한 은닉 노드 수 결정법 = 36
      • A. 다층신경망 구조 결정법의 문제점 = 36
      • B. 특징정보 생성을 위한 오류 역전파 알고리즘의 문제점 개선 = 37
      • 1. 연결강도 설정 = 37
      • 2. offset rule = 41
      • C. 특징정보 생성 = 43
      • Ⅵ. 시뮬레이션 = 47
      • A. XOR = 48
      • 1. XOR에서 은닉노드 수 결정과 r.m.s 학습오차 = 48
      • 2. 최적화 학습수렴속도 = 52
      • B. 전가산기 (Full-Adder) = 54
      • 1. 전가산기에서의 은닉노드 수 결정과 r.m.s 학습오차 = 54
      • 2. 최적화 학습수렴속도 = 58
      • C. 패리티 비트 (Parity bit) = 60
      • 1. 4 bit Parity에서의 은닉노드 수 결정과 r.m.s 학습오차 = 61
      • 2. 최적화 학습수렴속도 = 64
      • D. 오프라인 필기체 영문자 인식 = 66
      • 1. 오프라인 필기체 인식을 위한 인식시스템 구성 = 66
      • 2. 필기체 영문자 인식에서의 은닉노드 수 결정과 r.m.s 학습오차 = 70
      • 3. 최적화 학습수렴 속도 = 72
      • 4. 필기체 영문자 인식을 위한 인식률 = 72
      • E. 최적화 알고리즘을 적용한 기온예측 = 74
      • 1. 신경망을 적용한 기온예측 시스템 구성 = 74
      • 2. 기온예측을 위한 은닉노드 수 결정과 r.m.s 학습오차 = 76
      • 3. 기상예측을 위한 일반성 = 78
      • Ⅶ. 결론 = 80
      • 참고문헌 = 84
      • 부록. 은닉층 특징정보를 이용한 오류역전파 알고리즘 = 89
      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼