다층 신경망(MLN : Multi-Layer Neural network) 학습에 표준 역전파(BP:Back Propagation) 알고리즘을 사용하는 경우, 학습 속도가 매우 느리기 때문에, 속도를 개선하려는 많은 수정 알고리즘이 제안되었...
http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
https://www.riss.kr/link?id=A82298547
1996
Korean
004
학술저널
721-733(13쪽)
0
상세조회0
다운로드국문 초록 (Abstract)
다층 신경망(MLN : Multi-Layer Neural network) 학습에 표준 역전파(BP:Back Propagation) 알고리즘을 사용하는 경우, 학습 속도가 매우 느리기 때문에, 속도를 개선하려는 많은 수정 알고리즘이 제안되었...
다층 신경망(MLN : Multi-Layer Neural network) 학습에 표준 역전파(BP:Back Propagation) 알고리즘을 사용하는 경우, 학습 속도가 매우 느리기 때문에, 속도를 개선하려는 많은 수정 알고리즘이 제안되었다. 이 논문에서는 BP 알고리즘의 학습 과정을 기하학적으로 분석하고, 이를 바탕으로 학습 속도를 개선하는 수정된 BP 알고리즘을 제안하였다. 수정 알고리즘에서는 최종 출력공간의 중점(center)벡터와 목표벡터와의 차이(difference)를 역전파하여, 연결 가중치 수정량을 효과적으로 정하도록 하였다. 또한, 대표적인 비선형 문제인 XOR 및 많은 연결을 갖는 7-세그먼트 표시 문제에 대하여, 제안된 알고리즘의 성능을 실험하고, 특징 및 개선 방향을 제시하였다.
다국어 초록 (Multilingual Abstract)
The standard BP algorithm is exceedingly slow in a Multi-Layer Neural network learning, and many modified algorithms have been suggested to improve it In this paper, we analysed the geometry of the learning process of the BP algorithm and based on thi...
The standard BP algorithm is exceedingly slow in a Multi-Layer Neural network learning, and many modified algorithms have been suggested to improve it In this paper, we analysed the geometry of the learning process of the BP algorithm and based on this analysis we proposed a modification to the algorithm for improvement of learning speed. In the modified algorithm, we set weight changes effectively by backward propagating the difference vector between the output space center vector and target vector. We evaluated our algorithm by experimenting with the XOR problem and 7-segment display problem. We also discussed some of important features and further improvements to be made.
목차 (Table of Contents)
디스크를 공유하는 다중 DBMS에서 미세 단위 로킹을 위한 캐쉬 일관성 기법