http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
장병탁(Byoung-Tak Zhang) 한국정보과학회 1998 정보과학회논문지(B) Vol.25 No.9
본 논문에서는 지금까지 실제 응용에서 가장 널리 사용되고 있는 신경망 모델중의 하나인 다층신경망에 있어서 은닉뉴런의 개수를 최적화하는 문제를 다룬다. 제안되는 방법에서는 초기에 작은 크기의 신경망으로 출발하여 필요에 따라 은닉뉴런의 개수를 점차 늘려간다. 이 때 학습 데이터의 크기도 마찬가지로 작게 출발하여 점차 증가된다. 이 알고리즘의 장점은 주어진 데이터의 일부만을 사용하고도 전체 데이터의 학습에 필요한 은닉뉴런의 수를 효율적으로 결정할 수 있다는 것이다. 또한 학습과정에 최적화가 건설적으로 이루어지기 때문에 최적화 후에 추가의 학습을 필요로 하지 않는다. 실험을 통하여 제안된 알고리즘의 효율성과 최적화 특성을 고찰한다. This paper addresses the problem of optimizing the number of hidden neurons in multilayer neural networks which have been one of the most popular neural network models for practical applications so far. The presented method starts learning with a small network and increase the number of hidden units on demand. It also starts with a small training set and expand the set during further training. This incremental learning has the advantage that the number of hidden units can be efficiently determined by using only a subset of the given data. In addition, this method does not need an additional training phase after size optimization since the optimization is constructively performed during a normal learning process. The efficiency and optimality characteristics of the presented algorithm are examined by experiments.
장병탁(Byoung-Tak Zhang) 한국정보과학회 1996 정보과학회논문지(B) Vol.23 No.10
Most conventional neural learning algorithms assume training examples to be provided by an external teacher. However, in a dynamically changing environment or to improve the generalization performance, it is necessary to select or generate training examples. In this paper we present a genetic algorithm-based method for constructing useful examples and develop an information measure for guiding the genetic search process by considering both the error and density of the training data. The experimental results on a robot control problem show an improvement in generalization performance of the network. 기존의 신경망 학습 알고리즘들은 대부분 학습예가 외부의 교사에 의해 제공된다고 가정한다. 그러나 변화하는 학습 환경이나 일반화 능력의 향상을 위해서는 유용한 학습예를 잘 선택하거나 생성하여야 할 필요성이 있다. 본 논문에서는 좋은 학습예의 생성을 위해 유전자 알고리즘을 사용하는 방법을 제안 하며, 학습 데이터의 에러와 밀도를 동시에 고려하여 탐색과정을 유도하기 위한 정보량 측정법을 제시한다. 로봇 제어에 관한 실험에서 제안된 방법이 신경망의 일반화 능력을 향상시킴을 관찰할 수 있었다.
장병탁(Byoung-Tak Zhang) 한국정보과학회 1996 정보과학회논문지(B) Vol.23 No.10
유전 프로그래밍은 트리 구조의 염색체를 유전형으로 사용하는 진화 연산 기법이다. 본 논문에서는 유전 프로그래밍 기법을 사용하여 새로운 신경망 모델을 설계하고 학습시키는 방법을 제시한다. 특히 신경망을 유전 프로그래밍에 적합한 형태로 표현하기 위한 방법과 주어진 문제 해결에 필요한 최적의 신경 회로망 구조를 진화시키기 위한 적용학습기법에 대하여 기술한다. 복잡시스템 모델링 및 예측 문제에 있어서 제안된 방법의 유용성을 실험적으로 검토한다. Genetic programming is an evolutionary computation model that uses tree-structured chromosomes as genotype. This paper introduces a method for designing and training novel neural network models using genetic programming techniques. In particular, we present an encoding scheme for representing neural networks in structures suitable for genetic programming and describe an adaptive learning method for evolving optimal network architectures. The effectiveness of the method is empirically studied on the modeling and prediction of complex systems.
장병탁(Byoung-Tak Zhang),김영택(Yung-Taek Kim) 한국정보과학회 1987 한국정보과학회 학술발표논문집 Vol.14 No.2
한국어 형태소의 기계적 처리에 대한 기존의 연구는 사전 정보에 의존하는 형태소 분석 중심이었다. 본 논문은 기계학습을 이용하여 자동적으로 습득된 규칙을 기반으로 한 형태소 합성과 분석 방법을 제시한다. MASK ( A system for Morphological Analysis and Synthesis of Korean)는 한국어 형태소 합성 및 분석기이다. 사전에는 어휘적 형태소와 품사, 변칙만이 수록되며, 모든 형태소의 생성과 분석은 규칙을 기반으로 한다. 규칙 학습기 Meta-MASK는 사전과 형태소 결합의 예로부터 형태소 결합 규칙을 학습한다. 형태소 합성기 MOS는 이 규칙을 LHS-driven 전진 추론 방식으로 적용하여 형태소 합성을 하고, 형태소 분석기 MOA는 이 규칙을 RHS-driven 전진추론 방식으로 적용하여 형태소 분석을 한다. MASK는 한국어 형태소의 불규칙 현상이나 음운 현상을 일관성있게 프로덕션 규칙으로 표현하며, 형태소를 다양하게 생성하고 분석할 수 있다. 또한, 그 구조가 프로덕션 시스템이고, 규칙이 기계학습 방법에 의해 다양하게 습득되므로 여러 자연언어 처리 시스템에 접속이 가능하다.