http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
큰 에디 모사 기법을 이용한 초기 천이 경계층 유동 및 방사 소음 해석
최명렬,최해천,강신형,Choe, Myeong-Ryeol,Choe, Hae-Cheon,Gang, Sin-Hyeong 대한기계학회 1997 大韓機械學會論文集B Vol.21 No.6
Flow characteristics are numerically investigated when a packet of waves consisting of a Tollmien-Schlichting wave and a pair of Squire waves evolves in a flat-plate laminar boundary layer using a large eddy simulation with a dynamic subgrid-scale model. Characteristics of early stage transitional boundary layer flow such as the .LAMBDA. vortex, variation of the skin friction and backscatter are predicted. Smagorinsky constants and the eddy viscosity obtained from the dynamic subgrid-scale model significantly change as the flow evolves. Far Field noise radiated from the transitional boundary layer shows the dipole and quadrupole characteristics owing to the wall shear stress and the Reynolds stresses, respectively.
최명렬,성평용,이경호 대한기계학회 2003 대한기계학회 춘추학술대회 Vol.2003 No.12
본 연구에서는 CD-ROM, DVD-ROM, CD-RW와 같은 광 디스크 드라이브(Optical Disc Drive)에서 발생되는 소음의 특성을 유동 소음, 구조 소음, 모터 소음으로 분류하고, 그 중 가장 비중이 큰 유동소음에 대하여 고찰하였다. 우선 드라이브 상단에서 소음 강도를 측정하여 소음원을 추정하고, 이를 내부의 유동 특성과 비교하였다. 또한 드라이브로부터 원거리로 방사되는 소음을 측정하여 방향 특성을 검토하고, 이를 CAE 해석 결과와 비교하였다. 분석한 결과를 바탕으로 스폰지를 이용하여 유동 소음을 저감시키는 예를 소개하였다.
신경 회로망의 시냅스 구현을 위한 아날로그 벡터 곱셈기
최명렬 한양대학교 공학기술연구소 1993 공학기술논문집 Vol.2 No.1
An analog vector multiplier is described for the implementation of synapses in neural networks. The multiplier is designed to execute the linear multiplication between analog signals and analog synaptic weights in artificial neural networks using standard CMOS technology. The inputs and outputs of the multiplier are given in voltage units. Employing this multiplier, we can implement large scale artificial neural networks using fewer MOS transistors than are required by the implementation of the so-call Gilbert multiplier. PSPICE circuit simulations have been executed in order to quantify the performance of this multiplier by measuring the following specifications : maximum percentage error, output offset, X or Y nonlinearity, X or Y feedthrough, small-signal bandwidth, and slew rate, and setting time. An 11-dimensional analog vector multiplier has been designed using the MAGIC VLSI tools and 2㎛ CMOS n-well technology.
최명렬,조태경,권재우 漢陽大學校 工學技術硏究所 2000 工學技術論文集 Vol.9 No.1
본 논문에서는 셀을 섹터로 구분하고 이동국이 어느 섹터에 위치하는가를 추정하여 핸드오버할 확률이 가장 높은 최인접셀을 정하므로써 효율적인 대역폭 할당을 할 수 있는 핸드오버 알고리즘을 제안하였고, 서비스 트래픽을 실시간과 비실시간으로 구분하므로써 무선 멀티미디어 환경에 알맞은 대역폭 할당을 가능하게 했다. 또한 이에 적합한 무선 MAC프로토콜을 제안하여 구현하고자 하는 무선 ATM환경을 보다 구체적이며 실제적으로 나타냈다. 본 논문에서 제안한 알고리즘은 기존의 핸드오버 알고리즘과 SMPL로 비교 시뮬레이션하여 성능을 검증해 보았다. We propose the handover algorithm considering the position of mobile terminal and determining the most adjacent cell with the highest probability of handover. The proposed algorithm can make a effective bandwidth allocation and may be applicable to the condition of wireless multimedia. In addition, the proposed algorithm is considered efficient wireless MAC protocol. The simulation results of the proposed algorithm show better performance in both blocking probability and handover probability than conventional one.
최명렬,조화현 漢陽大學校 工學技術硏究所 2000 工學技術論文集 Vol.9 No.1
본 논문에서는 간단한 비선형 시냅스 회로와 비선형 곱셈기를 이용하여 온 칩 학습기능을 포함한 모듈 칩을 설계하였다. 모듈 칩의 학습 회로는 MEBP(Modified Error Back-Propagation) 학습 규칙을 적용하여 구현하였으며, 모듈 칩이 출력 층과 은닉 층의 학습회로가 동일하므로 어떤 층에서도 사용 가능하도록 설계하였다. 제안한 모듈 칩은 HSPICE 회로 시뮬레이터를 이용하여 동작을 검증하였다. 제안한 모듈 칩은 확장 가능한 온 칩 학습 기능을 내장한 신경회로망 칩으로 대규모의 FNNs(Feedforwad Neural Networks) 구현에 매우 적합하리라 예상된다. A modular chip with on-chip learning has been implemented using nonlinear synapse circuits and nonlinear multiplier circuits. The MEBP(Modified Error Back-Propagation) learning rule is employed for learning circuitry. The module chip has been designed for use of any layer since the learning circuitry of the output layer is as same as that of the hidden layer. The operation of the proposed modular chip has been verified using HSPICE circuit simulator. The modular neural chip might be very suitable for the future implementation of the large-scale neural networks with on-chip learning.