RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      검색결과 좁혀 보기

      선택해제
      • 좁혀본 항목 보기순서

        • 원문유무
        • 음성지원유무
        • 학위유형
        • 주제분류
          펼치기
        • 수여기관
          펼치기
        • 발행연도
          펼치기
        • 작성언어
        • 지도교수
          펼치기

      오늘 본 자료

      • 오늘 본 자료가 없습니다.
      더보기
      • Machine learning approach for phase transitions

        최광종 서울대학교 대학원 2021 국내박사

        RANK : 2943

        This study analyzed the quantum phase transition in a quantum contact process through machine learning approaches based on the artificial neural network and discovered an open quantum system's critical phenomenon different from a classical system. Also, we analyzed the critical phenomena of the synchronization transition of the Kuramoto model with machine learning approaches and predicted the dynamic behavior of the model. It showed that the machine learning approached is an alternative framework for numerical analysis for synchronization phenomena. Chapter 1 outlines the conventional phase transition theory for critical phenomena and the general concepts of the machine learning approaches. The phase transition theory covers the critical phenomena and their universality near the critical point. Machine learning approaches define machine learning's essential elements and explain the model's type and model optimization as mathematical descriptions. Furthermore, we introduce artificial neural networks, which is a promising machine learning method. Chapter 2 includes the machine learning approaches for quantum phase transition of the quantum contact process. Using the quantum jump Monte Carlo method, we simulate a one-dimensional spin chain following a quantum contact process. We train the artificial neural networks such as convolutional neural networks and fully-connected neural networks with supervised learning to detect whether the system is in an active state or absorbing states depending on the observed density of active sites. It is hard to estimate the critical point of the quantum phase transition using only the finite-size scaling, but we measure the critical point precisely by extrapolating the well-train the artificial neural networks' results. We employ the finite-size scaling for critical dynamics at the critical point estimated by machine learning and measure the one-dimensional quantum contact process's critical exponents. As a result, we discover that the critical exponent related to the active site density in a homogeneous initial state different from the classical directed percolation model and find that quantum phase transition exhibits new universality. Chapter 3 includes the machine learning approaches for the synchronization transition of the Kuramoto model. We train the artificial neural networks such as recurrent neural networks and feed-forward networks with supervised learning to estimate the coupling constant, the strength of the interaction between oscillators from the dynamic behavior of oscillators governed by the Kuramoto model. Though the Kuramoto model's conventional order parameter can only estimate the coupling strength only in the synchronized state, the well-trained artificial neural networks measure the coupling strength among the oscillators in the synchronized asynchronous state. This result implicates that the artificial neural networks capture the order parameter for the synchronous state and the latent parameter for the asynchronous state. Also, we train the artificial neural networks such as convolutional neural networks and fully-connected neural networks with supervised learning to detect whether the system is in a synchronous state or asynchronous state according to the configuration of the oscillators' phase. Using extrapolation of the trained artificial neural network's outputs, we could estimate the critical exponent related to a correlation length between oscillators, which was not measured by the data collapse method. The machine learning approach can be an alternative to finite-size scaling methods, including the data collapse method, as a numerical framework for measuring the critical point and critical exponents of synchronization phenomena. Furthermore, as applications, we propose a reservoir computer and a recurrent neural network reproducing the Kuramoto model's dynamics or tracking the network of the interaction between oscillators. Chapter 4 remarks on the results and the meaning of this study. As the quantum contact process is a typical model of the open quantum system, this study shows that the machine learning approach can be applied to the open quantum system beyond the classical and closed quantum systems. Though this study focuses on the Kuramoto model as a typical nonlinear dynamics model exhibiting synchronization transition, we expect that the artificial neural networks will be a significant breakthrough in follow-up studies to predict the dynamical behavior of the chaotic system and to illuminate synchronization phenomena. 본 연구는 양자 접촉 모형의 양자 상전이를 인공신경망에 대한 기반 기계 학습 방법론을 통해 분석하였고 열린 양자계의 새로운 보편성을 가지는 임계현상이 있음을 밝혀내었다. 또한 기계 학습 방법론으로 구라모토 모형의 동기화 상전이의 임계현상을 분석하고 동역학 거동을 예측하므로써 동기화 현상에 대한 기계 학습을 대안적인 수치 분석의 틀거리로 활용할 수 있음을 보였다. 제1장은 임계 현상에 대한 상전이 이론과 기계 학습 방법론에 대한 일반적인 개념들을 개괄한다. 전통적인 상전이 이론은 통계물리학을 기반으로 전개되며 임계점 근방에서 발현하는 임계 현상과 그 보편성을 다룬다. 기계 학습 방법론은 기계 학습의 주요 요소들을 정의하고 모형의 형태와 모형의 최적화 과정에 대한 수학적인 기술을 제공한다. 더불어서 기계 학습 방법론 가운데서 유망한 인공신경망을 구현하는 방법을 소개하였다. 제2장은 양자 접촉 과정의 양자 상전이에 대한 기계 학습 방법론을 다룬다. 우리는 양자 도약 몬테 카를로를 이용하여 양자 접촉 과정을 따르는 1차원 스핀 사슬을 시뮬레이션하였고 관측된 활성 밀도에 따라 시스템이 활성 상태인지 흡수 상태인지를 판단할 수 있도록 합성곱 신경망과 완전결합 신경망과 같은 인공신경망을 지도 학습시켰다. 유한 크기 축적법만을 이용해서는 찾기 어려웠던 양자 상전이의 임계점을 인공신경망의 학습 결과에 외삽법을 적용하여 정교하게 측정할 수 있었다. 기계 학습을 통해서 얻어진 임계점에서 관측되는 임계 동역학을 유한 크기 축척법을 적용하여 1차원에서 양자 접촉 과정의 임계지수들을 구할 수 있었다. 1차원 양자 접촉 과정의 임계지수들 가운데서 스핀 체인의 활성 밀도에 관한 임계지수가 고전적인 단방향 스미기 모형에서 얻어지는 임계지수와 다르다는 것을 확인하였고 양자 상전이가 새로운 보편성을 보임을 밝혀내었다. 제3장은 쿠라모토 모형의 동기화 상전이에 대한 기계 학습 방법론을 다룬다. 구라모토 모형을 따라 움직이는 진동자들의 위상 거동을 관측하고 진동자들 간의 상호작용의 세기인 결합 상수를 예측할 수 있도록 순환 신경망과 전방향 신경망과 같은 인공신경망에 지도 학습시켰다. 학습된 인공신경망은 동기화된 상태의 진동자들의 상호작용의 세기를 측정할 수 있었을 뿐만 아니라 기존의 구라모토의 질서맺음 매개변수로는 추정할 수 없었던 비동기 상태에 놓여진 진동자들의 상호작용의 세기도 측정할 수 있었다. 이 결과는 인공신경망이 동기 상태에 대한 순서 매개변수와 비동기 상태에 대한 잠복 매개변수를 포착한다는 것을 나타낸다. 또한 우리는 진동자들의 위상 조합을 보고 시스템이 동기화 상태에 있는지 비동기 상태에 있는지를 판단할 수 있도록 합성곱 신경망과 완전결합 신경망과 같은 인공신경망을 지도 학습 시켰다. 데이터 중첩법으로 측정되지 않았던 진동자 간의 상호작용의 거리에 관한 임계지수를 인공신경망으로 측정한 결과를 외삽법으로 얻어냈다. 기계 학습 방법론이 동기화 상전이의 임계점과 임계지수를 분석하기 위한 수치적인 틀거리로 데이터 중첩법을 포함한 유한 크기 축척법에 대한 대안이 될 수 있다. 더 나아가 진동자들의 시간에 따른 위상 변화를 저수지 컴퓨터와 순환 신경망에 학습시켜 구라모토 모형의 동역학을 재현하거나 진동자들 간의 상호작용하는 연결망을 추적하기도 하였다. 제4장에서 본 연구의 결과에 의의를 정리해보았다. 양자 접촉 모형은 열린 양자계의 대표적인 모형으로 본 연구는 기계 학습 방법론이 고전적인 물리계와 닫힌 양자계를 넘어서 열린 양자계에도 적용될 수 있음을 보여준다. 또한 본 연구는 동기화 상전이를 보이는 대표적인 비선형 동역학 모형으로 쿠라모토 모형을 다루었지만 혼돈계의 거동을 예측하고 동기화 현상을 규명하기 위한 후속 연구에서 인공신경망 기법이 중요한 역할을 할 것으로 기대된다.

      • Development of a Model for Predicting Airline Tickets Price Using Machine Learning Method

        마므타에바 카밀랴 전남대학교 대학원 2020 국내석사

        RANK : 2943

        This research’s purpose is to predict prices of flight tickets on the basis of web-site data using machine learning algorithms and examine the features used for building prediction model. It also studied the dependence of coefficient of determination or R​2 on sample size of prediction model. Research process consists of 5 steps. First is feature selection. For this research 12 features were used, selected by “brute force” method: Airline, Departure date, Departure time, Arrival date, Arrival time, Travel time in minutes, Number of stops in the itinerary, Number of free luggage, Days to departure, Holiday, Weekday of the departure, Ticket price (KZT). Second step is data collection and pre-processing, which was accomplished manually collecting information from ​ www.chocotrav​e​l.com​, travel related web-site. Third step is machine learning model selection. For this research next machine learning algorithms were used: Random forest, KNN (K-nearest neighbors), AdaBoost (Adaptive Boosting), Linear regression. Fourth step is training machine learning model with software Orange 3.24.0, which is an open source tool for data visualization, machine learning and data mining. Training dataset have been collected in the departure days period of April 15th of 2020 until July 19th of 2020 with 1502 flight data. Test dataset contains data from departure days period of May 5th of 2020 to August 3rd of 2020 with 501 flight data. The fifth is evaluation of machine learning models with performance indices: evaluation of a model is done by random sampling. This research showed that machine learning models could predict flight prices. The practical value of developed price prediction model is threefold. First of all, it is beneficial to airline companies, which operates domestic routes in Kazakhstan. Because it helps to foresee rivals’ prices in advance and consequently dynamically adjust own prices in such a way, which will be more attractive to customers compared to competitors. Second of all, it is beneficial to online travel agencies, which specialize in finding discount rates for travel-related purchases like airline tickets. Since traditional marketing tools are not always efficient with volume, velocity, variety of generated data, therefore prediction based on machine learning methods should be conducted in order to grow revenue by online platform companies and air carriers. By analyzing large consumer generated datasets together with an air carriers provided information machine learning method based travel systems can generate super personalized suggestions, the most optimal routes, and of course cheapest prices for the travellers. The third practical value is customers’ benefits. Since customers obtain financial benefit when air carriers dynamically adjust prices, using prediction model developed in this research in order to win in customer preference by decreasing the prices. Conclusively, machine learning methods are cost-effective and more beneficial in predicting dynamic pricing, because of high discrepancy in ticket price and availability of developing pricing strategies by combining technical and behavioral methods. The academic value of this research is twofold. First of all, research showed that despite having significant differences in RReliefF ranking, prediction behavior performed by machine learning algorithms did not remarkably differ in R​2 value. Therefore it could be concluded that since features correlation was high, even in the case when one feature was eliminated, it did not affect prediction model negatively. If the correlation between features would be high, there would not be dominance of one feature and it would be possible to build a strong prediction model, even if some of the features will be absent. In other words, this research result concludes that performance indicators do not depend on particular features, but rather whether these features are high or low correlated. Second of all, analyzing coefficient of determination or R​2 in airline industry with regarding to sample size. Since the R2 value was higher in smaller dataset, with sample size equal to 350, this research supports the statements of Zaarour and Melachrinoudis that R2 “becomes insignificant when working with very large sample sizes” and “R​2 for a smaller n holds a different meaning than the same R​2 ​for a larger n”. 본 연구의 목적은 머신러닝 알고리즘을 사용하여 특정 웹싸이트에서 판매되는 항공권 가격을 예측하는 예측모형을 개발하고, 항공권 가격을 예측하는데 있어서 중요한 변수들에 대한 고찰을 하였다. 예측모형 개발을 위해 선택한 변수는 총 11개로 항공사명, 출발 날짜, 출발 시간, 도착 날짜, 도착 시간, 항공 시간, 환승 횟수, 무료 수하물 수, 예약 후 출발 일까지 일수, 휴일 여부, 출발 요일 등 이다. 항공권 가격 예측을 위한 훈련 및 테스트 데이터 세트 구성을 위해 2020년 4월 15일부터 7월 19일 까지 특정 웹싸이트에서 1,502개의 항공권 데이터를 수집하였으며, 머신러닝을 수행하기 위 Orange(3.24버전) 오픈소스 소프트웨어를 사용하였다. 보다 정확한 예측모형 개발을 위해 랜덤 포레스트(Random Forest), KNN(K-nearest neighbors), AdaBoost(Adaptive Boosting), 선형회귀(Linear Regression)이 사용되었다. 이 연구는 머신러닝을 통해 보다 정확하게 특정 기간 및 특정 구간의 항공권 가격을 예측할 수 있음을 보여주었으며, RReliefF 순위에 큰 차이가 있음에도 불구하고 머신러닝 알고리즘에 의해 제시된 예측 값은 r​2 값에서 크게 다르지 않았다. 이는 하나의 변수가 제거된 경우에도 변수들 간의 상관관계가 높기 때문에 예측 모형에 부정적인 영향을 미치지 않았음을 보여준다. 일반적으로 변수들 사이의 관계가 높으면, 하나의 변수가 예측 값 결정하는데 있어서 결정적인 역할을 하지 않을 수 있고, 특정 변수를 제거하더라도 좋은 예측모형을 개발할 수 있음을 의미한다.

      • Machine learning-based methodology for multivariate analysis of electroencephalogram

        정다운 Graduate School, Yonsei University 2023 국내박사

        RANK : 2943

        Analyzing electroencephalogram (EEG) data within an experimental design pose challenges due to the significant variability in complex EEG features. This variability can be influenced by multiple factors, including the experimental design, individual differences among participants, and the presence of artifacts. Machine learning application is increasingly employed to analyze complex EEG patterns by integrating multiple EEG features. As a result, it is crucial to evaluate and compare the effectiveness of the machine learning approaches in analyzing EEG patterns. The two experiments were designed to explore EEG interpretation based on machine learning application. In the first experiment, the Support Vector Machine (SVM) algorithm was used to investigate whether the effects of brain stimulation would vary depending on circadian rhythm and chronotype using EEG features. In the second experiment, EEG features was applied to three different machine learning algorithms: SVM, Logistic Regressor (LR), and Extreme Gradient Boost (XGBoost) to classify emotional mental states induced by virtual reality (VR) content. Classification accuracy and feature importance were used to evaluate the performance of the machine learning algorithms. Classification accuracy measures the accuracy of the classification results, while feature importance identifies which EEG features are most important for the classification conditions. The findings of two experiments demonstrated that machine learning application based on experimental EEG data was successful with superior performance. Feature importance analysis can help identify the most informative features for classification and improve the accuracy of the model. The results of feature importance in the first experiment found distinct effects of brain stimulation on both circadian rhythm and chronotype, suggesting that these factors play a crucial role in shaping the impact of brain stimulation. The second experiment yielded significant results in terms of feature importance, revealing distinct outcomes that underscored the effectiveness of VR in eliciting specific emotional responses. These findings provide compelling evidence for the powerful impact of VR in evoking targeted emotional states. The observed variations in the effects of VR on emotional responses further emphasize the potential of VR as a valuable tool for emotion induction. Machine learning can be used to identify the neural mechanisms underlying the effects of brain stimulation. In the second experiment, the feature importance analysis showed that different emotional states could be successfully induced using VR contents, suggesting that EEG-based machine learning can be used to study the neural correlates of emotions and their modulation. The findings in the study demonstrated the potential of machine learning application for EEG data analysis, particularly for classifying and predicting brain states. The study suggested that the selection of appropriate machine learning algorithms and feature sets is critical for achieving high accuracy in classification tasks. The study has important implications for the field of EEG data analysis and machine learning application. By successfully demonstrating the potential of machine learning techniques to analyze EEG signals and identify important features for understanding brain function, the study provides a promising method for future research in this area. Moreover, it can extend to other research fields such as medical or neurocognitive research, beyond EEG data analysis, to provide a prospective method for researching a variety of brain functions. 실험 설계에 기반한 뇌파 분석은 다양한 요인에 의해 영향을 받아 어려움을 가지고 있습니다. 실험 설계, 개인 간 차이, 잡파 등 다양한 요소들이 뇌파 분석에 영향을 미치는데, 이는 정확한 뇌파분석의 어려움을 증가시킵니다. 다양한 뇌파 특징을 통합하여 복잡한 뇌파 패턴을 정확히 식별하기 위해 기계 학습 접근 방법이 점차적으로 연구되고 있습니다. 뇌파 신호 분석 연구는 기계 학습 기법을 적용하는 데에 있어서도 점점 다양한 접근 방식이 시도되고 있으며, 이에 따라 뇌파 패턴에 대한 기계 학습 응용을 평가하고 비교하는 것이 필수적입니다. 이는 뇌파 신호 분석의 정확성과 신뢰성을 높일 수 있을 것으로 기대됩니다. 본 연구는 뇌파 분석을 위한 기계학습 응용방법을 탐색하기 위해 두 가지 실험을 설계했습니다. 첫 번째 실험에서는 Support Vector Machine (SVM) 알고리즘을 사용하여 뇌 자극의 효과가 일주기 리듬과 일주기 유형 따라 다른지를 검증했습니다. 두 번째 실험에서는 뇌파 특징을 세 가지 다른 기계 학습 알고리즘인 SVM, Logistic Regressor (LR), 그리고 Extreme Gradient Boost (XGBoost)에 적용하여 가상 현실 (Virtual Reality: VR) 콘텐츠에 의해 유발된 감정적인 정신 상태를 분류 가능한 지를 검증했습니다. 분류 정확도와 특징 중요도는 기계 학습 알고리즘의 성능을 평가하는 데 사용되었습니다. 분류 정확도는 분류 결과의 정확성을 측정하는 반면, 특징 중요도는 분류 조건에 가장 중요한 뇌파 특징을 식별합니다. 두 실험의 결과는 실험 기반의 뇌파 분석을 위한 기계학습이 우수한 성능으로 성공적이었음을 보여주었습니다. 특징 중요도 분석은 분류에 가장 유용한 특징을 식별하고 모델의 정확성을 향상시킬 수 있습니다. 특징 중요도 분석은 뇌 자극의 효과가 일주기 리듬과 일주기 유형에 의해 설명될 수 있다는 것을 보여주었습니다. 두 번째 실험의 특징 중요도 분석을 통해 VR 콘텐츠를 사용하여 다른 감정 상태를 유도할 수 있음을 보여주었습니다. 이는 뇌파를 기반 기계 학습이 정서 상태와 정서조절의 신경 연관성을 연구하는 데 사용될 수 있음을 시사합니다. 본 연구는 뇌파 데이터 분석 및 기계 학습 응용 분야에 중요한 함의를 가지고 있습니다. 기계 학습 기법을 사용하여 뇌파 신호를 분석하고 뇌 기능을 이해하는 데 중요한 특징을 식별하는 잠재력을 성공적으로 입증함으로써, 본 연구는 뇌파를 사용한 뇌기능 분석 방법을 위한 유망한 방법을 제시했습니다. 뿐만 아니라, 이는 뇌파 분석을 넘어 의료 및 신경인지 연구와 같은 연구 분야에 확장될 수 있는 다양한 뇌 기능 연구 방법을 제시함으로써 의의를 갖습니다.

      • Improving performance of machine learning-based haze removal algorithm with adptive learning method

        이주희 동아대학교 대학원 2021 국내석사

        RANK : 2943

        최근 인공지능(AI, Artificial Intelligence)이 발달함으로써 자율주행의 중요 기술인 영상처리 기술에 대한 연구가 활발히 이루어지고 있다. 하지만 영상처리는 안개나 미세먼지가 낀 날씨와 같은 악천후 기상조건에서 물체인식, 사람인식, 차선인식 등 중요한 정보를 정확하게 검출하지 못하는 한계가 있다. 이러한 한계를 해결하기 위해 과거부터 현재까지 안개제거 기술과 관련한 알고리즘 연구가 활발히 진행되고 있다. 다양한 안개제거 알고리즘들 중 머신러닝 기반 알고리즘에 대한 연구가 주목받고 있다. 머신러닝은 데이터를 기반으로 인간이 경험을 통해 스스로 학습하는 과정을 모방하여 문제를 해결한다. 그래서 기존의 컴퓨터비전에 기반하여 문제를 해결하는 알고리즘보다 성능이 우수하다. 머신러닝에 기반한 안개제거 알고리즘에서는 영상의 특징과 깊이 맵은 선형적인 관계가 있다는 가정 하에 입력데이터를 제공받아 깊이 맵을 추정하여 안개를 제거하는 방법을 사용한다. 효율적인 머신러닝 학습을 위하여 학습률을 자동으로 조절하기 위하여 적응적 학습률 기능을 사용한다. 그리고 깊이 맵을 추정하기 위하여 제공하는 입력데이터로는 영상의 채도(Saturation)와 명도(Value)를 사용하였다. 영상의 특징에는 Colorfulness, Local variance, Local entropy, Dark channel prior, Hue등과 같이 다양한 특징들이 존재한다. 깊이 맵을 추정할 때 사용되는 입력데이터인 영상특징의 최적화를 통해 기존에 머신러닝 학습을 통해 추정된 깊이 맵 보다 개선된 깊이 맵을 구한다. 본 논문에서는 개선된 깊이맵 추정을 위하여 영상의 특징들 중 채도(Saturation), 명도(Value), DCP(Dark channel prior), Local entropy 4가지를 사용하여 깊이 맵을 추정하여 알고리즘의 안개제거 성능개선을 목표로 한다. 그리고 제안한 방법을 소프트웨어로 구현하기 위해 알고리즘을 MATLAB과 C/C++를 이용하여 구현하였고, 성능 검증을 위하여 Core i7-6700, CPU(4.00GHz), 32GB RAM의 환경에서 MATLAB R2019a로 검증하였다. 제안한 방법은 기존의 머신러닝 기반의 안개제거 알고리즘에 비해 학습시간이 감소했고 안개제거 성능도 개선되었다. 정량적 수치 평가를 통해 동등 이상의 결과를 보여주고, 안개제거 시 우수한 가시성을 나타내는 것을 확인하였다. In this paper, we introduced a method to improve the performance of the machine learning-based haze removal algorithm through adaptive learning rate and training data optimization. For efficient learning of machine learning, we proposed a method of optimizing the training data to obtain an improved depth map in the function of automatically adjusting the learning rate and the method of removing haze by estimating the depth map based on machine learning. The proposed algorithm was designed using MATLAB and C/C++ and validated with MATLAB. First, it is important to adjust the learning rate to an appropriate value because the learning rate is a hyper-parameter that greatly affects the learning results in a machine learning algorithm. In the existing machine learning algorithm, the developer manually adjusts the value, but in the proposed method, the training model automatically adjusts the value according to the training data. The learning time can be shortened and the accuracy of the learning results is improved. Second, a depth map estimation method was used to remove haze in a machine learning-based haze removal algorithm. The higher the accuracy of the estimated depth map, the better the haze removal performance of the algorithm. We optimized the training data used in the linear model to estimate the depth map improved over the existing method. The proposed method has been validated by MATLAB. The algorithm was tested using 45 O-HAZE and 30 I-HAZE data sets. Quantitative and qualitative evaluations were performed on the result image from which the haze was removed. It was confirmed that the quantitative value was improved when compared to the existing haze removal method, and excellent visibility was shown in the resulting image.

      • Metadynamics sampling for training machine learning potential

        유동선 서울대학교 대학원 2020 국내박사

        RANK : 2943

        Machine learning potential is getting much attention as a promising computational tool that can give the accuracy close to that of quantum mechanical calculations with much lower cost that scales linearly with the number of atoms. The capability of machine learning potential was demonstrated through numerous applications to complex systems. However, a lack of fundamental understanding and the difficulties in constructing a training set are hindering a wide application of machine learning potentials. Despite the methodological advances in machine learning potentials, the conceptual foundation is still elusive due to the black-box nature of machine learning. The connection between machine learning potential and density functional theory, which forms the basis of machine learning potential, is not explicitly discussed. Besides, the construction of reliable machine learning potential requires a careful selection of a training set. The training set is usually selected by intuition and experience. Still, unexpected structures can emerge during the simulation, giving unreliable results or even catastrophic failures. Thus, a systematic method to construct a robust training set is desirable. In this dissertation, we address two main issues hindering a wide application of machine learning potentials. First, starting from the nearsightedness principles, we formally derive transferable atomic energy within density functional theory, which is essential for all machine learning potentials that are based on the concept of locality. It becomes clear that the objective of machine learning potential is to learn the underlying atomic energy function from total energies. Using a classical potential as a reference, we show that machine learning potential is capable of learning the underlying atomic energy function when only total energies are informed. Through three simple examples, we demonstrate that machine learning potential is also prone to ad hoc energy mapping, where the potential gives an accurate prediction for the training set but learns markedly wrong atomic energy function. The implication for multi-component systems is also discussed. Next, we suggest a novel metadynamics method that can efficiently sample a wide range of local environments, enabling easier construction of a robust machine learning potential. We use a descriptor vector, which is an input to a machine learning model, as a collective variable for each atom. The total bias potential is a sum of atomic bias potentials. In this way, we can efficiently enhance sampling over local environment space for each atom rather than the configuration space of the whole system. We demonstrate three applications of the suggested metadynamics method. The metadynamics simulation can systematically sample a wide range of local environments that are energetically relevant. We apply the metadynamics sampling to develop general-purpose neural network potential for silicon and aluminum. Also, we show that the metadynamics simulation can be used to assess the stability of machine learning potentials and that the metadynamics sampling generates a robust training set, which improves the stability of machine learning potentials. 기계 학습 퍼텐셜은 제일원리 계산에 근접하는 정확도를 훨씬 적은 계산 비용으로 계산하는 방법으로 주목받고 있다. 특히 계산 비용이 원자 수에 비례하여 증가하기 때문에 높은 정확도로 대규모 계산을 수행하기에 적합한 방법이다. 복잡한 계에 대한 기존 응용 연구들이 성공적으로 수행되어 기계 학습 퍼텐셜의 가능성을 보여주었다. 하지만 기계 학습 퍼텐셜에 대한 기초적인 이해가 부족하고 학습 세트를 선정하는 것이 어렵기 때문에 아직 널리 사용되지 못하고 있다. 기계 학습 퍼텐셜과 관련된 방법론은 빠르게 발전하고 있지만, 기계 학습 모델이 블랙박스처럼 사용되어 여전히 기초적인 이해가 부족한 실정이다. 또한 밀도 범함수 이론 결과를 학습하는 기계 학습 퍼텐셜이 성립하려면 기계 학습 모델과 밀도 범함수 이론의 관계가 중요한데 이에 관한 내용은 아직 논의되지 않았다. 다른 한편으로는 높은 신뢰도를 가진 기계 학습 퍼텐셜을 개발하려면 신중하게 학습 세트를 선정하는 것이 중요하다. 학습 세트는 보통 직관과 경험, 그리고 시행착오를 통해 구성하는데 여전히 시뮬레이션 도중에 예상치 못한 구조가 발생하며 시뮬레이션이 실패하는 경우가 흔히 발생한다. 따라서 쉽고 체계적으로 학습 세트를 구축하는 방법이 요구된다. 이 연구에서는 기계 학습 퍼텐셜이 널리 사용되는 데 방해가 되는 두 가지 문제점에 대해 논의한다. 먼저, 전자 구조의 국지성 원리로부터 시작하여 밀도 범함수 이론에서 양도 가능한 원자 에너지를 정의하였다. 이는 국지성에 기반을 둔 모든 기계 학습 퍼텐셜에 있어서 필수적으로 정의되어야 한다. 이로부터 기계 학습 퍼텐셜은 전체 에너지로부터 기저에 있는 원자 에너지 함수를 배우는 것임을 알 수 있다. 고전 퍼텐셜을 이용한 예시를 통해 기계 학습 퍼텐셜이 실제로 전체 에너지만이 주어졌을 때 기저에 있는 원자 에너지 함수를 배울 수 있음을 보였다. 또한, 세 가지 예시를 통해 기계 학습 퍼텐셜이 전체 에너지는 정확히 맞추지만 잘못된 원자 에너지를 배울 수 있음을 보였다. 잘못된 원자 에너지가 다성분계에 미치는 영향도 논의하였다. 다음으로 넓은 원자 환경을 샘플링하여 학습 세트를 쉽게 구축할 수 있는 새로운 메타동역학 샘플링 기법을 제안하였다. 제안된 방법에서 집합 변수(collective variable)로는 기계학습에 사용되는 디스크립터 벡터를 사용하고 전체 바이어스 퍼텐셜은 개별 원자의 바이어스 퍼텐셜들의 합으로 주어진다. 이렇게 함으로써 전체 계의 구조 공간을 탐색하기보다는 개별 원자의 주변 환경 공간을 효율적으로 탐색할 수 있다. 이 연구에서는 제안된 메타동역학 방법의 세 가지 응용 예시를 보였다. 먼저, 메타동역학 샘플링 기법을 활용하여 실리콘과 알루미늄에 대해 광범위하게 사용될 수 있는 다목적 퍼텐셜을 개발하였다. 또한, 메타동역학 방법이 이미 만들어진 퍼텐셜의 안정성을 평가하는 데 사용될 수 있음을 보이고, 메타동역학 샘플링 기법이 퍼텐셜의 안정성을 향상하는 것을 보였다.

      • Machine Learning Application to Monitoring and Control of Resistance Spot Welding Processes

        라쉬 뭉흐치멕 명지대학교 대학원 2021 국내박사

        RANK : 2943

        최근 많은 연구자들이 머신러닝과 딥러닝이 적용된 다양한 분야들을 연구해 왔다. 저항점용접은 특히 자동차 생산에 널리 사용되는 접합 공정인데 다양한 공정변수들이 용접 품질에 직접적인 영향을 미친다. 공정변수 및 용접전류 제어시스템에서 용접강도를 보장하기위한 최적용접조건을 설정하는 과정은 인간의 전문지식에 의존하기 때문에 작업자의 실수에 취약하고 비효율적일 수 있다. 머신러닝과 딥러닝은 실시간 모니터링 신호를 이용한 비파괴검사기법을 개발하는데 유용하게 사용될 수 있다. 이미지 인식 기법 또한 용접 품질을 개선할 수 있는 유용한 도구이다. 본 논문은 TRIP 1180 고장력강판의 저항점용접에서 유지 시간에 따라 용접 품질이 달라지는 현상을 규명하는 것을 목적으로 하며, 프로파일 가압과 관련된 유지 시간의 민감도를 조사했다. 또한, 본 논문에서는 저항점용접공정 모니터링에 사용할 수 있는 머신러닝 학습 방법도 검토 하였다. 본 논문은 두 가지 주요 부분으로 구성되어 있다. 1. 프로파일 가압을 이용한 유지시간에 대한 용접강도의 민감도에 대한 연구 - 그리고 프로파일 가압을 하면서 상이한 유지 시간을 적용하여 용접 품질변화를 조사하였다. 2. ANN, 딥러닝을 사용하여 너깃 직경과 두께를 예측하는 데 동저항 신호를 사용하였다. 복잡한 다층겹판용접에서는 용접 품질을 향상시키기 위한 여러 방법 중 머신러닝분류(machine learning classification) 기법을 사용하여 용접품질을 판단하였다. 또한 용접공정변수의 변화를 이미지 인식기법을 통하여 정량적으로 산출하였다. In recent years, many researchers have been carried out different fields applied machine learning, deep learning. Resistance spot welding is a popular joining process, particularly in the automobile industry production. Weld quality level with a strength-based on process control, welding power source and control system that various process factors directly impact weld quality. Many welding methods depend on human expertise to choose optimal settings, making them more susceptible to human mistakes and inefficiency. Deep learning, machine learning will be used to assess online monitoring signals and non-destructive testing approaches. Image recognition is a powerful tool for enhancing welding quality and reducing production and manufacturing time. This thesis aims to understand the relationship between various hold times and the weld quality of TRIP 1180 steel. Examine hold time sensitivity associated with profile force.Furthermore, the machine learning method being able to use in this thesis studied. The thesis consists of three main parts: 1. Study of relationship to hold-time sensitivity microstructure mechanical properties using profile force and increases different hold time control by profile force for enhancing weld quality. Monitoring signal of micro-spot-welding machine such as time, electrode movement that affects the quality assessment of micro, small scale spot welding. 2. Dynamic resistance signal used to predict the nugget diameter penetration by using ANN, deep learning. Complex stack-up material determines weldability of the sheet metal using the machine learning classification method above all methods for evaluating improving weld quality based on signal process, sheet metal. The investigated machine learning algorithms are decision tree random forest, artificial neural network. 3. To explore the development of a real-time angle measurement system for force compensation. DL CNN for identification of welding surface from force compensation with classification. In this study, hold time was determined final the weld structure increasingly becoming an essential factor by controlled force profile in weld nugget. Profile force involved as the variation of the force during the welding process. The level of the profile force influences the contact resistances that have strongly generated heat. The has been less previous evidence for hold time with profile force. The applied parameter welding of the current 7.5kA profile force was increased from 2.95kN to 4.4kNkgf, cycle squeeze time, 22 cycle welding time, and short hold time variations of 1, 2, 5, 10 cycles the long hold time of 30 cycles 60 cycles, respectively. The electrode used in this study were Cu-Cr-Zr dome radius type and diameter of electrode tip 6mm comparison between constant force and force profile respect different welding of holding time. The tensile shear strength test was accomplished in a universal testing machine. Coupon dimensions 150x50 mm single spot weld was made at the center of an overlapped area 50mm. All samples were performed at room temperature. According to AWS(ISO), standards peak load was extracted from the load-displacement curve that data recorded to evaluate the mechanical properties. The Vickers microhardness tester was being used to measure microhardness distribution under a force of 4.903 N. As shown, gradual hardness looked in the nugget zone CF10, CF90, PF10, PF90, the minimum value was 497 HV, and the maximum value was 522HV in strength. Comparison of the Tensile shear strength, Cross tension strength behavior of TRIP steel. It can be seen that TRIP steel has a good balance between strength and ductility at an appropriate hold time of 30 cycles. In the TRIP 1180 CTS test, a profile force of 30 cycles results in better energy absorption. Tensile Shear Strength: proportional to hold time. Cross-Tension Strength: inversely proportional to hold time. Profile force: no consistent and significant effect on strength for various hold times. CTS reduction seems to be due to the increase in hold time, increasing the cooling rate, resulting in a slight increase in maximum hardness. Due to the characteristics of resistance welding, both the nugget size and heat affected zone is composed of 100% martensite, regardless of the hold times, but even with the same 100% martensite, the hardness increases as the cooling rate increases. The second part of the dissertation focused on weld quality was investigated based on the non-destructive testing method as electrode movement and machine learning. SUS304 metal joining used with the same thickness layers. Three different states are observed of metal commonly used, and welding parameters in the same experiment condition and 2870 electrode movement samples were collected. The electrode movement value was implemented as the feature, and for this multi-class classification problem, an algorithm including a decision tree and multi-layer perceptron was used to classify the electrode movement using a dual accelerometer sensor. This method identifies the correct class; several possible weld quality outcomes from the electrode movement pattern are proposed in this paper. The electrode movement features are extracted from the voltage and current data. We compared the receiver operating characteristic curve metrics of the widely used feed-forward back-propagation ANN with the decision tree. The good experimental results were obtained in the decision tree algorithm as the classification. The highest classification detection accuracy rate achieves 93% decision tree accuracy of 83.23%. There are three different curves; class 2 obtained results better than other results MLP class 2 has a classification accuracy of 92.15%, 0.99 of AUC, 0.86, and 0.82, respectively. (Area under the ROC curve). Precision-Recall curve is class 2 indices close to the upper right corner that is best classification performances. The ANN model can predict diameter penetration good adjustment R 0.9987 of training and testing 0.92 significantly higher than two hidden layers ANN three layers model is a more reliable and accurate tool for predicting the overall outcomes. Predicted data very close to the actual data compared obtained from the deep learning model. Classification-based machine learning techniques were used to predict weld quality. Furthermore, they compared the classification accuracy of four models by ten material stack-up classes. There are four classification algorithms with two performances, Multi-layer Perceptron, Random Forest, KNN, and decision tree Precision-Recall, also known as ROC curve. Different classification algorithm's ROC and PR curves were evaluated. Accuracy is the performance measure that is being examined. Classification algorithms must be used to validate the efficacy of a feature selection algorithm-the better the results, the clearer the prediction. Following an examination of the prediction findings, it was evident that the Decision Tree approach succeeded for all this data. Group 2-1 five different sheet thickness is lower accuracy than other class. Three various dissimilar thickness performances achieved a good result. The third and last part of the dissertation is the study that recommended Convolutional Neural Network founded on multi-classification method welding surface apply VGG16, RESNET50, InceptionV3. A comparison of the various architecture of deep learning models selects the best model that guides the results found to improve performing the proper models using different deep learning optimization algorithms. InceptionV3 model provides the highest classification performance. This multi-classification network's application of non-destructive evaluation approaches has attracted intense interest in modern automotive industries.

      • Cognitive Analyses of Machine Learning Systems

        Grant, Erin Marie ProQuest Dissertations & Theses University of Cali 2022 해외박사(DDOD)

        RANK : 2943

        Machine learning systems are increasingly a part of human lives, and so it is increasingly important to understand the similarities and differences between human intelligence and machine intelligence. However, as machine learning systems are applied to more complex problem settings, understanding them becomes more challenging, and their performance, correctness, and reliability become increasingly difficult to guarantee. Moreover, "human-level performance" in such settings is often itself not well-defined, as many of the cognitive mechanisms underlying human behavior remain opaque. This dissertation bridges gaps in our understanding of human and machine intelligence using cross-disciplinary insights from cognitive science and machine learning.First, I develop two frameworks that borrow methodologically from cognitive science to identify deviations in the expected behavior of machine learning systems. Second, I forge a connection between a classical approach to building computational models of human cognition, hierarchical modeling, and a recent technique for small-sample learning in machine learning, meta-learning. I use this connection to develop algorithmic improvements to machine learning systems on established benchmarks and in new settings that highlight their inability to come close to human standards. Finally, I argue that machine learning should borrow methodologically from cognitive science, as both are now tasked with studying opaque learning and decision-making systems. I use this perspective to construct a computational model of machine learning systems that allows us to formalize and test hypotheses about how these systems operate.

      • A Study on Machine Learning Techniques for Multi-Agent System Analysis and Control

        Jeongho Park 고려대학교 대학원 2023 국내박사

        RANK : 2943

        Artificial intelligence (AI) attempts to mimic the functions of the human brain using a computer. In particular, machine learning, a branch of AI, has been an important topic of research since the mid-1900s. In the process of long-term research, the era of the 4th industrial revolution has come through the convergence of big data, computing, and communication technology, which has accelerated the development of machine learning technology and has been applied in various fields. Machine learning attracted the attention of many researchers and the public with the emergence of AlphaGo in 2015. Then, related research has been actively conducted and new methodologies have been introduced at a rapid pace. Among them, deep learning and reinforcement learning are not only being studied at a considerable level, but are being applied to fields including robots, automobiles, healthcare, finance, and games. Here, it is also essential to understand the fundamental theories of both supervised learning and unsupervised learning when studying deep learning and reinforcement learning. This paper introduces the overall concept of machine learning technology, including supervised learning, unsupervised learning, reinforcement learning, and deep learning. In addition, the core technologies that drive the development of machine learning technology are introduced. Based on these basic theories, we introduce how to apply machine learning in the real world, analyze the application results, and consider the expected possibilities of future research directions. We particularly consider deep reinforcement learning that employs deep learning in a multi-agent system that is similar to the real world to analyze situations and uses reinforcement learning to make decisions and control actions. This multi-agent system consists of multiple agents situation by considering each entity as an agent for a predator-prey ecosystem. We attempt to find the optimal policy for this multi-agent system by employing off-policy reinforcement learning. In addition, meta-reinforcement learning is explored to improve the performance of reinforcement learning for various tasks. This is because AI models are required to make optimal decisions for various tasks rather than being good at only a single task. Finally, we conduct research to increase the training efficiency of neural network-based models with the use of external memory in off-policy multi-agent reinforcement learning and meta-reinforcement learning. 인공지능이란 컴퓨터를 사용하여 인간의 뇌를 모방한 것이다. 특히 인공지능의 한 갈래인 머신러닝은 1900년대 중반부터 중요한 연구 주제로 자리잡고 있다. 오랜 기간의 연구가 이루어지는 과정 중에 빅데이터 기술, 컴퓨팅 기술, 통신 기술의 융합을 통해 4차 산업혁명의 시기를 맞이하게 되었고, 이는 머신러닝 기술의 발전에 가속화를 가져왔고, 다양한 분야에서 적용되어 좋은 성능을 보이고 있다. 머신러닝은 2015년 알파고의 등장과 함께 많은 연구자와 대중의 관심을 끌었다. 이후 관련 연구가 활발히 진행되고, 빠른 속도로 새로운 방법론들이 소개되고 있다. 그 중에서도 딥러닝과 강화학습은 상당한 수준의 기술이 연구될 뿐만 아니라, 로봇, 자동차, 의료, 금융, 게임과 같이 다양한 분야에 대해 적용되고 있다. 여기서, 딥러닝과 강화학습을 연구하는데 있어서 지도학습과 비지도학습에 대한 기본적인 이론을 숙지하고 있는 것 또한 필수적이다. 본 논문에서는 지도학습, 비지도학습, 강화학습, 딥러닝을 포함하는 머신러닝 기술의 전반적인 개념에 대해 소개한다. 또한, 본 논문에서 활용하는 방법론 중, 머신러닝 기술 발전의 발전을 이끄는 핵심 기술들을 소개한다. 이와 같은 기초 이론들을 기반으로 실제 세상에서 어떻게 머신러닝을 적용할 것인가에 대해 소개하고, 적용 결과에 대한 분석과 향후 연구 방향에 대한 내용 및 가능성에 대해 고려한다. 특히, 현실 세계와 유사한 다중 에이전트 시스템에 대해 딥러닝을 활용하여 상황을 분석하고, 수많은 경우의 상황에 대해 강화학습을 활용하여 의사결정 및 시스템 제어를 수행하는 심층 강화학습을 고려한다. 이러한 다중 에이전트 시스템은 포식자-피식자 생태계에 대해 각 개체를 하나의 에이전트로 고려하여 시스템을 구성한다. 이렇게 정의된 다중 에이전트 시스템에 대해 오프-폴리시 강화학습을 적용하여 최적의 정책을 찾는 연구를 수행한다. 또한, 다양한 태스크들에 대한 강화학습의 성능을 향상시키기 위해 메타-강화학습 방법론에 대해 탐구한다. 이는 인공지능 모델이 한 가지 일만 잘하는 것이 아니라 다양한 일에 대해 최적의 의사결정을 하는 것이 요구되기 때문이다. 마지막으로 오프-폴리시 다중 에이전트 강화학습과 메타-강화학습에 대해 외부 메모리를 활용하여 신경망 기반의 모델에 대한 학습 효율을 높이는 연구를 수행한다.

      • Machine Learning-Based Process Diagnostics in Plasma Etching for Advanced Process Control

        최정은 명지대학교 대학원 2023 국내박사

        RANK : 2943

        반도체 소자의 소형화 추세는 소자 집적도의 비약적인 증가를 이뤘으나, 제조 공정 단계와 난이도 증가를 야기했다. 공정 난이도가 증가함에 따라 수 nm 급의 초미세 공정은 고도의 정밀성을 요구하고, 기존에는 공정 결과에 영향을 주지 않았던 장비의 작은 변화조차 공정 수율에 영향을 끼치게 되었다. 특히, 플라즈마 공정에서 장비 부품의 노후화에 따른 미세한 변화는 플라즈마의 변화를 일으켜 부정적인 결과를 도출할 수 있다. 따라서 고도화된 반도체 제조 산업에 필수적인 플라즈마 공정의 정교한 제어를 위해, 플라즈마 모니터링 센서를 활용한 고급공정제어 (Advanced Process Control: APC)가 요구된다. 플라즈마 공정의 APC를 통한 수율 향상을 위해, 기계학습 기반의 방법들은 복잡한 플라즈마 데이터에서 높은 성능의 공정 진단 능력을 보여왔다. 인공지능 (Artificial Intelligence: AI)의 발전으로 인해 스마트 팩토리를 향한 반도체 산업의 AI 응용에 대한 화두가 크게 주목받고 있다. 그러나 현시점에는 반도체 도메인 지식을 제외한 AI 관점에서의 연구들이 대다수를 이루고 있다. 특히 반도체 제조 공정에 사용되는 플라즈마 환경은 복잡한 물리적, 화학적 구조로 형성되어 명확한 해석이 어려우며, 공정 변수들과 공정 결과들의 관계를 분석하기 위해 이러한 플라즈마에 대한 정보를 파악하는 것이 중요하다. 따라서 반도체 산업의 AI에 대한 기대에 부합하기 위해서, 도메인 지식 기반의 적절한 데이터 분석과 AI 알고리즘을 융합하는 것이 모델의 성능 및 성공적인 결과 도출에 기여할 수 있다. 본 학위논문은 APC를 위한 기계학습 기반의 플라즈마 식각 공정 진단을 목표로 가상 계측, 이상 탐지 방법에 대한 3가지 주요 주제들로 구성된다. 메모리 소자 제조에 필수적인 고종횡비 식각 공정을 목표로 SF6, O2, Ar 가스를 사용한 실리콘 식각 공정에서 연구를 수행하였으며, 플라즈마 모니터링 센서 중 가장 현업 활용성이 높은 비접촉식 센서인 광학 진단 센서 (Optical Emission Spectroscopy: OES)를 활용하였다. 300 mm 플라즈마 식각 장비에 데이터베이스를 구축하여 장비 데이터와 OES 데이터 취득 및 주요 주제들에 대한 연구 수행을 위한 사전 연구와 식각 공정 레시피 셋업 과정을 포함한다. 첫번째 주제로, 식각 프로파일 분류와 식각 깊이를 예측하는 가상 계측 모델링을 수행하였다. 고도화된 반도체 공정에서 정밀한 계측에 대한 중요성과 함께 높아지는 계측 시간과 비용을 감축하기 위해 가상 계측에 대한 필요성이 증가하였다. 하지만 고종횡비 식각 공정에서 비등방성 식각 프로파일이 필수적임에도 불구하고 식각 프로파일을 위한 가상 계측 연구가 미진한 상황이다. 따라서 플라즈마 식각 공정에서 식각 프로파일을 위한 기계학습 기반의 가상 계측 연구를 수행하였다. 기계학습 앙상블 알고리즘을 통해 식각 프로파일의 종류를 분류하고 인공신경망을 통해 식각 깊이를 예측하였다. 분류 모델과 예측 모델에서 각각 순열 중요도를 계산하여 모델 예측에 큰 영향을 끼친 변수를 분석하여, 비등방성 식각 프로파일과 높은 식각률에 중요한 공정 변수를 파악하고 플라즈마를 분석하였다. 두번째 주제로, 반도체 장비 부품 중 가스질량유량계 (Mass Flow Controller: MFC)를 대상으로 장비 이상 탐지를 위한 연구가 수행되었다. 초미세화 공정에서 문제가 될 수 있는 장비 부품의 미세한 변화로 인한 플라즈마 이상을 진단하는 기계 학습 기반 이상 탐지 기술에 대해 연구하였다. 특히, 양산 데이터는 정상, 이상 클래스에 대해 극심한 클래스 불균형 현상을 보이고, 이는 기계 학습 기반 모델의 성능을 하락시킨다. 플라즈마 식각 장비에서 MFC의 미세한 변화를 OES 센서를 사용하여 모니터링하였고, 본 연구는 OES 데이터의 클래스 불균형 현상의 완화에 집중하였다. 도메인 지식을 바탕으로 한 OES 데이터 전처리와 생성적 적대 신경망을 통해 소수 클래스 데이터를 생성하여, 이상 탐지 모델에서 클래스 불균형 문제의 완화 및 모델 성능을 평가하였다. 마지막 주제로, 반도체 장비의 이상 탐지 및 원인 분류를 위한 기계 학습 기반 모델을 구현하고 모델의 예측 결과 해석에 대한 연구를 수행하였다. 높은 성능을 보이는 기계 학습 기반 이상 탐지 모델은 예측 결과에 대한 낮은 설명력의 한계로 인해 현업 적용에 어려움을 겪는다. 현업 적용을 위해 모델의 해석력을 바탕으로 하는 높은 신뢰성 확보가 요구되며, 본 연구에서는 이상 탐지 및 원인 부류 모델을 구현하고 설명가능한 AI 알고리즘들을 통해 예측 결과에 대해 해석하였다. 또한 공정 플라즈마에 대한 정보를 얻기 위해 OES 데이터를 취득하여 광량측정법 등을 이용한 파생 변수를 도출하여, 모델의 성능을 높이고 공정 플라즈마에 대한 해석력을 향상했다. 결론적으로 본 논문에서 APC를 위한 기계학습 기반 플라즈마 식각 공정 진단을 위해 SF6, O2, Ar 가스 플라즈마를 사용한 실리콘 식각 공정에서 가상 계측, 이상 탐지에 대한 연구를 수행하였다. 반도체 플라즈마 식각 공정에 대한 도메인 지식을 기반으로 한 데이터 전처리 및 기계 학습 기반 기법들을 통해 플라즈마 장비의 APC를 위해 기존 연구들의 문제점을 보완한 개선된 공정 진단 방법론들을 제안하였다. 해당 방법론들이 특정 공정에서 제안되었으나, 높은 해석력을 동반한 기계 학습 기반의 제안된 방법론들이 반도체 제조 분야에 적용된다면 정교한 공정 제어를 통해 수율 및 생산성 향상과 비용 감축에 기여할 수 있을 것으로 기대한다. With the development of semiconductor integration and miniaturization, semiconductor processes have become increasingly refined and complex. Meeting the delicate process conditions, minor changes that previously did not cause issues can now lead to significant problems affecting process yield. In particular, in the plasma process, aging of equipment parts can lead to changes in plasma behavior, which can negatively affect the overall process outcome. As a result, the advanced process control (APC) using plasma monitoring sensors has become necessary for the sophisticated control of the plasma process in the advanced semiconductor process industry that requires delicate control of such miniaturized and complicated processes. Machine learning-based methods have demonstrated their high-performance process diagnosis capabilities in complex plasma data, enabling their application in APC of the plasma process. Along with the development of artificial intelligence (AI), the application of AI in the semiconductor industry towards smart factories is gaining attention, the majority of studies focus on AI perspectives without considering semiconductor domain knowledge. The plasma used in the semiconductor process makes it challenging to interpret due to its intricate physical and chemical structure. It is crucial to have a comprehensive understanding of plasma characteristics to analyze the correlation between process parameters and outcomes. Therefore, to meet the expectations of AI in the semiconductor industry, convergence of domain knowledge-based data and appropriate AI algorithms can contribute to model performance and successful results. This dissertation focuses on three main topics related to virtual metrology and fault detection methods in the context of plasma etching process for APC. The objective is to develop machine learning-based approaches for diagnosing the plasma etching process, particularly in high aspect ratio etching required for memory device manufacturing. The studies investigate the silicon etching process using SF6, O2, and Ar gases and utilizes optical emission spectroscopy (OES), a commonly used non-destructive in-situ sensor for plasma monitoring. A database was constructed using 300 mm etching equipment, which is mass-produced equipment, to collect equipment data and OES data. The dissertation includes prior research and the setup process of the etching standard recipe for the research on major topics. The first subject of this dissertation involves virtual metrology modeling to classify the etch profile and predict the etch depth. Given the significance of precise metrology in advanced semiconductor processes, the demand for virtual measurement techniques has increased to reduce measurement time and costs. However, there is a lack of research on virtual measurement for etch profile in high aspect ratio etching processes. Therefore, this study presents a machine learning-based virtual metrology approach for characterizing the etch profile in the plasma etching process. The etch profile was classified using machine learning ensemble algorithms, while the etch depth was predicted through an artificial neural network. By analyzing the permutation importance of variables in both models, the study identified the process variables that have a significant impact on the prediction and focuses on understanding the plasma behavior associated with achieving anisotropic etch profiles and high etch rates. The second topic of this dissertation focused on detecting faults in the mass flow controller (MFC) among semiconductor equipment components. The study focuses on machine learning-based fault detection technology to diagnose abnormal plasma resulting from minute changes in equipment parts, which can be a critical issue in the miniaturized process. The study particularly addresses the issue of extreme class imbalance in the mass-produced data, which negatively impacts the performance of machine learning-based models. To monitor the minute changes in the MFC of plasma etching equipment, an OES sensor was utilized. The research emphasizes the mitigation of class imbalance in the OES data. This was achieved through preprocessing techniques based on domain knowledge and the application of generative adversarial networks to generate minority class data. The effectiveness of this approach in alleviating the class imbalance problem and improving model performance were evaluated in the fault detection model. In the final topic, machine learning-based models were developed to detect faults and classify their causes in semiconductor equipment, with an emphasis on interpreting the predicted results of the model. While machine learning-based fault detection models have demonstrated high performance, their limited interpretability poses challenges for their practical application in the field. To address this issue, this study implemented fault detection and fault classification models that not only deliver accurate predictions but also offer interpretability of the prediction results using explainable AI. Actinometry and line ratio methods were used to derive variables from the acquired OES data to obtain information on process plasma, which improved the performance of the model and enhanced the interpretability of process plasma. In conclusion, this dissertation presents the machine learning-based plasma etching process diagnosis for APC in the specific case of the silicon etching process using SF6, O2, and Ar gas plasma. By leveraging data preprocessing and machine learning approaches rooted in the domain knowledge of semiconductor plasma etching processes, this research introduces improved methodologies for process diagnosis that address the limitations of existing studies, thereby contributing to the APC of plasma equipment. While the proposed methodologies have been developed and evaluated for a specific process, their machine learning-based approach with high interpretability has the potential to enhance yield and cost savings through precise process control in the semiconductor manufacturing field.

      • 회전체 결함 진단을 위한 머신러닝 데이터 학습 방법 개발

        정덕영 경상대학교 대학원 2021 국내석사

        RANK : 2943

        As the fourth industrial revolution progressed, data processing and analysis technology is developed. At the same time, machine learning for rotating machine management has been studied using the physical and statistical feature parameters of vibration signals. Machine learning requires a large amount of training data to improve diagnostic accuracy. However, training data is difficult to obtain on the industrial site due to maintenance activities and acquisition of error signals. In addition, current technology is inefficient to classify various conditions(complex fault or fault) of rotating machines. In order to improve the limitations of these technologies, we reviewed the applicability of the industrial field. And then we found two limitations in this process. First, The formation of training data is performed on the assumption that the normal condition of the rotating machines is almost similar over time. However, many industrial plants perform regular maintenance, and depending on the maintenance results, the normal vibration trend of the equipment is likely to change as well. This reduces the diagnostic performance of machine learning. So, A new training method to minimize the change are developed. The difference signal(delta signal) between fault signal and normal signal is generated with phase synchronization, and training data are formed using an extracted delta signal. Second, machine learning use genetic algorithms (GA) and principal component analysis (PCA) that in the selection or extraction process of feature conditions of rotating machines. The GA uses only 3 features for displaying result so GA method have a disadvantage with multi-fault classification and also PCA have demerit using all features in any case classify. In order to overcome these problems, a new method with the advantages of the GA algorithm and the PCA algorithm was proposed to improve the process of machine learning. In the proposed method, appropriate features are selected to classify the machine conditions by the GA, and additional feature selection for performance improvement is repeated. Then the PCA algorithm contains all the information of the features selected from the GA algorithm. In this paper propose a training method to improve the two limitations of machine learning. The classification performance was evaluated by comparing the proposed method with the original method. As a result, all developed methods have improved performance. The performance of fault diagnosis is more efficient in terms of propose learning than the original method. 4차 산업혁명이 진행됨에 따라 데이터를 처리하고 분석하는 기술의 발전 이루어졌다. 이와 같이 회전 기계의 원만한 관리를 위해 진동 신호의 물리적 및 형상 의미를 가진 형상 파라미터를 사용하여 진단을 수행하는 기계학습 연구가 수행되고 있다. 기계 학습에서 훈련 데이터는 중요하며, 높은 진단 성능을 도출하기 위해서는 충분한 훈련 데이터가 확보되어야 한다. 그러나, 유지보수 활동, 오류 신호 획득과 같은 이유로 실제 산업 현장에서 교육 데이터를 얻기는 어렵다. 또, 다량의 상태정보가 학습되면 Machine Learning 기술의 진단 성능이 떨어지는 것을 확인할 수 있었다. 이러한 경우 Machine Learning에 기반한 기술의 효용성이 떨어지고 결국 도태될 수 있기 때문에 기술을 개선하기위한 노력이 필요하다. 이에 따라 기술의 현장적용에 앞서 대표적인 두 가지 한계점을 확인하였다. 첫번째로 훈련데이터 형성은 설비의 정상상태가 시간이 지남에도 거의 유사하다는 가정하에 수행된다. 하지만 수많은 plant에서는 정기적인 O/H(Overhaul)이 수행된다. O/H 결과에 따라 설비의 정상상태의 경향 또한 변화될 가능성이 있다. 이에 따라 위상동기화를 수행하여 결함신호와 정상신호의 차이를 추출한다. 추출된 차이 신호를 이용하여 진단을 수행하는 방법이다. 두번째로, 회전설비의 상태표현을 위해 특징의 선택 혹은 추출과정을 수행한다. 하지만 회전설비는 다양한 결함이 발생할 수 있고 이를 표현하기 위해 선택 혹은 추출과정의 독립적인 사용으로는 어렵다. 다양한 결함데이터를 훈련하고 이를 분류하기 위해 Machine Learning Algorithm인 GA와 PCA의 장점을 극대화시켜 사용하여 분류성능을 개선하기 위해 새로운 방법을 고안하였다. GA 최적화를 통해 변별성 높은 특징 선택하여 성능을 확인 후 분류성능이 낮은 Class를 분류할 수 있는 특징을 재 선택하여 PCA로 여러가지 특징을 차원축소하는 방법을 적용하였다. 본 논문은 기계학습 기술의 2가지 한계를 개선하기 위한 데이터 훈련 방법을 제안한다. 제안된 훈련방법과 기존의 방법을 비교하여 분류성능을 평가했으며, 결과적으로 2가지 방법모두 진단 성능과 시각화에 있어 성능이 개선됨을 확인하였다.

      연관 검색어 추천

      이 검색어로 많이 본 자료

      활용도 높은 자료

      해외이동버튼