RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      End-to-end multimodal fusion-conformerBERT model for emotion recognition

      한글로보기

      https://www.riss.kr/link?id=T16092019

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      다국어 초록 (Multilingual Abstract)

      Emotion recognition is a communication method that helps understand humans and build empathy and intimacy. An intuitive method to achieve natural, intelligent human-computer interaction is the intellectual ability of machines to understand and empathize with human emotional states. However, the emotional state of the speaker is very complex and changes dynamically depending on contextual language expression or nonverbal contexts such as speech and facial expressions. Although most previous studies performed emotion recognition using a unimodal, it is still difficult to understand human emotions. This dissertation aims to improve the performance of emotion recognition through multimodal fusion to integrate all audio, visual and text input for human-computer interaction. Before describing the proposed method, previously studied approaches to emotion recognition and research issues are reviewed. Then, the nonverbal audio and visual build a unimodal by comparing handcraft features and deep learning features. Nonverbal expressions are important clues to understanding emotions, and these sounds and facial expressions contain more detailed information than abstract words. Therefore, extracting differentiated audio and visual features to improve multimodal performance is one of the main tasks of emotion recognition research. This dissertation conducts comparative experiments by selecting handcraft features and deep learning features used in previous studies. Convolution-augmented Transformer (Conformer) encoder allows audio and visual unimodal to efficiently capture both local feature and global feature contextual information, which aids in emotion recognition. Next, a novel end-to-end multimodal method for emotion recognition is proposed. Understanding complex human emotions requires modeling fusion approaches for intra-modal interactions across text, visual and audio modalities. However, each modality contains positive and negative information. For example, in a video, there are frames in which emotion is not prominent. Negative information corresponds to noise between each modality, and such information should be blocked. This dissertation proposes a Positive Sample Filter Fusion for Cross-modal (PSF2C) module to construct all pairwise similarity maps between each modality and to obtain paired features with high similarity. In addition, the proposed model has a Temporal Weight Fusion (TWF) module to give temporal weights to better utilize temporal correlations. Especially, text modality effectively distills knowledge using pre-trained Bidirectional Encoder Representation from Transformer (BERT) with self-supervised learning. Ablation analysis of the model proposed in this dissertation shows that audio and visual components contribute significantly to the recognition results than text using a single BERT. In addition, the performance shows that the fusion process of the PSF2C module that aggregates positive information and the TWF module that assigns time weights is effective. These positive modalities of audio, visual, and text suggest that they contain highly complementary information for sentiment analysis. The method in this dissertation achieves state-of-the-art performance on CMU Multimodal Opinion Sentiment Intensity (CMU-MOSI) and Interactive Emotional Dyadic Motion Capture (IEMOCAP) datasets.
      번역하기

      Emotion recognition is a communication method that helps understand humans and build empathy and intimacy. An intuitive method to achieve natural, intelligent human-computer interaction is the intellectual ability of machines to understand and empathi...

      Emotion recognition is a communication method that helps understand humans and build empathy and intimacy. An intuitive method to achieve natural, intelligent human-computer interaction is the intellectual ability of machines to understand and empathize with human emotional states. However, the emotional state of the speaker is very complex and changes dynamically depending on contextual language expression or nonverbal contexts such as speech and facial expressions. Although most previous studies performed emotion recognition using a unimodal, it is still difficult to understand human emotions. This dissertation aims to improve the performance of emotion recognition through multimodal fusion to integrate all audio, visual and text input for human-computer interaction. Before describing the proposed method, previously studied approaches to emotion recognition and research issues are reviewed. Then, the nonverbal audio and visual build a unimodal by comparing handcraft features and deep learning features. Nonverbal expressions are important clues to understanding emotions, and these sounds and facial expressions contain more detailed information than abstract words. Therefore, extracting differentiated audio and visual features to improve multimodal performance is one of the main tasks of emotion recognition research. This dissertation conducts comparative experiments by selecting handcraft features and deep learning features used in previous studies. Convolution-augmented Transformer (Conformer) encoder allows audio and visual unimodal to efficiently capture both local feature and global feature contextual information, which aids in emotion recognition. Next, a novel end-to-end multimodal method for emotion recognition is proposed. Understanding complex human emotions requires modeling fusion approaches for intra-modal interactions across text, visual and audio modalities. However, each modality contains positive and negative information. For example, in a video, there are frames in which emotion is not prominent. Negative information corresponds to noise between each modality, and such information should be blocked. This dissertation proposes a Positive Sample Filter Fusion for Cross-modal (PSF2C) module to construct all pairwise similarity maps between each modality and to obtain paired features with high similarity. In addition, the proposed model has a Temporal Weight Fusion (TWF) module to give temporal weights to better utilize temporal correlations. Especially, text modality effectively distills knowledge using pre-trained Bidirectional Encoder Representation from Transformer (BERT) with self-supervised learning. Ablation analysis of the model proposed in this dissertation shows that audio and visual components contribute significantly to the recognition results than text using a single BERT. In addition, the performance shows that the fusion process of the PSF2C module that aggregates positive information and the TWF module that assigns time weights is effective. These positive modalities of audio, visual, and text suggest that they contain highly complementary information for sentiment analysis. The method in this dissertation achieves state-of-the-art performance on CMU Multimodal Opinion Sentiment Intensity (CMU-MOSI) and Interactive Emotional Dyadic Motion Capture (IEMOCAP) datasets.

      더보기

      국문 초록 (Abstract)

      감정 인식은 인간을 이해하고 공감과 친밀감을 형성하는 데 도움이 되는 의사소통 방법이다. 로봇은 자연스러운 인간의 감정 상태를 이해하기 위해 human-to-machine 상호작용에 대한 지능적인 직관 능력을 습득해야 한다. 그러나, 문맥적 언어 표현과 비언어적 표현에 따라 동적 변화로 인해 화자의 감정 상태는 매우 복잡하다. 대부분 기존 감정 인식 연구는 단일 modality만을 고려했기 때문에 다차원의 인간의 감정을 이해하는 것은 여전히 어려운 일이다. 본 논문은 감정 인식을 향상시키기 위해 오디오, 시각, 텍스트를 적용하여 multimodal 융합 시스템 구현을 목표로 한다. 또한, multimodal 성능을 향상시키기 위해 차별화된 시청각 특징을 추출하는 것은 감정 인식 연구의 주요 과제 중 하나이며 비언어적 표현인 시청각 신호는 감정을 이해하는 데 중요한 단서이다. 추가적으로, 시청각 정보는 단어 조합으로 구성된 텍스트 정보 보다 더 자세한 정보를 담고 있다. 따라서, 효과적인 감정 인식 비언어적 특징을 추출하기 위해 먼저 시청각의 대표적인 handcraft 특징과 deep learning 특징을 비교 실험을 진행한다. 특징 비교 실험은 글로벌 특징과 로컬 특징을 캡처할 수 있는 Convolution-augmented Transformer (Conformer) 인코더를 제안하여 다른 시퀀스 모델인 Recurrent Neural Networks (RNNs)과 Transformer로 비교 분석한다. 마지막으로, 본 논문에서는 Conformer 모듈에서 추출한 시청각 표현과 Bidirectional Encoder Representation from Transformer (BERT) 모델의 텍스트 표현을 결합한 End-to-End 기반의 새로운 Fusion-ConformerBERT를 제안한다. 또한, 각 modality의 representation 정보는 훈련에 영향을 미치는 프레임과 특징 정보가 존재한다. 이때, 프레임에서 강인한 특징은 positive 정보, 그렇지 않은 약한 특징은 negative 정보로 가정한다. 이러한 negative 정보는 감정 인식 훈련 간의 노이즈에 해당하며 negative 영향을 가진 정보는 차단해야 한다. 따라서, Fusion-ConformerBERT는 Positive Sample Filter Fusion for Cross-modal (PSF2C) 모듈을 제안하여 각 modality 간의 모든 쌍 similarity map을 구성하고 유사성이 낮은 정보인 negative는 차단하고 높은 쌍의 특징인 positive 정보를 필터링한다. 또한, Temporal Weight Fusion (TWF) 모듈을 제안하여 시간적 상관관계에 따른 시간 가중치를 부여한다. Fusion-ConformerBERT에 제안된 텍스트 모델은 Self-supervised learning으로 사전 훈련된 BERT 모델을 사용함으로써 소규모 감정 데이터에 대한 overfitting 문제를 해결한다. 추가적으로, 본 논문의 다양한 ablation 분석을 진행하며 modality 간의 융합에 대한 영향을 비교한다. 나아가, 제안된 Fusion-ConformerBERT에서 positive 정보를 집계하는 PSF2C와 시간 가중치를 부여하는 TWF 모듈의 융합 프로세스가 효과적인 것으로 성능을 보여준다. 제안된 모델에서 오디오, 시각적, 텍스트의 이러한 긍정적인 modality은 감성 분석을 위한 매우 보완적인 정보를 포함하고 있음을 시사한다. 실험은 CMU Multimodal Opinion Sentiment Intensity (CMU-MOSI)와 Interactive Emotional Dyadic Motion Capture (IMEOCAP) 데이터 셋을 사용하며 제안된 Fusion-ConformerBERT은 실험에서 최신 의 성능을 달성한다.
      번역하기

      감정 인식은 인간을 이해하고 공감과 친밀감을 형성하는 데 도움이 되는 의사소통 방법이다. 로봇은 자연스러운 인간의 감정 상태를 이해하기 위해 human-to-machine 상호작용에 대한 지능적인 ...

      감정 인식은 인간을 이해하고 공감과 친밀감을 형성하는 데 도움이 되는 의사소통 방법이다. 로봇은 자연스러운 인간의 감정 상태를 이해하기 위해 human-to-machine 상호작용에 대한 지능적인 직관 능력을 습득해야 한다. 그러나, 문맥적 언어 표현과 비언어적 표현에 따라 동적 변화로 인해 화자의 감정 상태는 매우 복잡하다. 대부분 기존 감정 인식 연구는 단일 modality만을 고려했기 때문에 다차원의 인간의 감정을 이해하는 것은 여전히 어려운 일이다. 본 논문은 감정 인식을 향상시키기 위해 오디오, 시각, 텍스트를 적용하여 multimodal 융합 시스템 구현을 목표로 한다. 또한, multimodal 성능을 향상시키기 위해 차별화된 시청각 특징을 추출하는 것은 감정 인식 연구의 주요 과제 중 하나이며 비언어적 표현인 시청각 신호는 감정을 이해하는 데 중요한 단서이다. 추가적으로, 시청각 정보는 단어 조합으로 구성된 텍스트 정보 보다 더 자세한 정보를 담고 있다. 따라서, 효과적인 감정 인식 비언어적 특징을 추출하기 위해 먼저 시청각의 대표적인 handcraft 특징과 deep learning 특징을 비교 실험을 진행한다. 특징 비교 실험은 글로벌 특징과 로컬 특징을 캡처할 수 있는 Convolution-augmented Transformer (Conformer) 인코더를 제안하여 다른 시퀀스 모델인 Recurrent Neural Networks (RNNs)과 Transformer로 비교 분석한다. 마지막으로, 본 논문에서는 Conformer 모듈에서 추출한 시청각 표현과 Bidirectional Encoder Representation from Transformer (BERT) 모델의 텍스트 표현을 결합한 End-to-End 기반의 새로운 Fusion-ConformerBERT를 제안한다. 또한, 각 modality의 representation 정보는 훈련에 영향을 미치는 프레임과 특징 정보가 존재한다. 이때, 프레임에서 강인한 특징은 positive 정보, 그렇지 않은 약한 특징은 negative 정보로 가정한다. 이러한 negative 정보는 감정 인식 훈련 간의 노이즈에 해당하며 negative 영향을 가진 정보는 차단해야 한다. 따라서, Fusion-ConformerBERT는 Positive Sample Filter Fusion for Cross-modal (PSF2C) 모듈을 제안하여 각 modality 간의 모든 쌍 similarity map을 구성하고 유사성이 낮은 정보인 negative는 차단하고 높은 쌍의 특징인 positive 정보를 필터링한다. 또한, Temporal Weight Fusion (TWF) 모듈을 제안하여 시간적 상관관계에 따른 시간 가중치를 부여한다. Fusion-ConformerBERT에 제안된 텍스트 모델은 Self-supervised learning으로 사전 훈련된 BERT 모델을 사용함으로써 소규모 감정 데이터에 대한 overfitting 문제를 해결한다. 추가적으로, 본 논문의 다양한 ablation 분석을 진행하며 modality 간의 융합에 대한 영향을 비교한다. 나아가, 제안된 Fusion-ConformerBERT에서 positive 정보를 집계하는 PSF2C와 시간 가중치를 부여하는 TWF 모듈의 융합 프로세스가 효과적인 것으로 성능을 보여준다. 제안된 모델에서 오디오, 시각적, 텍스트의 이러한 긍정적인 modality은 감성 분석을 위한 매우 보완적인 정보를 포함하고 있음을 시사한다. 실험은 CMU Multimodal Opinion Sentiment Intensity (CMU-MOSI)와 Interactive Emotional Dyadic Motion Capture (IMEOCAP) 데이터 셋을 사용하며 제안된 Fusion-ConformerBERT은 실험에서 최신 의 성능을 달성한다.

      더보기

      목차 (Table of Contents)

      • 초록 i
      • Abstract v
      • Contents viii
      • List of Figures x
      • List of Tables xiii
      • 초록 i
      • Abstract v
      • Contents viii
      • List of Figures x
      • List of Tables xiii
      • List of Abbreviations xvi
      • Chapter 1. Introduction 1
      • 1.1. Background 1
      • 1.2. Research Goals and Contributions 3
      • 1.3. Organization of Dissertation 5
      • Chapter 2. General Frameworks for Emotion Recognition 6
      • 2.1. General Framework for Unimodal Emotion Recognition 6
      • 2.2. General Framework for Multimodal Emotion Recognition 11
      • 2.3. Attention Mechanism 13
      • 2.4. Vanilla Transformer 16
      • 2.5. BERT 20
      • Chapter 3. Comparison of Handcrafted and Learned features Method in Nonverbal Unimodal 24
      • 3.1. Overview 24
      • 3.2. Video Processing 26
      • 3.3. Proposed Framework 31
      • 3.4. Experimental Results 39
      • Chapter 4. End-to-End Multimodal for Emotion Recognition 50
      • 4.1. Overview 50
      • 4.2. Multimodal Modeling 54
      • 4.3. End-to-End Multimodal Architecture of Fusion-ConformerBERT 60
      • 4.4. Experimental settings 70
      • 4.5. Experimental Results 74
      • Chapter 5. Conclusions and Future Works 92
      • 5.1. Conclusions 92
      • 5.2. Future Works 93
      • Bibliography 94
      • Curriculum Vitae 110
      • Publications 111
      더보기

      참고문헌 (Reference) 논문관계도

      1 A. Vaswani ., "Attention is All you Need", pp . 5998-6008, 2017

      2 T. B . Brown ., "`` Language models are few-shot learners ,", 2020

      3 C. M. Lee ., "`` Emotion recognition based on phoneme classes", 2004

      4 P. J. Lang, "`` The emotion probe : Studies of motivation and attention", vol . 50 , no . 5 , p. 372, 1995

      5 Q. Wang ., "`` Learning deep transformer models for machine translation", 2019

      6 A. Rakhlin, "`` Convolutional neural networks for sentence classification", 2016

      7 P. Ekman ., "`` Universals and cultural differences in the judgments of facial expressions of emotion", vol . 53 , no . 4 , p. 712, 1987

      8 Y. Lu ., "`` Understanding and improving transformer from a multi-particle dynamic system point of view", 2019

      9 K. Cho ., "`` Learning phrase representations using RNN encoder-decoder for statistical machine translation", 2014

      10 S. Hershey ., "`` CNN architectures for large-scale audio classification , in 2017 ieee international conference on acoustics , speech and signal processing ( icassp )", pp . 131-135, 2017

      1 A. Vaswani ., "Attention is All you Need", pp . 5998-6008, 2017

      2 T. B . Brown ., "`` Language models are few-shot learners ,", 2020

      3 C. M. Lee ., "`` Emotion recognition based on phoneme classes", 2004

      4 P. J. Lang, "`` The emotion probe : Studies of motivation and attention", vol . 50 , no . 5 , p. 372, 1995

      5 Q. Wang ., "`` Learning deep transformer models for machine translation", 2019

      6 A. Rakhlin, "`` Convolutional neural networks for sentence classification", 2016

      7 P. Ekman ., "`` Universals and cultural differences in the judgments of facial expressions of emotion", vol . 53 , no . 4 , p. 712, 1987

      8 Y. Lu ., "`` Understanding and improving transformer from a multi-particle dynamic system point of view", 2019

      9 K. Cho ., "`` Learning phrase representations using RNN encoder-decoder for statistical machine translation", 2014

      10 S. Hershey ., "`` CNN architectures for large-scale audio classification , in 2017 ieee international conference on acoustics , speech and signal processing ( icassp )", pp . 131-135, 2017

      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼