RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      IA-BERT : context-aware sarcasm detection by incorporating incongruity attention layer for incongruity feature extraction

      한글로보기

      https://www.riss.kr/link?id=T15920746

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      다국어 초록 (Multilingual Abstract)

      Sarcasm is a form of figurative language that has been widely used to implicitly convey an opinion or for humorous purposes. Preliminary research has constantly tried to identify the sarcasm lying in a text directly from tokens within the text. However, it is insufficient because sarcasm does not have specific vocabularies as in polarized sentences. Especially in threads or discussions, sarcasm can be identified after getting the context information from previous replies or discussions. To this end, I propose IA-BERT, a classifier architecture that considers contextual information to identify incongruity features in sarcastic texts. IA-BERT is embedded with an incongruity attention layer that combines features extracted from the response alone and interactive features obtained from the context and the response sequence. The model leverages BERT pre-trained embedding and yields a performance improvement over the standard fine-tuned BERT classifier. IA-BERT also outperforms the sophisticated architecture of LCF-BERT in the accuracy and F1-score.
      번역하기

      Sarcasm is a form of figurative language that has been widely used to implicitly convey an opinion or for humorous purposes. Preliminary research has constantly tried to identify the sarcasm lying in a text directly from tokens within the text. Howeve...

      Sarcasm is a form of figurative language that has been widely used to implicitly convey an opinion or for humorous purposes. Preliminary research has constantly tried to identify the sarcasm lying in a text directly from tokens within the text. However, it is insufficient because sarcasm does not have specific vocabularies as in polarized sentences. Especially in threads or discussions, sarcasm can be identified after getting the context information from previous replies or discussions. To this end, I propose IA-BERT, a classifier architecture that considers contextual information to identify incongruity features in sarcastic texts. IA-BERT is embedded with an incongruity attention layer that combines features extracted from the response alone and interactive features obtained from the context and the response sequence. The model leverages BERT pre-trained embedding and yields a performance improvement over the standard fine-tuned BERT classifier. IA-BERT also outperforms the sophisticated architecture of LCF-BERT in the accuracy and F1-score.

      더보기

      국문 초록 (Abstract)

      빈정거림은 불쾌한 발언을 암묵적으로 전달하기 위해 널리 사용되어 온 비유적 언어의 한 종류이다. 이전 연구에서는 문장 내 단어 기반으로 빈정거림을 식별하는 연구가 활발히 진행되었지만, 빈정거림 문장은 불쾌한 특정 어휘를 포함하고 있지 않기 때문에 단어 기반으로 빈정거림을 분류하기에는 어려운 문제가 있다. 빈정거림을 판단하기 위해서는 이전 대화나 답변에서 문맥 정보를 파악해야 한다. 이를 위해 본 연구에서는 빈정거림 문장에 있는 부조화 특징을 파악하기 위해 문맥적 정보를 고려하는 분류 모델, IA-BERT를 제안한다. IA-BERT는 응답 문장에서 추출한 특징과 문맥 및 응답에서 추출한 대화적 특징을 결합한 부조화 주의 계층이 포함되어 있다. IA-BERT는 기존 fine-tuned된 BERT 분류기에 비해 성능이 향상 된다. 또한 IA-BERT는 정확도와 F1-Score에서도 LCF-BERT보다 성능이 향상 된다.
      번역하기

      빈정거림은 불쾌한 발언을 암묵적으로 전달하기 위해 널리 사용되어 온 비유적 언어의 한 종류이다. 이전 연구에서는 문장 내 단어 기반으로 빈정거림을 식별하는 연구가 활발히 진행되었...

      빈정거림은 불쾌한 발언을 암묵적으로 전달하기 위해 널리 사용되어 온 비유적 언어의 한 종류이다. 이전 연구에서는 문장 내 단어 기반으로 빈정거림을 식별하는 연구가 활발히 진행되었지만, 빈정거림 문장은 불쾌한 특정 어휘를 포함하고 있지 않기 때문에 단어 기반으로 빈정거림을 분류하기에는 어려운 문제가 있다. 빈정거림을 판단하기 위해서는 이전 대화나 답변에서 문맥 정보를 파악해야 한다. 이를 위해 본 연구에서는 빈정거림 문장에 있는 부조화 특징을 파악하기 위해 문맥적 정보를 고려하는 분류 모델, IA-BERT를 제안한다. IA-BERT는 응답 문장에서 추출한 특징과 문맥 및 응답에서 추출한 대화적 특징을 결합한 부조화 주의 계층이 포함되어 있다. IA-BERT는 기존 fine-tuned된 BERT 분류기에 비해 성능이 향상 된다. 또한 IA-BERT는 정확도와 F1-Score에서도 LCF-BERT보다 성능이 향상 된다.

      더보기

      목차 (Table of Contents)

      • Chapter 1. Introduction 1
      • 1.1. Sarcasm as a figurative language 1
      • 1.2. Motivation and contribution 2
      • 1.3. Organization 5
      • Chapter 2. Literature Review & Background 6
      • Chapter 1. Introduction 1
      • 1.1. Sarcasm as a figurative language 1
      • 1.2. Motivation and contribution 2
      • 1.3. Organization 5
      • Chapter 2. Literature Review & Background 6
      • 2.1. Literature review 6
      • 2.2. Background 10
      • 2.2.1 Preliminary study on the task 10
      • 2.2.2 Token embedding 12
      • 2.2.3 Attention mechanism 16
      • Chapter 3. Proposed Method 21
      • 3.1. BERT embedding layer 22
      • 3.2. Response attention layer (RA) 22
      • 3.3. Context-response attention layer (CRA) 24
      • 3.4. Incongruity attention layer (IA) 25
      • 3.5. Prediction layer 26
      • Chapter 4. Experiments 27
      • 4.1. Datasets and hyperparameters 27
      • 4.2. Results and analysis 29
      • 4.3. Qualitative analysis 33
      • Chapter 5. Conclusion 37
      • References 38
      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼