RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI우수등재

      Convolutional Neural Network에서 공유 계층의 부분 학습에 기반 한 화자 의도 분석 = Speakers’ Intention Analysis Based on Partial Learning of a Shared Layer in a Convolutional Neural Network

      한글로보기

      https://www.riss.kr/link?id=A104305099

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      국문 초록 (Abstract)

      대화에서 화자의 의도는 감정, 화행, 그리고 서술자로 표현될 수 있다. 따라서 사용자 질의에 정확하게 응답하기 위해서 대화 시스템은 발화에 내포된 감정, 화행, 그리고 서술자를 파악해야...

      대화에서 화자의 의도는 감정, 화행, 그리고 서술자로 표현될 수 있다. 따라서 사용자 질의에 정확하게 응답하기 위해서 대화 시스템은 발화에 내포된 감정, 화행, 그리고 서술자를 파악해야한다. 많은 이전 연구들은 감정, 화행, 서술자를 독립된 분류 문제로 다뤄왔다. 그러나 몇몇 연구에서는 감정, 화행, 서술자가 서로 연관되어 있음을 보였다. 본 논문에서는 Convolutional Neural Netowork를 이용하여 감정, 화행, 서술자를 동시에 분석하는 통합 모델을 제안한다. 제안 모델은 특정 추상화 계층과, 공유 추상화 계층으로 구성된다. 특정 추상화 계층에서는 감정, 화행, 서술자의 독립된 정보가 추출되고 공유 추상화 계층에서 독립된 정보들의 조합이 추상화된다. 학습 시 감정의 오류, 화행의 오류, 서술자의 오류는 부분적으로 역 전파 된다. 제안한 통합 모델은 실험에서 독립된 모델보다 좋은 성능(감정 +2%p, 화행 +11%p, 서술자+3%)을 보였다.

      더보기

      다국어 초록 (Multilingual Abstract)

      In dialogues, speakers’ intentions can be represented by sets of an emotion, a speech act, and a predicator. Therefore, dialogue systems should capture and process these implied characteristics of utterances. Many previous studies have considered su...

      In dialogues, speakers’ intentions can be represented by sets of an emotion, a speech act, and a predicator. Therefore, dialogue systems should capture and process these implied characteristics of utterances. Many previous studies have considered such determination as independent classification problems, but others have showed them to be associated with each other. In this paper, we propose an integrated model that simultaneously determines emotions, speech acts, and predicators using a convolution neural network. The proposed model consists of a particular abstraction layer, mutually independent informations of these characteristics are abstracted. In the shared abstraction layer, combinations of the independent information is abstracted. During training, errors of emotions, errors of speech acts, and errors of predicators are partially back-propagated through the layers. In the experiments, the proposed integrated model showed better performances (2%p in emotion determination, 11%p in speech act determination, and 3%p in predicator determination) than independent determination models.

      더보기

      참고문헌 (Reference)

      1 김학수, "능동학습법을 이용한 한국어 대화체 문장의 효율적 의미 구조 분석" 한국정보과학회 35 (35): 306-312, 2008

      2 M. Kim, "User Utterance Analysis using Convolutional Neural Network" 21 : 5-7, 2017

      3 S. Joty, "Speech act modeling of written asynchronous conversations with task-specific embeddings and conditional structured models" 7-12, 2016

      4 R. Collobert, "Natural language processing(almost)from scratch" 12 : 2493-2537, 2011

      5 C. Seon, "Improving Domain Action Classification in Goal-oriented Dialogues Using a Mutual Retraining Method" 45 : 154-160, 2014

      6 T. Mikolov, "Extensions of recurrent neural network language model" 5528-5531, 2011

      7 Y. Goldberg, "Explained : deriving Mikolov et al. ‘s negative-sampling word-embedding method"

      8 X. Wang, "Combination of convolutional and recurrent neural network for sentiment analysis of short texts" 2428-2437, 2016

      9 이현정, "An Integrated Neural Network Model for Domain Action Determination in Goal-Oriented Dialogues" 한국정보처리학회 9 (9): 259-270, 2013

      10 C. Lee, "A situation-based dialoogue management using dialogue examples" 69-72, 2006

      1 김학수, "능동학습법을 이용한 한국어 대화체 문장의 효율적 의미 구조 분석" 한국정보과학회 35 (35): 306-312, 2008

      2 M. Kim, "User Utterance Analysis using Convolutional Neural Network" 21 : 5-7, 2017

      3 S. Joty, "Speech act modeling of written asynchronous conversations with task-specific embeddings and conditional structured models" 7-12, 2016

      4 R. Collobert, "Natural language processing(almost)from scratch" 12 : 2493-2537, 2011

      5 C. Seon, "Improving Domain Action Classification in Goal-oriented Dialogues Using a Mutual Retraining Method" 45 : 154-160, 2014

      6 T. Mikolov, "Extensions of recurrent neural network language model" 5528-5531, 2011

      7 Y. Goldberg, "Explained : deriving Mikolov et al. ‘s negative-sampling word-embedding method"

      8 X. Wang, "Combination of convolutional and recurrent neural network for sentiment analysis of short texts" 2428-2437, 2016

      9 이현정, "An Integrated Neural Network Model for Domain Action Determination in Goal-Oriented Dialogues" 한국정보처리학회 9 (9): 259-270, 2013

      10 C. Lee, "A situation-based dialoogue management using dialogue examples" 69-72, 2006

      더보기

      동일학술지(권/호) 다른 논문

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      인용정보 인용지수 설명보기

      학술지 이력

      학술지 이력
      연월일 이력구분 이력상세 등재구분
      2021 평가예정 계속평가 신청대상 (등재유지)
      2016-01-01 평가 우수등재학술지 선정 (계속평가)
      2015-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2002-01-01 평가 학술지 통합 (등재유지) KCI등재
      더보기

      학술지 인용정보

      학술지 인용정보
      기준연도 WOS-KCI 통합IF(2년) KCIF(2년) KCIF(3년)
      2016 0.19 0.19 0.19
      KCIF(4년) KCIF(5년) 중심성지수(3년) 즉시성지수
      0.2 0.18 0.373 0.07
      더보기

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼