RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI등재

      BERT 기반 Variational Inference와 RNN을 이용한 한국어 영화평 감성 분석 = Sentimental Analysis of Korean Movie Review using Variational Inference and RNN based on BERT

      한글로보기

      https://www.riss.kr/link?id=A106424564

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      국문 초록 (Abstract)

      최근 자연어처리 분야에서 많은 성능 향상을 보이고 있는 BERT는 양방향성을 가진 트랜스포머(transformer)를 기반으로 한 모델이다. BERT는 OOV (Out Of Vocabulary) 문제를 해결하기 위하여 BPE (Byte Pair ...

      최근 자연어처리 분야에서 많은 성능 향상을 보이고 있는 BERT는 양방향성을 가진 트랜스포머(transformer)를 기반으로 한 모델이다. BERT는 OOV (Out Of Vocabulary) 문제를 해결하기 위하여 BPE (Byte Pair Encoding)를 적용하며, 이를 기반으로 언어 모델을 사전 학습하고 출력 층(layer)을 추가하여 자연어처리 태스크를 fine-tuning한다. 감성 분석은 주어진 문장에 대한 잠재적 의미를 분석하고 분류하는 문제이다. 본 논문에서는 감성 분석에 BERT로부터 생성되는 토큰 표현을 이용하기 위하여 대용량 한국어 코퍼스로 언어 모델을 학습한 BERT 모델을 사용한다. 또한 문맥 정보를 인코딩하는 RNN을 BERT 함께 사용하는 방법과, RNN으로 인코딩한 hidden state에 variational inference를 이용하여 감성 분석을 수행하는 방법을 제안한다.

      더보기

      다국어 초록 (Multilingual Abstract)

      BERT is a model based on a bidirectional transformer and has demonstrated immense improvement in performance in the field of natural language processing. BERT applies BPE (Byte Pair Encoding) to solve OOV (Out Of Vocabulary) problem, and pre-trains la...

      BERT is a model based on a bidirectional transformer and has demonstrated immense improvement in performance in the field of natural language processing. BERT applies BPE (Byte Pair Encoding) to solve OOV (Out Of Vocabulary) problem, and pre-trains language model based on the BPE and fine-tunes natural language processing task by adding an output layer. Sentimental analysis is a task of analyzing and classifying the potential meaning of a given sentence. In the present work, we have employed the BERT model which trains the language model with large capacity Korean Corpus to use the token representation generated from BERT for sentimental analysis. In addition, we propose a method of using BERT along with RNN, which encodes context information and a method of performing sentimental analysis using variational inference in hidden state encoded by RNNv.

      더보기

      참고문헌 (Reference)

      1 "https://github.com/huggingface/pytorch-pretrained-BERT"

      2 "https://github.com/e9t/nsmc"

      3 "http://aiopen.etri.re.kr/"

      4 Jang Hwan-seok, "The method of analyzing sentiment keywords using Word2Vec" 661-663, 2017

      5 Danilo Jimenez Rezende, "Stochastic backpropagation and approximate inference in deep generative models" 1278-1286, 2014

      6 Tao Lei, "Simple Recurrent Units for Highly Parallelizable Recurrence" 4470-4481, 2018

      7 Jun Young Youn, "Sentiment Analysis for Korean Product Review Using Stacked Bi-LSTM-CRF Model" 633 (633): 633-635, 2018

      8 Yishu Miao, "Neural Variational inference for Text Processing"

      9 Min Kim, "Multi-channel CNN for Korean Sentiment Analysis" 79-83, 2018

      10 Sepp Hochreiter, "Long short-term memory" 9 (9): 1735-1780, 1997

      1 "https://github.com/huggingface/pytorch-pretrained-BERT"

      2 "https://github.com/e9t/nsmc"

      3 "http://aiopen.etri.re.kr/"

      4 Jang Hwan-seok, "The method of analyzing sentiment keywords using Word2Vec" 661-663, 2017

      5 Danilo Jimenez Rezende, "Stochastic backpropagation and approximate inference in deep generative models" 1278-1286, 2014

      6 Tao Lei, "Simple Recurrent Units for Highly Parallelizable Recurrence" 4470-4481, 2018

      7 Jun Young Youn, "Sentiment Analysis for Korean Product Review Using Stacked Bi-LSTM-CRF Model" 633 (633): 633-635, 2018

      8 Yishu Miao, "Neural Variational inference for Text Processing"

      9 Min Kim, "Multi-channel CNN for Korean Sentiment Analysis" 79-83, 2018

      10 Sepp Hochreiter, "Long short-term memory" 9 (9): 1735-1780, 1997

      11 Kyunghyun Cho, "Learning phrase representation using RNN encoder-decoder for statistical machine translation" 14 : 2014

      12 H. Jang, "Language-Specific Sentiment Analysis in Morphologically Rich Languages" 498-506, 2010

      13 Geon-Yeong Kim, "Korean Text Generation and Sentiment Analysis Using Model Combined VAE and CNN" 430-433, 2018

      14 Yeongtaek Oh, "Korean Movie-review Sentiment Analysis Using Parallel Stacked Bidirectional LSTM Model" 823-825, 2018

      15 Cheoneum Park, "Korean Movie Review Sentimental Analysis using RNN-based Variational Inference" 2018

      16 Geonyeong Kim, "Korean Movie Review Sentiment Analysis Using Convolutional Neural Network" 747-749, 2016

      17 Cheoneum Park, "Korean Dependency Parsing with BERT" 2019

      18 M. Bautin, "International Sentiment Analysis for News and Blogs"

      19 Alec Radford, "Improving Language Understanding by Generative Pre-Training"

      20 D. Hendrycks, "Gaussian Error Linear Units (GELUs)"

      21 X. Glorot, "Domain adaptation for large-scale sentiment classification : a deep learning approach" 513-520, 2011

      22 Matthew E. Peters, "Deep contextualized word representations"

      23 DaumKakao, "DaumKakao. movie review page"

      24 Y. Kim, "Convolutional Neural Networks for Sentence Classification" 1746-1751, 2014

      25 Cheoneum Park, "Contextualized Embedding-based Korean Movie Review Sentiment Analysis" 75-78, 2018

      26 J. Devlin, "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding"

      27 Diederik P. Kingma, "Auto-Encoding Variational Bayes"

      28 A. Vaswani, "Attention Is All You Need" 5998-6008, 2017

      더보기

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      인용정보 인용지수 설명보기

      학술지 이력

      학술지 이력
      연월일 이력구분 이력상세 등재구분
      2022 평가예정 재인증평가 신청대상 (재인증)
      2019-01-01 평가 등재학술지 유지 (계속평가) KCI등재
      2016-01-01 평가 등재학술지 유지 (계속평가) KCI등재
      2015-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2014-09-16 학술지명변경 한글명 : 정보과학회논문지 : 컴퓨팅의 실제 및 레터 -> 정보과학회 컴퓨팅의 실제 논문지
      외국어명 : Journal of KIISE : Computing Practices and Letters -> KIISE Transactions on Computing Practices
      KCI등재
      2013-04-26 학술지명변경 외국어명 : Journal of KISS : Computing Practices and Letters -> Journal of KIISE : Computing Practices and Letters KCI등재
      2011-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2009-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2008-10-02 학술지명변경 한글명 : 정보과학회논문지 : 컴퓨팅의 실제 -> 정보과학회논문지 : 컴퓨팅의 실제 및 레터
      외국어명 : Journal of KISS : Computing Practices -> Journal of KISS : Computing Practices and Letters
      KCI등재
      2007-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2005-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2002-01-01 평가 등재학술지 선정 (등재후보2차) KCI등재
      더보기

      학술지 인용정보

      학술지 인용정보
      기준연도 WOS-KCI 통합IF(2년) KCIF(2년) KCIF(3년)
      2016 0.29 0.29 0.27
      KCIF(4년) KCIF(5년) 중심성지수(3년) 즉시성지수
      0.24 0.21 0.503 0.04
      더보기

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼