RISS 학술연구정보서비스

검색
다국어 입력

http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.

변환된 중국어를 복사하여 사용하시면 됩니다.

예시)
  • 中文 을 입력하시려면 zhongwen을 입력하시고 space를누르시면됩니다.
  • 北京 을 입력하시려면 beijing을 입력하시고 space를 누르시면 됩니다.
닫기
    인기검색어 순위 펼치기

    RISS 인기검색어

      KCI우수등재

      문법 정확도 평가(GAE): 기계 번역 모델의 정량화된 정성 평가 = Grammar Accuracy Evaluation (GAE): Quantifiable Qualitative Evaluation of Machine Translation Models

      한글로보기

      https://www.riss.kr/link?id=A108195514

      • 0

        상세조회
      • 0

        다운로드
      서지정보 열기
      • 내보내기
      • 내책장담기
      • 공유하기
      • 오류접수

      부가정보

      국문 초록 (Abstract)

      자연어 생성은 시스템의 계산 결과를 사람의 언어로 표현하는 작업을 의미한다. 이와 같은 자연어 생성 모델은 정량 평가만으로 생성된 문장의 품질을 대변할 수 없기 때문에 사람이 주관적...

      자연어 생성은 시스템의 계산 결과를 사람의 언어로 표현하는 작업을 의미한다. 이와 같은 자연어 생성 모델은 정량 평가만으로 생성된 문장의 품질을 대변할 수 없기 때문에 사람이 주관적인 기준에 따라 문장의 의미나 문법 점수를 매기는 정성 평가도 같이 사용하여 생성된 문장의 품질을 평가한다. 기존의 정성 평가는 주로 문법 적합도, 의미 적합도를 지표로 사용했으나, 평가자의 기준에 따라 큰 점수 편차가 발생하는 문제점이 존재했다. 따라서 본 논문에서는 구체적인 점수 기준을 제공해 줄 수 있는 문법 정확도 평가(Grammar Accuracy Evaluation, GAE) 방법을 제안한다. 본 논문에서는 기계 번역 모델의 번역 품질을 BLEU와 GAE를 통해 분석하였다. 분석 결과 BLEU 지표로 측정된 점수가 모델의 절대적인 성능을 대변하지 않음을 확인하였으며, GAE 지표를 통해 동의어로 대체된 어휘 및 문장 구조의 변화를 오답으로 평가한 BLEU 지표의 단점이 보완됨을 확인하였다.

      더보기

      다국어 초록 (Multilingual Abstract)

      Natural Language Generation (NLG) refers to the operation of expressing the calculation results of a system in human language. Since the quality of generated sentences from an NLG model cannot be fully represented using only quantitative evaluation, t...

      Natural Language Generation (NLG) refers to the operation of expressing the calculation results of a system in human language. Since the quality of generated sentences from an NLG model cannot be fully represented using only quantitative evaluation, they are evaluated using qualitative evaluation by humans in which the meaning or grammar of a sentence is scored according to a subjective criterion. Nevertheless, the existing evaluation methods have a problem as a large score deviation occurs depending on the criteria of evaluators. In this paper, we propose Grammar Accuracy Evaluation (GAE) that can provide the specific evaluating criteria. As a result of analyzing the quality of machine translation by BLEU and GAE, it was confirmed that the BLEU score does not represent the absolute performance of machine translation models and GAE compensates for the shortcomings of BLEU with flexible evaluation of alternative synonyms and changes in sentence structure.

      더보기

      참고문헌 (Reference)

      1 Guillaume Klein, "OpenNMT: Open-Source Toolkit for Neural Machine Translation"

      2 Rico Sennrich, "Neural Machine Translation of Rare Words with Subword Units" 1 : 1715-1725, 2016

      3 Philipp Koehn, "Manual and Automatic Evaluation of Machine Translation between European Languages" 102-121, 2006

      4 Ayush Garg, "MIPE: A Metric Independent Pipeline for Effective Code-Mixed NLG Evaluation" 123-132, 2021

      5 Kishore Papineni, "BLEU: a Method for Automatic Evaluation of Machine Translation" 311-318, 2002

      6 Tianyi Zhang, "BERTScore: Evaluating Text Generation with BERT" 2019

      7 Jacob Devlin, Chang, "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding" 1 : 4171-4186, 2019

      8 Ashish Vaswani, "Attention Is All You Need" 30 : 5998-6008, 2017

      9 Chris Callison-Burch, "(Meta-) Evaluation of Machine Translation" 136-158, 2007

      1 Guillaume Klein, "OpenNMT: Open-Source Toolkit for Neural Machine Translation"

      2 Rico Sennrich, "Neural Machine Translation of Rare Words with Subword Units" 1 : 1715-1725, 2016

      3 Philipp Koehn, "Manual and Automatic Evaluation of Machine Translation between European Languages" 102-121, 2006

      4 Ayush Garg, "MIPE: A Metric Independent Pipeline for Effective Code-Mixed NLG Evaluation" 123-132, 2021

      5 Kishore Papineni, "BLEU: a Method for Automatic Evaluation of Machine Translation" 311-318, 2002

      6 Tianyi Zhang, "BERTScore: Evaluating Text Generation with BERT" 2019

      7 Jacob Devlin, Chang, "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding" 1 : 4171-4186, 2019

      8 Ashish Vaswani, "Attention Is All You Need" 30 : 5998-6008, 2017

      9 Chris Callison-Burch, "(Meta-) Evaluation of Machine Translation" 136-158, 2007

      더보기

      동일학술지(권/호) 다른 논문

      분석정보

      View

      상세정보조회

      0

      Usage

      원문다운로드

      0

      대출신청

      0

      복사신청

      0

      EDDS신청

      0

      동일 주제 내 활용도 TOP

      더보기

      주제

      연도별 연구동향

      연도별 활용동향

      연관논문

      연구자 네트워크맵

      공동연구자 (7)

      유사연구자 (20) 활용도상위20명

      인용정보 인용지수 설명보기

      학술지 이력

      학술지 이력
      연월일 이력구분 이력상세 등재구분
      2021 평가예정 계속평가 신청대상 (등재유지)
      2016-01-01 평가 우수등재학술지 선정 (계속평가)
      2015-01-01 평가 등재학술지 유지 (등재유지) KCI등재
      2002-01-01 평가 학술지 통합 (등재유지) KCI등재
      더보기

      학술지 인용정보

      학술지 인용정보
      기준연도 WOS-KCI 통합IF(2년) KCIF(2년) KCIF(3년)
      2016 0.19 0.19 0.19
      KCIF(4년) KCIF(5년) 중심성지수(3년) 즉시성지수
      0.2 0.18 0.373 0.07
      더보기

      이 자료와 함께 이용한 RISS 자료

      나만을 위한 추천자료

      해외이동버튼