본 연구에서는 MASS를 이용해 사전 학습 모델을 구축하고 병렬 데이터로 파인 튜닝하여 한국어-영어와 한국어-일본어 기계 번역 모델을 구축한다. 한국어, 일본어, 영어는 모두 다른 문자 체...
http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
https://www.riss.kr/link?id=A108033190
2022
Korean
KCI등재
학술저널
81-88(8쪽)
0
0
상세조회0
다운로드국문 초록 (Abstract)
본 연구에서는 MASS를 이용해 사전 학습 모델을 구축하고 병렬 데이터로 파인 튜닝하여 한국어-영어와 한국어-일본어 기계 번역 모델을 구축한다. 한국어, 일본어, 영어는 모두 다른 문자 체...
본 연구에서는 MASS를 이용해 사전 학습 모델을 구축하고 병렬 데이터로 파인 튜닝하여 한국어-영어와 한국어-일본어 기계 번역 모델을 구축한다. 한국어, 일본어, 영어는 모두 다른 문자 체계를 사용한다. 한국어와 일본어는 주어-목적어-동사의 어순을 갖는 반면 영어는 주어-동사-목적어의 어순을 갖는다. 본 연구에서는 신경망 기반의 기계 번역을 구축할 때 두 언어 사이의 문자 체계를 공유하는 여부와 문장 어순의 유사성에 따른 기계번역의 성능을 평가해 보았다. 모델의 성능 차이를 단어 임베딩을 통해 분석해 보기 위해 어휘 번역 실험과 문장 검색 기계 번역 실험을 수행하였다. 실험 결과 인코더의 단어 임베딩이 디코더에 비해 훨씬 중요하고 한국어-영어보다는 한국어-일본어의 경우 더 좋은 성능을 발휘함을 알 수 있었다. 문장 검색 기계 번역 실험에서 한국어-영어의 경우에는 소량의 병렬 데이터만으로도 큰 폭의 성능 향상이 관찰되었다.
다국어 초록 (Multilingual Abstract)
In this study, we have pre-trained MASS models and built neural machine translation (NMT) systems for Korean-English and Korean-Japanese based on them. Korean, Japanese, and English use different writing scripts. Korean and Japanese are Subject-Object...
In this study, we have pre-trained MASS models and built neural machine translation (NMT) systems for Korean-English and Korean-Japanese based on them. Korean, Japanese, and English use different writing scripts. Korean and Japanese are Subject-Object-Verb languages, while English is a Subject-Verb-Object language. In this study, we have evaluated the performances of NMT systems according to the similarity between languages, such as word order and writing scripts. To compare the performances of NMT models from the perspective of word embeddings, we have conducted the following two experiments: word translation and sentence translation retrieval using word embedding learned by NMT models. The accuracies of word translation and sentence translation for word embeddings of a Korean-Japanese NMT model were higher than those of a Korean-English pair. Moreover, the word embeddings learned by an encoder were more important than those learned by a decoder when used in NMT. Based on the result of sentence translation retrieval of a Korean-English NMT model, we found that a Korean-English unsupervised NMT model could be significantly improved when trained even with a small amount of parallel data.
목차 (Table of Contents)
참고문헌 (Reference)
1 KOZMA, Laszlo, "k Nearest Neighbors algorithm (kNN)" Helsinki University of Technology 2008
2 Lample, Guillaume, "Word Translation without Parallel Data" 2018
3 Matthew S. Dryer and Martin Haspelmath, "WALS Online. Max Planck Institute for Evolutionary Anthropology"
4 Lample, Guillaume, "Phrase-Based & Neural Unsupervised Machine Translation" 5039-5049, 2018
5 Sennrich, Rico, "Neural Machine Translation of Rare Words with Subword Units" 1 : 1715-1725, 2016
6 Bahdanau, Dzmitry, "Neural Machine Translation by Jointly Learning to Align and Translate" 2015
7 이공주 ; 김지은 ; 이성욱, "MOSES를 이용한 한/일 양방향 통계기반 자동 번역 시스템" 한국마린엔지니어링학회 36 (36): 683-693, 2012
8 정영준 ; 박천음 ; 이창기 ; 김준석, "MASS와 상대 위치 표현을 이용한 영어-한국어 신경망 기계 번역" 한국정보과학회 47 (47): 1038-1043, 2020
9 Song, Kaitao, "MASS: Masked Sequence to Sequence Pre-Training for Language Generation" 5926-5936, 2019
10 Park, Yeongjoon, "Korean-English Neural Machine Translation Using Transfer Learning" 595-597, 2018
1 KOZMA, Laszlo, "k Nearest Neighbors algorithm (kNN)" Helsinki University of Technology 2008
2 Lample, Guillaume, "Word Translation without Parallel Data" 2018
3 Matthew S. Dryer and Martin Haspelmath, "WALS Online. Max Planck Institute for Evolutionary Anthropology"
4 Lample, Guillaume, "Phrase-Based & Neural Unsupervised Machine Translation" 5039-5049, 2018
5 Sennrich, Rico, "Neural Machine Translation of Rare Words with Subword Units" 1 : 1715-1725, 2016
6 Bahdanau, Dzmitry, "Neural Machine Translation by Jointly Learning to Align and Translate" 2015
7 이공주 ; 김지은 ; 이성욱, "MOSES를 이용한 한/일 양방향 통계기반 자동 번역 시스템" 한국마린엔지니어링학회 36 (36): 683-693, 2012
8 정영준 ; 박천음 ; 이창기 ; 김준석, "MASS와 상대 위치 표현을 이용한 영어-한국어 신경망 기계 번역" 한국정보과학회 47 (47): 1038-1043, 2020
9 Song, Kaitao, "MASS: Masked Sequence to Sequence Pre-Training for Language Generation" 5926-5936, 2019
10 Park, Yeongjoon, "Korean-English Neural Machine Translation Using Transfer Learning" 595-597, 2018
11 Morishita, Makoto, "JParaCrawl: A Large Scale Web-Based English-Japanese Parallel Corpus" 3603-3609, 2019
12 Pires, Telmo, "How Multilingual Is Multilingual BERT" 4996-5001, 2019
13 Lample, Guillaume, "Cross-Lingual Language Model Pretraining" 2019
14 Devlin, Jacob, "BERT: Pre-Training of Deep Bidirectional Transformers for Language Understanding" 1 : 4171-4186, 2019
15 Vaswani, Ashish, "Attention Is All You Need" 30 : 5998-6008, 2017
딥 러닝 훈련 시간 개선을 위한 쓰레드 기반 셔플링 기법
PSC 박스 거더교 내부의 덕트 공동 탐지를 위한 LSTM Auto-Encoder의 활용
X-MOCNN : 일관성 높은 소프트웨어 결함 분석을 위한 다중 출력 합성곱 신경망
랩터 코드 기반의 멀티캐스트 HTTP 적응적 스트리밍 시스템
학술지 이력
연월일 | 이력구분 | 이력상세 | 등재구분 |
---|---|---|---|
2022 | 평가예정 | 재인증평가 신청대상 (재인증) | |
2019-01-01 | 평가 | 등재학술지 유지 (계속평가) | |
2016-01-01 | 평가 | 등재학술지 유지 (계속평가) | |
2015-01-01 | 평가 | 등재학술지 유지 (등재유지) | |
2014-09-16 | 학술지명변경 | 한글명 : 정보과학회논문지 : 컴퓨팅의 실제 및 레터 -> 정보과학회 컴퓨팅의 실제 논문지외국어명 : Journal of KIISE : Computing Practices and Letters -> KIISE Transactions on Computing Practices | |
2013-04-26 | 학술지명변경 | 외국어명 : Journal of KISS : Computing Practices and Letters -> Journal of KIISE : Computing Practices and Letters | |
2011-01-01 | 평가 | 등재학술지 유지 (등재유지) | |
2009-01-01 | 평가 | 등재학술지 유지 (등재유지) | |
2008-10-02 | 학술지명변경 | 한글명 : 정보과학회논문지 : 컴퓨팅의 실제 -> 정보과학회논문지 : 컴퓨팅의 실제 및 레터외국어명 : Journal of KISS : Computing Practices -> Journal of KISS : Computing Practices and Letters | |
2007-01-01 | 평가 | 등재학술지 유지 (등재유지) | |
2005-01-01 | 평가 | 등재학술지 유지 (등재유지) | |
2002-01-01 | 평가 | 등재학술지 선정 (등재후보2차) |
학술지 인용정보
기준연도 | WOS-KCI 통합IF(2년) | KCIF(2년) | KCIF(3년) |
---|---|---|---|
2016 | 0.29 | 0.29 | 0.27 |
KCIF(4년) | KCIF(5년) | 중심성지수(3년) | 즉시성지수 |
0.24 | 0.21 | 0.503 | 0.04 |