최근 Transformer 모델이 여러 도메인에 적용되어 기존의 성능을 뛰어넘는 결과를 보이고 있다. 음성인식 분야에도 Transformer 음향모델이 다른 모델 성능 대비 우수한 결과치를 보이고 있다. 하...
http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
https://www.riss.kr/link?id=A107995894
2021
Korean
학술저널
15-15(1쪽)
0
상세조회0
다운로드국문 초록 (Abstract)
최근 Transformer 모델이 여러 도메인에 적용되어 기존의 성능을 뛰어넘는 결과를 보이고 있다. 음성인식 분야에도 Transformer 음향모델이 다른 모델 성능 대비 우수한 결과치를 보이고 있다. 하...
최근 Transformer 모델이 여러 도메인에 적용되어 기존의 성능을 뛰어넘는 결과를 보이고 있다. 음성인식 분야에도 Transformer 음향모델이 다른 모델 성능 대비 우수한 결과치를 보이고 있다. 하지만, Transformer의 고질적인 연산량 문제의 원인인 Feed Forward 연산을 사용하는 Self-attention 방식을 음성 인식 도메인에 적합하도록 개선하였다. 해당, Light-weight 기법을 적용한 Transformer 음향모델을 한국어 기반의 데이터 셋에 적용하여 연구를 진행하였고 최종적으로 17% 의 연산량 감소를 확인할 수 있었다.
경량 암호 CHAM을 사용한 암호학적 난수발생기 GPU 병렬 구현
MODBUS 프로토콜의 양자내성암호(PQC) 적용 방안에 관한 연구
Smart Building HVAC Monitoring using Thermal Sensor for Occupancy Estimation