본 연구에서는 ICT 관련 유망 이슈를 선제적으로 발굴하기 위해 NTIS (National Science & Technology Information Service; 사업, 과제, 인력, 성과 등 국가연구개발 사업에 대한 정보를 한 곳에서 서비스하는...
http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
https://www.riss.kr/link?id=A108018336
2022
Korean
KCI우수등재
학술저널
49-66(18쪽)
0
0
상세조회0
다운로드국문 초록 (Abstract)
본 연구에서는 ICT 관련 유망 이슈를 선제적으로 발굴하기 위해 NTIS (National Science & Technology Information Service; 사업, 과제, 인력, 성과 등 국가연구개발 사업에 대한 정보를 한 곳에서 서비스하는...
본 연구에서는 ICT 관련 유망 이슈를 선제적으로 발굴하기 위해 NTIS (National Science & Technology Information Service; 사업, 과제, 인력, 성과 등 국가연구개발 사업에 대한 정보를 한 곳에서 서비스하는 국가과학기술 지식정보 포털) 국가사업 데이터와 NEWS 데이터를 분석하여 미래 ICT분야의 이슈에 대해 예측하는 프로세스에 대해 다룬다. 먼저 HAN 모델로 NTIS 자료를 학습하여 ICT 문서를 판별해내고, LDA와 DTM 토픽 모델링 기법을 이용해 토픽을 추출하고 토픽 분포와 토픽 내 단어 분포의 시계열적 흐름을 알아본다. 그 후, VAR과 LSTM을 이용해 미래 ICT분야의 이슈 변화에 대해 예측해보고, 연구를 통하여 제기된 결과와 향후 연구 이슈 등에 대하여 논의한다. 구체적으로 총 17개의 토픽을 도출하였으며 NTIS 자료의 토픽 분포는 연도별로 변화가 있었지만, NEWS 토픽 분포는 큰 변화가 없었다. 그리고 토픽 분포를 예측하는 데는 LSTM이 VAR보다, 토픽 내 단어의 분포를 예측하는 데는 VAR이 LSTM보다 성능이 좋았다.
다국어 초록 (Multilingual Abstract)
This study investigate the process of predicting policy issues in the future ICT field by analyzing NTIS (National Science and Technology Knowledge information portal that provides information on national R&D projects such as projects, tasks and perfo...
This study investigate the process of predicting policy issues in the future ICT field by analyzing NTIS (National Science and Technology Knowledge information portal that provides information on national R&D projects such as projects, tasks and performance in one place) national project data and NEWS data. First, we designed an HAN model that determines ICT documents by learning NTIS data. And Topics are extracted using LDA and DTM topic modeling techniques, and time-series flow of topic distribution and word distribution within topic is investigated. Next, VAR and LSTM are used to predict changes in issues in the future ICT field, and we discuss the results and future research issues raised through research. Specifically, a total of 17 topics were derived, and the topic distribution of NTIS data changed by year, but the NEWS topic distribution did not change significantly. In addition, LSTM performed better than VAR in predicting the topic distribution, and VAR performed better than LSTM in predicting the distribution of words in topic.
목차 (Table of Contents)
참고문헌 (Reference)
1 고은지 ; 최선영, "트윗의 타임 시퀀스를 활용한 DTM 분석 : 2019 남북미정상회동 이벤트를 중심으로" 한국정보통신학회 25 (25): 308-313, 2021
2 고광이 ; 오승원 ; 백장선, "토픽 모델을 이용한 경기변동 토픽지수 개발 및 KOSPI200지수에 대한 토픽지수 회귀모형" 한국데이터정보과학회 31 (31): 579-594, 2020
3 나상태 ; 김자희 ; 안주언 ; 정민호, "토픽 모델링을 이용한 시뮬레이션 연구 동향 분석" 한국시뮬레이션학회 25 (25): 107-116, 2016
4 우창우 ; 이종연, "다이나믹 토픽 모델을 활용한 D(Data)ㆍN(Network)ㆍA(A.I) 중심의 연구동향 분석" 한국융합학회 11 (11): 21-29, 2020
5 박대민, "뉴스 기사의 빅데이터 분석 방법으로서 뉴스정보원연결망분석" 한국언론학회 57 (57): 234-262, 2013
6 박준형 ; 오효정, "국내 기록관리학 연구동향 분석을 위한 토픽모델링 기법 비교 - LDA와 HDP를 중심으로 -" 한국도서관·정보학회 48 (48): 235-258, 2017
7 Moon, K. S., "Understanding of the vector autoregressive (VAR) model" 2 : 23-56, 1997
8 Lee, G. H., "Understanding big data" Korea National Open University Press 2014
9 Kang, H. S., "Selection of the optimal morphological analyzer for a Korean Word2vec model" 25 : 376-379, 2018
10 Blei, D. M., "Probabilistic topic models" 55 : 77-84, 2012
1 고은지 ; 최선영, "트윗의 타임 시퀀스를 활용한 DTM 분석 : 2019 남북미정상회동 이벤트를 중심으로" 한국정보통신학회 25 (25): 308-313, 2021
2 고광이 ; 오승원 ; 백장선, "토픽 모델을 이용한 경기변동 토픽지수 개발 및 KOSPI200지수에 대한 토픽지수 회귀모형" 한국데이터정보과학회 31 (31): 579-594, 2020
3 나상태 ; 김자희 ; 안주언 ; 정민호, "토픽 모델링을 이용한 시뮬레이션 연구 동향 분석" 한국시뮬레이션학회 25 (25): 107-116, 2016
4 우창우 ; 이종연, "다이나믹 토픽 모델을 활용한 D(Data)ㆍN(Network)ㆍA(A.I) 중심의 연구동향 분석" 한국융합학회 11 (11): 21-29, 2020
5 박대민, "뉴스 기사의 빅데이터 분석 방법으로서 뉴스정보원연결망분석" 한국언론학회 57 (57): 234-262, 2013
6 박준형 ; 오효정, "국내 기록관리학 연구동향 분석을 위한 토픽모델링 기법 비교 - LDA와 HDP를 중심으로 -" 한국도서관·정보학회 48 (48): 235-258, 2017
7 Moon, K. S., "Understanding of the vector autoregressive (VAR) model" 2 : 23-56, 1997
8 Lee, G. H., "Understanding big data" Korea National Open University Press 2014
9 Kang, H. S., "Selection of the optimal morphological analyzer for a Korean Word2vec model" 25 : 376-379, 2018
10 Blei, D. M., "Probabilistic topic models" 55 : 77-84, 2012
11 Bahdanau, D., "Neural machine translation by jointly learning to align and translate" 2015
12 Pappas, N., "Multilingual hierarchical attention networks for document classification" 2017
13 Hochreiter, S., "Long Short-Term Memory" 9 : 1735-1780, 1997
14 Gers, F. A., "Learning precise timing with LSTM recurrent networks" 3 : 115-143, 2002
15 Blei, D. M., "Latent dirichlet allocation" 33 : 993-1022, 2003
16 Jung, J. H., "International statistical trends and analysis" National Assembly Research Service 2020
17 최진욱 ; 신동원 ; 이한준, "IT 기업 직원의 만족 및 불만족 요인에 따른 이직률 예측: 토픽모델링과 머신러닝을 활용하여" 한국데이터정보과학회 32 (32): 1035-1047, 2021
18 Yang, Z., "Hierarchical attention networks for document classification" 1480-1489, 2016
19 Bayer, J., "Evolving memory cell structures for sequence learning" 755-794, 2009
20 Blei, D. M., "Dynamic topic models" 113-120, 2006
21 Schmidhuber, J., "Deep learning in neural networks: An overview" 61 : 85-117, 2015
22 Lee, E. O., "Analysis of ICT R&D budgets for FY2021 in major ICT spot issue countries" Information & Communication Technology Planning & evaluation 2020
23 Han, E. Y., "A research report on response strategies according to changes in the ICT industry after COVID-19" Korea Information Society Development Institute 2020
VARX 모형과 LSTM 알고리즘의 다변량 시계열 예측 비교
모형 선택에 대한 Elastic-Net 벌점화 회귀모형의 편의의 영향 연구
학술지 이력
연월일 | 이력구분 | 이력상세 | 등재구분 |
---|---|---|---|
2022 | 평가예정 | 계속평가 신청대상 (등재유지) | |
2017-01-01 | 평가 | 우수등재학술지 선정 (계속평가) | |
2013-01-01 | 평가 | 등재학술지 유지 (등재유지) | |
2010-01-01 | 평가 | 등재학술지 유지 (등재유지) | |
2008-01-01 | 평가 | 등재학술지 유지 (등재유지) | |
2005-01-01 | 평가 | 등재학술지 선정 (등재후보2차) | |
2004-01-01 | 평가 | 등재후보 1차 PASS (등재후보1차) | |
2003-01-01 | 평가 | 등재후보학술지 유지 (등재후보2차) | |
2002-01-01 | 평가 | 등재후보 1차 PASS (등재후보1차) | |
2001-01-01 | 평가 | 등재후보학술지 선정 (신규평가) |
학술지 인용정보
기준연도 | WOS-KCI 통합IF(2년) | KCIF(2년) | KCIF(3년) |
---|---|---|---|
2016 | 1.18 | 1.18 | 1.07 |
KCIF(4년) | KCIF(5년) | 중심성지수(3년) | 즉시성지수 |
1.01 | 0.91 | 0.911 | 0.35 |