시계열 예측은 기업, 현장에서 의사결정의 보조자 역할로 활용되어 매우 중요하다. 최근 트랜스포머 구조의 patch time series Transformer(PatchTST)와 MLP 구조의 Long-term time series forecasting Linear(LTSF-Line...
http://chineseinput.net/에서 pinyin(병음)방식으로 중국어를 변환할 수 있습니다.
변환된 중국어를 복사하여 사용하시면 됩니다.
https://www.riss.kr/link?id=A109139729
2024
Korean
time series forecasting ; GRU ; patching ; transformer ; 시계열 예측 ; GRU ; 패칭 ; 트랜스포머
KCI우수등재
학술저널
663-667(5쪽)
0
상세조회0
다운로드국문 초록 (Abstract)
시계열 예측은 기업, 현장에서 의사결정의 보조자 역할로 활용되어 매우 중요하다. 최근 트랜스포머 구조의 patch time series Transformer(PatchTST)와 MLP 구조의 Long-term time series forecasting Linear(LTSF-Line...
시계열 예측은 기업, 현장에서 의사결정의 보조자 역할로 활용되어 매우 중요하다. 최근 트랜스포머 구조의 patch time series Transformer(PatchTST)와 MLP 구조의 Long-term time series forecasting Linear(LTSF-Linear)가 시계열 예측에서 좋은 성능을 보여주었다. 하지만 PatchTST는 학습 및 추론시간이 오래 걸리고, LTSF-Linear는 구조의 단순함 때문에 훈련 데이터가 가지고 있는 정보를 제한적으로 학습한다는 문제점이 있다. 이를 보완하기 위해 패칭된 데이터에 Gated Recurrent Unit(GRU)를 사용하여 학습시간 감소와 시계열 데이터에서 학습할 수 있는 정보를 담아낼 수 있는 patch time series GRU(PatchTSG)를 제안한다. PatchTSG는 PatchTST 대비 학습시간을 최대 82%, 추론시간을 최대 46%까지 감소시킨다.
다국어 초록 (Multilingual Abstract)
Time series forecasting plays a crucial role in decision-making within various fields. Two recent approaches, namely, the patch time series Transformer (PatchTST) and the long-term time series foraging linear (LTSF-Linear) of the MLP structure have sh...
Time series forecasting plays a crucial role in decision-making within various fields. Two recent approaches, namely, the patch time series Transformer (PatchTST) and the long-term time series foraging linear (LTSF-Linear) of the MLP structure have shown promising performance in this area. However, PatchTST requires significant time for both model training and inference, while LTSF-Linear has limited capacity due to its simplistic structure. To address these limitations, we propose a new approach called patch time series GRU (PatchTSG). By leveraging a Gated Recurrent Unit (GRU) on the patched data, PatchTSG reduces the training time and captures valuable information from the time series data. Compared to PatchTST, PatchTSG achieves an impressive reduction in learning time (up to 82%) and inference time (up to 46%).
S 여대 교내식당 식사 인원 예측; COVID-19 팬데믹 기간을 포함한 장기 데이터 활용
대규모 언어모델을 활용한 단계별 누적 프롬프팅 방법론의 법률 도메인 적용
Blurry 클래스 증분 학습 환경에서의 효율적인 프롬프트 학습 방법
BERT 기반의 모델을 이용한 무기체계 소프트웨어 정적시험 거짓경보 분류 모델 개발 방법 연구