- 연구 목적
- Training Data와 Target Data 사이의 Discrepancy로 인해,
시계열 데이터의 예측 모델의 성능이 낮아지는 것을,
Reversible Normalization Method(RevIN)를 통해 보완
- 특히 Encoder Decoder 구조의 Transformer 모델 등,
Symmetric한 구조를 가진 딥러닝 모델에서 우수한 성능을 보임
- Distribution Shift Problem이란?
- 예측 모델이 Train과 Test 데이터 사이 분포 차이로 인해 성능이 낮아지는 현상
- 시간에 따라 평균과 분산이 변하기 때문

- 핵심 아이디어
- Normalization을 통해 Input Sequence의 Non-Stationary Information을 제거하여,
Data 분포 간 차이를 감소시켜 예측 모델 성능을 향상
- Output 단계에서 제거된 Non-Stationary를 원복시켜,
원본 데이터 특징이 반영된 예측값 도출
- Instance Normalization을 활용

- 실험 Setting
- 데이터셋
- 평가 기준
- Baseline Model
- Informer, N-BEATS, SCINet
- 실험 결과
- RevIN을 적용했을 때와 적용하지 않았을 때 성능을 비교
- Instance Normalization/Denormalization을 Input Layer와 Output Layer에 적용하여,
SOTA 예측 모델의 성능을 높임 (Baseline 모델들 모두에서 성능이 향상됨)
