- 2017년 11월 6일 오후 9:07
- 조회수: 1513
곽민구
올해 추계학술대회는 대전 카이스트에서 열렸다. 당일 일정으로 다녀오느라 피곤하기도 했지만, 다양한 연구 분야에서 발표를 들을 수 있는 좋은 기회가 되었다.
<발표후기>
이번에 발표한 연구의 제목은 Data-Driven Forecasting Method for Intermittent Demand이었다. 작년 추계학술대회에서도 동일한 주제로 발표를 했는데, 문제점을 보완하고 내용을 추가하였다. 간헐적 수요는 일반적인 시계열 데이터와는 다르게 수요가 발생하는 시점이 불규칙하며 자주 발생하지 않는다. 또한 발생 수요량의 크기 또한 불규칙한 경우가 많아 전통적인 시계열 모델로 좋은 성능을 얻기가 매우 힘들다고 알려져 있다. 자동차, 건설장비 등의 예비부품의 수요 패턴이 바로 이러한 경우에 해당한다. 시계열데이터 Y로부터 설명 변수를 파생하여 인공신경망 모델을 학습한 사례에서 아이디어를 얻어 시작한 이번 연구에서 1) 수요가 발생하는 시점을 정확히 예측하기 위하여 새로운 설명 변수를 파생 2) 원하는 예측시점만큼 time lag를 부여하여 train-test 데이터셋을 생성 3) 시계열 모델(TSB)로 수요량을 예측하되 기계학습 모델(CART)로 예측한 시점에서만 예측수요량을 적용하여 최종적으로 예측값을 반환하는 모델을 제안하였다. 기존 연구에서는 예측기간 동안에서 발생하는 수요량 자체에만 초점을 맞추었다면, 본 연구에서는 수요가 발생하는 시점 또한 고려를 하였으며, 결과적으로는 수요량을 예측하는 관점에서도 좋은 성능을 보였다는 것에 의의가 있다. 시뮬레이션을 통하여 intermittent, lumpy 상황에서 다른 모델들보다 좋은 성능을 내는 것을 확인하였으며, 데이터의 분포에 대한 가정이 맞지 않는 실제 간헐적 수요 데이터에서도 비교 모델들보다 좋은 성능을 내는 것을 확인하였다. 다만, 간헐적 수요에 관한 최신 연구에 대한 리뷰가 부족하여, 몇가지의 논문을 찾아 리뷰한 후 비교 실험을 진행하는 것 또한 의미가 있을 것 같다는 생각이 들었다.
-질문사항-
Q. 기존 방법에서 1시점 이후 밖에 예측을 할 수 없기 때문에, 예측하고자 하는 기간만큼 time lag를 주어 train-test 데이터셋을 구성하였는데 이것이 어떠한 효과를 가지고 오는 것인가?
A. Time Lag를 부여한다는 것은 현재시점과 예측하고자 하는 시점을 어긋나게 데이터셋을 구성한다는 것을 의미한다. 예를 들어 11월의 수요량으로 12월의 수요량을 예측하는 것이 기존 모델이었다면, 4월의 수요량으로 12월을 예측하는 것이 제안한 모델의 효과이다. 즉, 현재 시점이 5월이며 내가 가지고 있는 데이터는 올해 4월까지의 부품 수요량이라고 한다면, 기존에는 5월 한달만 수요를 예측할 수 있었지만 제안 모델로는 5~12월까지의 수요량을 예측하는 모델을 구축할 수 있다는 의미이다.
<청취후기>
Variations on Sparse Bayesian Kernel Regression
신임 교원 세션에서 동국대학교에 부임하신 손영두 교수님의 발표 주제였다. 베이지안 이론에 기반한 Relevance Vector Machine에 관련된 연구를 주로 하셨으며, 학회에서 발표한 내용은 RVM을 Active Learning과 Missing Value Imputation에 적용한 연구에 관하여 설명을 해주셨다. RVM은 SVM에 비하여 적은 수의 basis로 모델을 표현하는 sparsity가 가장 큰 장점으로 여겨지는 모델이며, 그럴수록 적합한 basis를 찾는 것이 매우 중요하다. Active Learning에서는 uncertain sample을 찾아 레이블링을 얻기 위한 쿼리를 날리는 것이 중요한데, regression 문제에서는 주로 predictive variance가 큰 부분을 찾는다고 한다. 하지만, RVM에서 predictive variance가 큰 포인트는 주로 basis가 선택이 되며 결국 아는 정보를 다시 얻기 위한 쿼리가 발생되는 것이 문제점이다. Active Learning에서는 basis vector를 확장하여 확장된 basis 중에서 unlabeled point를 선택하는 방법으로 문제를 해결하였다. 이 부분에서 영훈이 형이 label이 있는 관측치에서 local maximum variance 값을 가진다는 것이 의아하다는 질문을 하였으며, 그것 또한 하나의 연구 분야이며 RVM에서 중요한 문제점이라고 하셨다. Imputation에서는 전혀 반대되는 방법을 취했다는 것이 인상적이었다. Kernel extension을 사용하였을 때 RVM의 장점인 sparsity를 잃는다는 단점이 있어 imputation에 취약한 모습을 보여왔는데, 오히려 반대로 basis vector에 제한을 걸어주고 수를 줄여서 좋은 성능을 얻은 연구를 소개하였다. 물론 복잡한 수식이나 중간 과정을 생략하셨지만, 간단한 아이디어로 의미 있는 연구를 하셨다는 점이 인상적이었다.