[학회후기]

이번 데이터마이닝학회 추계학술대회는 고려대학교에서 개최되었다. 저번에 참석했던 ICCV나 대한산업공학회는 외부에서 개최되었지만 이번에는 고려대학교에서 개최되어 보다 편한마음으로 참석할 수 있었다. 발표장소도 3곳으로 비교적 간단해서 학회를 들으러 가기에도 편했고 공간도 다른 학회와 달리 넓어서 좀더 쾌적한 환경에서 들을 수 있었다. 하지만 오전 세션이 2파트로 나누어져 있어서 바삐 움직여야했고 다른 학회에 비해 세션을 선택할 수 있는 폭이 좁아서 아쉬웠다. ICCV와 대한산업공학회와 달리 데이터마이닝학회는 데이터에 초점을 맞추어 분석하는 학회였기 때문에 데이터를 어떻게 처리할 수 있을지에 대한 아이디어를 많이 준 것 같다. 이번 학기에 들어서면서 학회를 많이 다녔는데 학회를 청취하고 듣는 것 에서 그치지 않고 나의 연구의 방향성을 잡는데 도움이 되도록 해야겠다고 생각했다.

 

[청취후기] Zero-shot knowledge distillation for regression

대한산업공학회에서 한번 들어봤던 주제였었지만 한번에 이해가 되지 않아서 다시 청취하게 되었다. Zero-shot, knowledge distillation, regression까지 3개를 묶었다는 점에서 호기심이 생겨서 청취를 하게 되었다. Zero-shot은 한번도 정의되지 않았던 클래스를 분류 해내도록 학습하는 방법을 말한다. Knowledge distillation은 불필요하게 많은 parameter가 사용되는 앙상블 모델로부터 generalization 성능을 기존보다 향상시킬 수 있는 knowledge를 증류하는 방법을 말한다. 이를 합쳐서 부족한 데이터나 제한된 환경에서 성능이 좋은 모델과 비슷한 작은 모델을 학습시키는데 사용하였다. 데이터마이닝학회여서 그런지 데이터가 부족하거나 클래스가 불균형이 존재하는 상황에서 어떻게 접근했는지를 보여보여 학회였던 것 같다.