[학회후기]

1129일 금요일에 고려대학교에서 데이터마이닝 학회가 있었다. 이번 학회는 모교에서 진행된 만큼 이전의 학회보다 편하게 참석할 수 있어 좋았다. 데이터마이닝 학회는 성격상 데이터 분석에 초점을 두고 있어서 그런지, 전반적인 학회 발표 내용이 설명 가능한 AI, XAI가 큰 연구 흐름을 담고 있는 것 같았다. 내가 오전 오후 세션을 통해 들은 발표들은 Attention Networks, Grad-CAM 등으로 Deep Learning 기반의 실험 결과들을 이해가능한 해석을 제공하는 것에 초점을 둔 연구들이 많았다. 따라서 이번 학회 참석을 통해 내가 느낀 것은 설명가능한 Deep Learning 모델 연구가 아직까지는 실제 현장의 입맛에 맞는 방향일지도 모른다는 사실이었다.

 

[청취후기]

1. Zero-shot learning, knowledge distillation, regression

해당 연구는 Zero-shot Knowledge Distillation를 회귀 문제에 적용하는 연구였다. Zero-shot Knowledge Distillation는 거대한 계산양과 저장 공간이 필요한 문제로 인해 머신러닝 접근법의 제한이 있는 상황에서 성능이 우수한 큰 모델을 근사하는 작은 모델을 학습하기 위한 방법이다. Zero-shot Learning 자체가 생소한 분야인지라 흥미를 가지고 발표를 들었다. 최근 Online Learning에도 관심을 가지고 있었기에 작은 모델이 큰 모델로 근사시키는 매커니즘에 더욱 관심이 갔다.

 

2. 어텐션 기반 설명가능한 모델을 이용한 핸드폰 오타 분석

최근 들어 연구 주제를 어떻게 잡고 연구를 시작할지에 대한 고민이 많은데 연구 주제면에서 자극을 받았던 발표다. 지금껏 공부했던 이론을 현실 문제에 적용을 시키는 데에 있어 어려움을 느끼고 있었는데, 발표를 듣다 보니 연구 주제는 거창할 필요없이 현실 속에서 부딪히는 문제를 해결하는 것에 포커스를 맞춰야 된다는 생각을 했다. 그동안 공부했던 이론들은 단순히 내가 문제 해결을 위해 익힌 도구일 뿐이라는 생각도 들었다. 이론적인 무결성에 집착하지 않고 우선 배운 것을 이것저것 떠오르는 아이디어에 적용시켜보아야 겠다.