- 2019년 4월 26일 오후 4:41
- 조회수: 2355
REFERENCES
INFORMATION
- 2019년 5월 3일
- 오후 1시 ~
- 고려대학교 신공학관 218호

TOPIC
OVERVIEW
발표자 후기

금일은 Explainable CNN을 주제로 한 세미나를 발표하였다. 딥러닝의 발전으로 인해 예측 모델의 성능이 더욱더 향상 되고 있지만, 이와 달리 해석이 어렵다는 단점을 지니고 있다. 실제 예측 모델이 적용되는 다양한 산업 분야에서는 예측 성능뿐만 아니라, ‘어떤 변수들이 중요한 영향을 미쳤는가’에 대한 해석적인 측면도 중요하게 된다. 따라서 최근 연구들에서는 이러한 딥러닝 모델을 해석하기 위한 다양한 시도가 이어지고 있다. 현재 가장 보편적으로 사용되고 있는 것은 CAM(Class Activation Map)인데 CAM은 기본적인 CNN의 구조에서 마지막 Convolution Layer를 Flatten하는 방식 대신 GAP(Global Average Pooling)이라는 방식을 사용하고 있다. 이는 마지막 값을 예측하기 전까지 데이터의 위치 정보를 훼손하지 않게 하기 위해서이다. 이번 세미나에서는 CAM과 달리 마지막 구조를 바꾸지 않으면서도 딥러닝 모델의 해석력을 높여줄 수 있는 Interpretable CNN에 대한 설명이 이어졌다. Interpretable CNN의 핵심은 Training Data를 활용하여 CNN의 마지막 Convolution Layer를 통해 각 Class의 Template을 만드는 것이다. 예를 들어 고양이 사진 N장을 활용하여 고양이 Class의 Template을 만든다면, 먼저 고양이 사진 1장당 마지막 Layer의 Activation 값이 가장 높은 Feature를 찾는다. 이후 N장의 고양이 사진 모두 가장 높음 Activation 값을 가진 Feature를 찾아 중첩하고 가장 중첩이 많이 된 부분으로 고양이 Class의 Template을 만들게 된다. 이 후 Test Data별로 예측 된 Class를 해당 Class의 Template을 통과 시켜, deactivated된 부분을 제거한다. 결국 이러한 작업을 통해 해당 사진의 Class를 구분할 때 중요하게 생각하는 Feature가 무엇인지 알 수 있게 되는 것이다. 개인적으로 입학 후 첫 세미나를 준비하면서 논문을 여러 번 반복해서 읽으며 세심한 부분까지 공부하고 노력하려는 방법에 대해서 배운 것 같다. 하지만 세미나 주제를 고름에 있어서는 개인적으로 작은 아쉬움이 남는다. 이번 기회를 통해 관심 가는 주제에 대한 논문을 찾아 읽는 방법에 대해서 더 고민하고, 금번에 공부했던 ‘딥러닝의 해석력을 높이는 방법’에 대해서도 지속적으로 관심을 갖고 공부해야겠다는 생각을 하게 되었다. 세미나 시간 동안 많은 피드백을 주신 연구원님들께 감사를 표한다.