연구실에서 좋은 기회를 제공해주어 7월 12일부터 18일까지 진행된 ICML 2020에 참석할 수 있었다. ICML 2020은 예정대로라면 오스트리아 비엔나에서 열렸을테지만, COVID-19의 영향으로 인해 온라인으로 진행이 되었다. 온라인으로 진행된 학회는 처음인지라 실제 오프라인 학회에서의 열기나 분위기를 느끼지 못하여 적응에 조금 시간이 걸리긴 했으나, 금새 온라인 학회의 장점에 매료되었다. 우선 Live로 진행된 발표들이 모두 녹화되어 진행되는 시간대에 참석하지 못하더라도 언제건 다시 들을 수 있었고, 이렇게 녹화된 영상은 언제건 일시중지할 수 있어서 발표 도중 발표 내용이 이해가 가지 않을 때 논문을 읽어보고 발표자가 전달하는 내용을 이해를 한 후에 다시금 발표를 들을 수 있어서 더욱 좋았다. 지난 해의 ICCV 2019에서는 발표자의 발표에서 이해가지 않는 부분이 생겼을 때 혼자 이해하려고 애쓰다 보면 이어지는 발표를 놓치게 되어 아쉬웠었는데, 이러한 녹화본 제공은 후에 COVID-19 사태가 잠잠해지고서도 유지되었으면 좋겠다.

이번 학회에서 가장 관심을 가지고 찾아봤던 주제는 Open set 관련 논문들이었지만 정확히 Open set을 주제로 하는 논문들은 많지 않았다. 다만 Open set 관련 공부를 진행하면서, 보조 데이터를 활용하여 Open set recognition을 하는 알고리즘을 최근 관심있게 보고 있었는데, ICML 2020에도 이와 비슷한 주제로 발표된 논문들이 있어 좀 더 관심있게 살펴 보았다.

Confidence-Calibrated Adversarial Training: Generalizing to Unseen Attacks
이 논문은 지난 윤상이의 세미나에서 잠깐 소개된 개념인 adversarial attacks을 다루고 있다. 딥러닝 모델은 사람의 눈으로는 큰 차이가 없어 보이는 입력값임에도 간혹 mis-classification을 하는 경우가 있다. 이 경우 정확히 인풋의 어떠한 부분을 얼마만큼 변경해야 하는지 안다면 의도적으로 모델이 잘못된 출력을 예측하도록 유도할 수 있다. 이러한 것을 adversarial attacks이라고 하는데, 딥러닝 알고리즘으로 동작하는 시스템을 개발한다면 이러한 간섭으로부터 안전해야 하므로 adversarial attack에 대한 defense 방법론은 매우 중요한 분야이다. 해당 논문의 경우, 이 문제를 해결하기 위해 adversarial examples을 학습에 이용한다. 하지만 이렇게 adversarial examples을 학습에 보조 데이터로 이용하면, 일반적으로 학습된 adversarial examples 데이터에 대해 overfitting된 모델이 되는 것으로 알려져 있다. 즉, 이러한 high confidence로 학습에 사용된 adversarial examples를 걸러내면 보조 데이터로 사용한 adversarial examples 이외의 unseen adversarial examples를 걸러내지 못한다. 해당 논문은 unseen pattern의 adversarial examples에도 robust한, 즉 현재 학습데이터에 클래스가 조금이라도 아닌 데이터(adversarial examples)를 모두 uniform한 확률로 거부하도록, 모델을 고안하였다.(target class data에 대한 one-hot distribution, adversarial examples에 대한 uniform distiribution의 convex combination을 통해) 따라서 어떠한 adversarial examples이 와도 모두 균일하게 낮은 confidence를 보이게 되어 adversarial examples를 걸러낼 수 있다. 최근까지 target class가 아닌 다른 data에 대해서는 unknown class로 예측하기 위해서 보조 데이터를 사용하여 학습데이터의 decision boundary를 잘 결정하는 문제를 고민하고 있었다. 위 논문에서 활용된 아이디어와 adversarial training 분야에서도 해당 고민에 대한 실마리를 풀 수 있을 것이라 기대된다.