[학회 후기]

이번 학술 대회는 경주컨벤션센터에서 개최되었다. 연구실 인원 대부분이 참석을 하였으며, 각자 연구 분야에 대해서 포스터 발표를 진행하였다. 이번 학회는 교수님들이 세션에서 구두 발표를 진행하고, 학생들이 포스터 발표를 진행하였는데 기존 참석을 했었던 학회들과는 색다른 방식으로 진행되어서 흥미로웠다.


[발표 후기]

주제 : Robust Optimization-based Out-of-Distribution Generalization via Maximum Risk across Domains and Subpopulations

포스터 발표 경험은 처음이었는데, 내 포스터를 관심 있게 보러 온 사람들과 심도 있게 이야기를 나눠볼 수 있다는 점에서 흥미로운 발표 방식이었다.

-질문 1: 기존 방법론들이 uncertainty set을 구축하여 일반화 성능을 낼 수 있도록 최적화 한다고 말씀하셨는데, 그렇다면 기존 방법론들이 목표하는 목적식은 어떻게 되는 것인가요?

-답변 1: 학습 도메인 또는 그룹들이 갖는 risk 값들 중 최대값을 줄이는 것을 목표로 합니다.


-질문 2: 그렇다면 이 목적식을 통해서 group (subpopulation) shift 문제에서는 하위 그룹 기준으로도 동등하게 성능을 낼 수 있도록 하는 것인가요? 또한, 그룹 기준이 아니라 domain 기준으로 생각했을 때는 어떻게 적용하고 성능을 낼 수 있는 것인가요?

-답변 2: 네 그렇습니다. group 간 동등하지 못한 상황에서 최대 risk값을 줄이도록 하여서 동등하게 성능을 낼 수 있습니다. Risk를 구하는 기준을 그룹이 아니라 domain을 기준으로 두고 학습을 진행하면 됩니다.


-질문 3: 기존 방법론 2개를 설명해주셨는데, uncertainty set을 convex combination으로 구성한 방법과 affine combination으로 구성한 방법 차이가 무엇인가요?

-답변 3: 그림에서 보시는 바와 같이 convex combination을 통해서 set이 구성된다고 한다면, affine은 안쪽으로 줄어들 수 도 있고, 밖으로 확장될 수도 있습니다. 따라서, 두번째 방법 같은 경우에는 테스트 도메인이나 그룹이 포함될 수 있는 공간을 확장시켜서 일반화 성능 개선을 시킬 수 있게 됩니다.


[청취 후기]

이번 학회에서는 교수님들께서 구두 발표를 진행해주셨는데, 개인적으로 최근 탑 컨퍼런스에서 발표하신 연구들이 흥미로웠다.


[Fantastic Robustness Measures: The Secrets of Robust Generalization (중앙대학교 산업보안학과- 김호기 교수)]

2023 NIPS에서 발표한 논문을 소개해주셨다. Adversarial attack 등 기본적인 개념들을 설명해주시면서, 모델의 robustness에 대한 관점을 설명해주시고 이 robustness를 평가하는 metric들에 대해서 설명해주셨다. 핵심 내용은 어떠한 방법론에 대한 것이 아니라, robustness를 평가하는 metric 자체에 대한 고찰이었다. 결과적으로 어떠한 metric도 모든 벤치마크에 대해 제대로 작동하지 않는다는 것을 보였으며, 어떤 한정적인 상황에서 평가를 하는 것이 아니라 다방면에서 평가를 진행해야 한다는 것을 말씀해주셨다. 최근 [Gulrajani, I., & Lopez-Paz, D. In Search of Lost Domain Generalization. In International Conference on Learning Representations.] 논문을 접하였다. 이 논문에서는 여태 나온 domain generalization 방법론들이 다양한 실험 세팅에서 평가를 진행할 경우, 결과적으로 일반적인 지도 학습 방식인 empirical risk minimization보다 못한 성능을 보일 수 있다고 주장한다. 교수님의 발표를 들으면서 동시에 위 논문 내용이 떠올랐는데, 공정한 평가란 무엇인지 많은 생각이 들게 만드는 발표였다.