- 2024년 1월 19일 오후 11:43
- 조회수: 28869
INFORMATION
- 2024년 1월 19일
- 오전 12시 ~
온라인 비디오 시청 (YouTube)

TOPIC
On-Line Video
OVERVIEW
청취자 후기

이번 세미나는 Domain Generalization을 주제로 진행되었다. 흔히 우리가 모델을 학습하고 시험하는 과정은 모집단으로부터 샘플링된 학습 데이터의 리스크를 최소화 하는 것이다. 이처럼 모집단이 아닌 학습 데이터의 리스크를 최소화 하는 과정을 Empirical Risk Minimization(ERM)이라고 부른다. 하지만 학습 데이터와 시험 데이터가 같은 분포에서 샘플링 되었다는 i.i.d 가정이 깨진다면 ERM모델의 예측 성능이 저하된다. 이러한 상황에서 시험 데이터에 대한 성능을 높이고자 하는 것이 Domain Generalization이다. 본 세미나에서는 Domain Generalization 중 하나인 Invariant Risk Minimization(IRM)에 대해서 설명한다.
Invariant Risk Minimization(IRM) : 해당 논문은 소와 낙타를 분류할 때 배경을 통해서 두 동물을 분류하게 된다고 지적한다. 학습 데이터에는 초원에 존재하는 소와 사막에 있는 낙타가 대다수를 차지한다. 따라서 초원에 있는 동물은 소, 사막에 있는 동물은 낙타로 분류하게 된다. 즉 사막에 소가 있는 사진이 있다면, 이는 배경이 사막이기 때문에 낙타로 분류되는 문제가 있다는 것이다. 이러한 문제는 새로운 도메인 데이터에 적용할 때 일반화 성능이 저하되는 문제로 이어진다. 이에 각 동물의 형태와 같은 invariant correlations을 학습하게 된다면 새로운 도메인 데이터에도 높은 성능을 보일 것이라는 것이 논문에서 주장하는 부분이다. 이에 고정된 분류기가 모든 도메인에 대하여 최적의 분류기가 될 수 있도록 특징 추출기를 찾는 방식을 통해서 invariant predictor을 구축하고자 한다. 이때 두 가지 가정을 필요로 하는데 첫 번째는 학습 도메인이 충분한 다양성을 가지고 있어야한다는 것이며, 두 번째는 다양한 도메인이 invariance를 가지고 있어야 한다는 것이다. 하지만 개인적으로 첫 번째 가정에서 학습 도메인의 다양성이 보장이 된다면, 학습 데이터가 모집단의 분포를 충분히 대변할 가능성이 높을 것이라는 생각이 들었다. 그렇다면 학습 데이터의 ERM을 통해 시험 데이터에서 충분히 높은 성능을 보이지 않을까라는 의구심이 생기게 되었다.
이번 세미나를 통해서 Domain Generalization에 새로운 패러다임을 제시한 Invariant Risk Minimization에 대해서 알게 되었다. 특히 모델의 학습을 위한 목적 함수의 수식적인 부분까지 자세히 다뤄주어 유익하였다. 좋은 세미나를 준비해준 정진용 연구원님께 고맙다는 인사를 전하며, 세미나 후기를 마친다.

세미나에서 다룬 IRM이라는 연구는 많은 Domain Generalization 메소드에서 baseline으로 사용하는 가장 유명한 방법론 중 하나이다.
IRM은 어떤 domain의 데이터에도 잘 동작하는 invariant predictor를 찾는 것을 목적으로 하는데, 이때 모든 도메인에 대한 invariant correlation을 잘 학습한 predictor가 바로 그것이라는 가설에 기반하여 연구를 수행한다. 언뜻 매우 간단하고 직관적인 아이디어이지만, 이것이 어떻게 가능한지 이론적으로 증명해냈다는 점에서 질 좋은 근본연구라는 생각이 들었다.
수식이 어렵고 논문이 친절하지 않아 읽어 볼 엄두가 나지 않았었는데, 세미나를 통해서 좋은 공부를 할 수 있던 것 같다. 덧붙여 해당 세미나에서 가장 좋았던 점은 모래사장에 있는 소 사진을 target domain의 예시로 든 것이었다. 처음 보았을 때는 이미지 스타일이(photo realistic) 유사하니 당연히 같은 class로 잘 예측할 수 있지 않나 싶었는데, spurious correlation 때문에 성능 저하가 될 수도 있겠다는 사실을 깨달았다. 이걸 intra domain discrepancy 문제로 치환해서 바라보고 관련한 방법론을 적용하면 문제를 해결할 수도 있지 않을까? 그런 방법론들과 IRM의 근본적인 차이는 뭘까? 하는 궁금증이 좀 더 생겨서 공부를 해보려 한다.
메소드에 대해 간략히 설명하자면, neural network에서는 IRMv1을 이용하여 최적화를 수행할 수 있다. IRMv1은 기본적인 ERM term에 gradient penalty term이 추가된 꼴인데, 이 panelty는 w가 상수로 고정된 상태에서 gradient L2 norm (모든 도메인에 대한 합) 을 의미한다. Soft reg. 로 표현을 바꾸면 D function을 최적화 하는 꼴로 변형이 되는데, D는 우리가 얻은 모델이 얼마나 optimal w에서 벗어났는지를 정량화 할 수 있는 function이다. 하지만 over-parameterized representator는 D가 optimal이 아님에도 불구하고 0이 되어버릴 수 있는 확률이 높기에, 해당 논문에서는 optimal predictor를 scalar 1로 고정하고, data representator phi를 잘 찾아내는 최적화 문제로 reformulation한다. 결국 w를 찾는 게 아니라 w는 고정한 상태에서 optimal representator를 찾아 invariant predictor를 구축하는 문제가 되는 것이다. 마지막에 multi-source domain으로만 학습한 모델이 어떻게 target domain에서까지 invariant 할 수 있는지를 언급하였는데, 이유는 직관적이다. 학습 시 활용하는 Source domain이 다양하면서도 서로 공통분모를 공유하고 있다는 가정에 기반하기 때문이다. 그렇다면 이 가정이 위배된 상황에서도 IRM이 잘 동작할까? 이를 테면 source domain의 개수가 적거나 discrepancy가 엄청 커서 오버랩되는 구간이 적은 상황에서도 IRM이 강건하게 잘 동작할 수 있을 지가 궁금해졌다. 아마도 잘 안 되겠지? 이런 theoretical paper를 넘어서려면 해당 페이퍼가 깔고 있는 가정들을 잘 들여보고 문제상황을 다시 재정의 하는 과정이 중요할 것 같다.
좋은 세미나를 해주신 진용 오빠께 수고했다는 말씀 드리고, 나도 다음 세미나 때는 좀 더 이론 기반 근본 연구들을 소개해보고 싶어졌다.

DG의 목표는 여러 도메인에서 수집된 훈련용 데이터를 기반하여 도메인 속성에 강건한 모델을 개발하는 것이다. 오늘 세미나는 DG 연구 분야에서 탄탄한 이론을 토대로 좋은 성능을 내고 있는 IRM(Invariant risk minimization) method를 다루었다. IRM 방법론은 regularized ERM 학습의 일종으로 볼 수 있으며 제약 조건을 모든 도메인에 대해 최적으로 학습된 predictor로 두었다. 학습 관점에서 해당 제약 조건은 다소 불가능에 가까운 것으로 볼 수 있어, 완화 조건이 필요하고 IRM 방법론 역시 제약조건이 완화된 방법론을 함께 제시하였다. 제약조건을 완화하는 과정과 근거 설명이 생각보다 어렵고 복잡한데, 이를 위해 진용이 형이 열심히 공부하고 노력한 흔적을 찾아볼 수 있었다. 완화 과정 설명 이외에도 DG 연구가 왜 필요로한지 설명하기 위해, spurious correlation나 causality 개념이 세미나 초반부에 흥미롭게 설명되어 있으니 많은 연구원들이 보면 좋을 것 같다. 인과추론 연구쪽이 DG 연구와 어느정도 깊은 관계에 있을 수 있음도 알게 되었다. 좋은 세미나를 준비하느라 고생했을 진용이 형에게 감사의 말씀을 전하며 세미나 후기 작성을 마치도록 한다.

이번 세미나는 도메인 일반화의 갈래 중 하나인 Invariant Risk Minimization에 대해 진행되었다. 우리가 흔히 학습하는 인공지능 모델들은 학습 데이터에 의해 경험적으로 학습한다. 따라서, 학습 데이터 이외 상황에 대해서는 강건하지 않을 수 있다. 도메인 일반화는 이처럼 학습 데이터에 과적합 되지 않고 최대한 일반화된 특징을 학습할 수 있도록 하는 방법론이며, 그 중 한 갈래가 Invariant Risk Minimization이다.
기존 모델들은 ERM을 위주로 학습하나, 이는 앞서 말한 한계처럼 일반화된 특징 학습이 어려울 수 있다. 따라서 특정 제약조건을 추가하며 최대한 Invariant한 Feature를 추출할 수 있도록 학습한다. 이때, 제약조건은 모든 도메인의 에러를 최소화하는 L2 Norm이다. 하지만 이러한 수식 기반의 학습은 현실적으로 어려울 수 있다. 따라서 학습에 활용할 수 있는 최적화 식인 IRMv1을 추가적으로 제안한다. IRMv1처럼 목적함수를 한 줄로 정리함으로써 제안하는 IRM을 용이하게 학습할 수 있었다.
사실, 해당 방법론이 엄청 직관적으로 와닿지는 않았다. 이론 베이스가 강한 논문이기도 하며, 도메인 일반화의 가장 기본이 되는 논문 중 하나가 아닐까라는 생각이 들었다. 추후 도메인 일반화에 대한 지식이 두터워지면 다시 한 번 청취하고, 깊게 이해해보고 싶은 세미나였다. 유익한 세미나를 준비해준 정진용 연구원님께 고맙다는 말을 전하며 세미나 후기를 마친다.

이번 세미나는 Domain Generalization(DG)을 주제로 유명한 논문인 Invariant risk minimization(IRM)에 대해 소개되었다. 짧게 요약하자면, test data와 분포가 다른 train data의 다양한 환경에도 불변하는 representation을 학습하여 test data를 잘 예측하고자 하는 방법론이다. w를 고정해서 optimal classifier가 될 수 있게 학습한다. ERM의 한계점을 보완하여 패널티를 추가한 것이 IRM이라고 볼 수 있다.
사실 해당 논문을 읽으려고 도전했다가 너무나도 어려운 수식으로 인해 개념만 이해하고 넘어간 경험이 있는데, 정진용 연구원이 해당 논문으로 세미나를 진행하게 되어 너무 기뻤다. DG이지만, Domain Adaptation(DA)에서도 비교 방법론으로 쓰이는 논문이기에 해당 논문을 이해하는게 개인적으로 많은 도움이 되었다. 방법론을 이해했으니 개인 연구에 쓰기 위해 코드를 찾아봐야겠다!