- 2025년 4월 11일 오후 6:06
- 조회수: 260
INFORMATION
- 2025년 4월 11일
- 오전 12시 ~
온라인 비디오 시청 (YouTube)

TOPIC
On-Line Video
OVERVIEW
청취자 후기

학습 데이터와 평가 데이터의 분포가 달라 학습된 모델을 잘 활용하기 어려운 경우가 종종 발생한다. 새로운 클래스가 추가되거나 (OOD) 입력 값의 종류(이미지의 경우 화풍 등)가 달라지기도 (DG) 하는데, 오늘 세미나에서는 클래스 간의 배경 (하위 집단)이 달라지는 등의 상황에서 발생하는 subpopulation shift을 소개해 주었다. 예를 들어 학습 데이터셋에 A 클래스에 1번 배경이 많고 B 클래스에 2번 배경이 많다면 평가 데이터셋에서 B 클래스에 1번 배경이 나온다면 모델이 잘 못 맞출 확률이 높아진다. 이러한 부분을 해결하기 위해 클래스의 핵심이 되는 부분(core/class)을 잘 학습하고 핵심이 되지 않는 부분(subpopulation/attribute)을 덜 학습되는 방식들을 활용한다. 그 중 GroupDRO은 Subpopulation shift 문제를 distribution 일반적인 지도학습에서 목적식 최적화에 해당하는 ERM대비 그룹별 불균형 요소를 반영해서 worst-group 성능을 개선하는 방식이다. DFR은 2-stage 학습 방식으로 첫 번째 stage에서는 ERM으로 학습 한 후 두 번째 stage에서 feature extractor는 고정하고 classifier를 재학습 하는 방식으로 성능을 개선하였다.
데이터 중 핵심이 되는 부분을 제외하고 다른 부분이 노이즈가 될 수 있다고 생각했었는데, Subpopulation shift라는 분야로 정의되어 연구가 진행되고 있다는 점을 알 수 있어 좋았다. 헷갈릴 수 있는 부분인데 쉽게 잘 설명해준 진용이형에게 고생했다는 말 전하고 싶다.

이번 세미나는 Domain Generalization(DG)분야에서 Subpopulation Shift에 대해 진행되었다. Subpopulation Shift란, Class적인 차이 이외에 Class 내부적인 분포 차이를 의미한다. 예를 들어, 단순 강아지 클래스와 다른 클래스 간 분포만을 보는 것이 아닌, 실내에 있는 강아지 또는 실외에 있는 강아지 분포 등 하위 분포까지 고려한다. Spurious Shift 등 크게 4가지로 구분한 Taxonomy는 본 세미나에 잘 소개가 되어있다. 이를 해결하기 위한 방법론은 크게 2가지를 소개한다. 먼저 GroupDRO는 데이터 별 Loss에 가중치를 주어 학습하는 것이 전부다. 그러나, 이를 Subpopulation Shift 관점에서 바라보았을 때, 하위 그룹 별 불균형을 해소했다는 의의를 갖는다. 또한, DFR은 Validation Set을 활용하여 추가학습하고, 이때 L1규제를 활용했다는 것이 전부이다. 일단 Validation Set을 활용했다는 점은 조금 그렇긴(?)하나, L1 규제를 사용했다는 점은 다소 의의가 있다. L1 규제가 특정 값을 0으로 보내는 속성이 있기에, Spurious한 속성은 0으로 보내고 Invariant한 속성만 남도록 유도했다는 점이 의의가 있다.
본 세미나를 통해 Subpopulation이라는 문제를 DG 관점에서 알아볼 수 있었다. Subpopulation이라는 문제는 생각보다 정말 흔할 것으로 생각되며, 세미나에서 소개한 것처럼 다양한 유형의 Subpopulation Shift를 다룰 수 있는 방법론은 궁극적인 인공지능의 발전 방향이라고 생각한다. 항상 DG분야 논문들을 살펴보면, 방법론은 획기적이진 않지만 잘 포장했다는 생각도 든다. GroupDRO처럼 단순 Loss크기에 가중치를 주어 학습에 더 잘 반영이 되도록 설계한 것은 아마 2010년대에 나왔을 법한 다소 진부(?)할 수 있는 아이디어이지만, 이를 DG관점에서 해석하니 꽤나 멋진 해석이 된 것처럼 말이다. 이처럼 기존에 당연하다고 생각한 연구를 새롭게 해석하는 것도 또 다른 연구의 묘미 같다. 유익한 세미나를 준비해준 정진용 연구원님께 고맙다는 말을 전하며 세미나 후기를 마친다.