- 2023년 7월 19일 오후 1:03
- 조회수: 17382
INFORMATION
- 2023년 7월 21일
- 오후 12시 ~
온라인 비디오 시청 (YouTube)

TOPIC
On-Line Video
OVERVIEW
발표자 후기

32:00 설명 정정합니다.
CNN은 low-level layers에서 receptive field가 작아 domain에 특화된 정보를 잡아낼 수 있고, high-level layers에서 receptive field가 선형적으로 증가함에 따라 추상적(abstract) 정보를 담아냅니다. low-level layers에서는 texture, colors 등의 전반적인 "style"과 관련한 국소적(local) 특징을 잡아낼 수 있어 이를 통해 domain-discriminative features 추출이 가능해집니다.
청취자 후기

이번 세미나는 Domain Generalization이라는 주제로 진행되었다. 실제 딥러닝이 굉장히 높은 성능을 내고 있지만 학습된 Domain 데이터 분포 외에는 떨어지는 성능을 보이기 때문에 현장에서 다양하게 활용되기에는 무리가 있다. 따라서 보다 일반화된 성능을 내는 모델을 만들어 데이터의 분포에 강건하여 다양하게 활용되기 위해서는 본 세미나의 주제가 필수적으로 연구되고 발전되어야 하는 분야라고 생각하기에 흥미롭게 청취할 수 있었다. 첫번째로 소개한 방법론은 DANN이다. 해당 방법론은 Adversarial의 개념을 활용하여 Domain 간의 격차를 최소화 하였고 추후 언급되는 방법론에서 사용되는 기본이 되는 방법론이다. 우선 Target Domain이 있는 상황에서 Adaptation이 어떻게 동작하는지 보면, 기존의 Supervised 방법에서 Discriminator가 추가 되게 되고 여기서 Discriminator는 어떤 Domain에서 왔는지를 구별하는 Network이기 때문에 Domain간의 차이를 줄여주기 위해 역전파시 Gradient의 부호를 바꿔서 Feature Extractor를 업데이트하게 된다. 이러한 과정을 통해서 어떤 Domain에서 나왔는지 상관없이 일관된 특징을 추출하는 Feature Extractor를 만들 수 있게 된다. 이어서 Target Domain이 없을때는 Source와 Target을 구분하는 것이 아니라 어떤 Source인지를 구분함으로서 해결한다. 굉장히 간단한 방법으로 Domain Adaptation/Generalization을 푸는것이 굉장히 흥미로웠고, 지난주 Adversarial learning-based의 이미지 증강 기법을 발표했기 때문에 유사한 개념을 떠올리며 재밌게 들을 수 있었다. 다음으로 DANN의 방법론의 한계를 하나씩 짚고 이를 해결하기 위한 방법론인 CAADA와 MMLD를 소개하였다. CAADA는 DANN에서 추가적인 Loss(CORAL)을 추가하여 Domain Alignment의 효과를 극대화 하였다고 한다. MMLD는 Domain Label이 없이도 적용 가능한 방법론이며, Domain Label이 없기 때문에 Pseudo Domain Label을 생성하는데 전체적인 큰 스타일을 추출하기 위하여 CNN의 Low-level layer에서 일련의 과정을 통해 Feature를 추출해 내고 추출된 Feature를 클러스터링 하여 Domain을 구분하였다. 두번째로 Data Manipulation을 기반으로 하는 방법론 2가지를 설명하였다.(DDAIG/L2A-OT) 이는 Multi-Source Domain으로만 학습할 시 과적합될 확률이 높으므로 조금 변형된 혹은 생성된 이미지를 활용하여 일반화된 모델을 생성하고자 하는 방법론이다. 증강 또는 생성을 위한 Model-based 방법론이다 보니 추가적인 Network의 학습이 필요하여 Computational Cost가 크다는 점이 단점이지만 Domain의 강건한 성능을 낸다는 것이 인상적이었다. Domain Adaptation/Generalization의 개념부터 시작하여 차근차근 상세하게 설명하여 이해하는데 무리 없이 청취할 수 있었던 것 같다. 게다가 설명한 방법론들의 장단점과 Taxonomy까지 깔끔하게 정리해주어 해당 분야를 이해하고 연구할때 좋은 참고 자료가 될 것 같다. 세미나에서 다루고 있는 주제에 대해서도 많은 것을 배울 수 있었지만 더 나아가 세미나 구성, 발표 등 배울 것이 정말 많은 시간이었다. 이처럼 유익한 세미나를 준비해주신 김지현 연구원에게 고맙다는 인사를 전하여 이상으로 세미나 후기를 마친다.

특정 타겟 도메인이 존재할 때 사용하는 Domain Adaptation에 대한 기초와 타겟 도메인을 정의하지 않고 학습하는 Unsuperivsed Domain Generalization에 대한 시간을 가지게 되었다. 가장 골자가 되는 논문은 DANN로써 핵심적인 아이디어는 Class는 잘 구분하되 Domain은 잘 구분하지 못하도록 Domain Classifier 혹은 Discriminator라고 불리우는 네트워크의 gradient를 반대로 역전파한다는 것이다. 이후 나온 논문들의 요약은 다음과 같다.
CAADA - Domain Adaptation에서 Domain Gap을 줄이기 위한 Discriminator에 보강하여 CORAL Loss를 auxiliary Loss로 추가
MMLD - Multi-Source Domain에서 개별 Domain의 소스를 구분 짓기 힘들거나 소스 레이블을 다는 비용이 많이 드는 상황을 가정하여, pseudo-domain label을 달고자 함. CNN의 low-level feature(texture, color information)의 통계량을 기반으로 클러스터링을 수행하고 할당된 클러스터를 pseudo-domain label로 사용
DDADIG - Source Domain의 개수를 증가하여 일반화 성능 향상을 도모하기 위해 Model-based Data Generation 기법을 제안, DoTNet이라는 네트워크를 통해 squeeze-expand하여 생성한 이미지에서 클래스 정보는 보존하되, 도메인은 못맞추도록 학습됨
L2A-OT - Conditional Generator를 추가하여 다양한 new domain을 생성하고자함
오랜만에 세미나를 열심히 청강하였다. 요즘 공부하는 건 주로 강화학습이지만 강화학습에도 적용 가능 여지가 충분하다고 판단해서였다. 강화학습에서는 동일한 environment dynamics를 가진 로봇이 (1) task a, b로 학습한 후 task c, d로 평가하는 meta reinforcement learning, (2) task a, b, c로 학습한 후 task a, b, c로 평가하는 multi-task reinforcement learning이라는 파생 분야가 존재하며 상당히 어려운 문제에 속한다. 간단히 금일 세미나랑 접목해보면 task classifier가 구분을 못하도록 학습하면 task-agnostic한 policy를 만들 수 있지 않을까라는 생각이 든다. 아마 이미 이런 생각을 가지고 진행한 연구가 있을 거 같긴 한데, 그래도 아직 쓸만한 다른 테크닉도 있을 것이다.
기깔난 세미나를 준비하느라 고생한 김지현 연구원에게 감사의 인사를 전한다.

이번 세미나는 Domain Generalization에 대해 진행되었다. 일반적으로 인공지능 모델은 데이터를 기반으로 학습을 수행한다. 따라서 학습데이터에 없는 데이터에 대해서는 잘 예측하지 못함(과적합)으로써 일반화 성능이 저조한 경우가 다수 존재한다. 최근에는 이러한 한계를 극복하기 위해 자기지도학습이나 Domain Adaptation 등을 활용하지만, 이들은 Target 도메인 데이터를 필요로 한다는 한계를 갖는다. 이러한 한계를 극복하기 위하여, Domain Generalization은 Target 도메인 데이터없이 “일반화”된 모델을 구축하고자 한다.
세미나에서는 Representation Learning 및 Data Manipulation 관점 방법론들을 2가지씩 소개한다. 각 방법론들에 대한 요약은 아래와 같다.
1) CAADA: DANN구조에 CORAL Loss를 함께 고려하였다. 이는 Target과 Source의 공분산행렬 차이를 줄여 나가는 Loss를 함께 고려한 것이다. 이를 통해 Adversarial Learning이 갖는 학습의 불안정성을 개선할 수 있었다.
2) MMLD: Domain Label도 Labeling Cost가 클 수 있다. 따라서 군집화 기반의 Pseudo Domain Label로 Domain Label을 추정한다. 추정하는 방식이 독특한데, CNN의 채널별로 Feature 통계량을 산출하여 하나의 Embedding Feature를 형성한다. 또한, Entropy Minimization을 통해 결정경계에 대해 데이터가 확연하게 나뉘도록 설정하였다.
3) DDAIG: 큰 프레임워크는 이미지를 생성(증강)한 후, Classifier Loss와 Domain Discriminator Loss를 산출한다. 이미지를 생성하는 과정은 압축되기 직전의 Feature와 압축 후, 바로 Expansion된 Feature를 활용한다는 특징을 갖는다. 또한, Classifier 및 Discriminator Loss는 DANN과 유사한 컨셉을 갖는다.
4) L2A-OT: 주어진 k개의 소스 도메인에 대해 k개의 추가적인 도메인 데이터를 생성하는 방법론이다. 모델 구조는 소스 이미지와 어떤 도메인인지를 입력으로 받아 이에 상응하는 데이터를 생성한다. 이미지를 생성하기 위해서는 Source와 다른 Domain을 생성하는 Loss와 K개의 서로 다른 Domain을 생성하는 Loss를 같이 활용하며, 의미론적 유사성을 위해 CycleGAN과 유사한 Loss를 추가적으로 활용하였다.
본 세미나를 통해 Domain Generalization에 대해 처음 접할 수 있었다. Domain Adaptation과 상당히 유사한 것 같다는 생각이 들었고, 향후 상당히 유망한 연구분야라는 생각이 들었다. “Robust한 Extractor”를 만드는 자기지도학습과 비슷한 목표를 가진 것 같은데, 해당 연구분야의 방법론들도 함께 공부해보면 굉장한 연구가 나오지 않을까라는 생각이 들었다. 또한 내용적인 측면 이외에도, 세미나 발표 구성이 정말 인상깊었다(마치 하나의 서베이 논문을 라디오에서 듣는 느낌이랄까..). 사실 1시간 15분이라는 길이가 처음에는 거부감이 왔는데, 오히려 듣다 보니 시간 가는 줄 모르고 재미있게 청취하였다. 유익한 세미나를 준비해준 김지현 연구원님께 고맙다는 말을 전하며 세미나 후기를 마친다.

오늘 세미나는 Domain Generalization을 주제로 진행되었다. Domain Adaptation 분야에 관심을 갖고 있었기 때문에 주제만으로도 흥미로운 세미나였다. 일반적인 머신러닝 모델은 학습 데이터와 테스트 데이터가 같은 분포를 갖는다는 것을 가정하고 문제를 해결한다. 하지만 학습 데이터와 테스트 데이터의 분포가 다를 때에는 일반적인 머신러닝 모델을 통해서 해결하기 어렵다. 따라서 이러한 문제상황에서는 Fine-tuning 전략이나 Domain Adaptation을 통해서 해결하는 노력들이 있었다. 하지만, Fine-tuning 전략은 새로운 데이터에 대한 X/Y데이터가 모두 필요하며, Domain Adaptation은 새로운 데이터에 대한 X데이터가 필요하다는 단점이 존재한다. 이에 Domain Generalization은 새로운 데이터에 대한 정보가 전혀 없을 때 사용된다는 것이 핵심이다. 해당 세미나에서는 Domain Generalization의 Domain-invariant Representation Learning 방식과 Data Manipulation 방식에 대해서 다룬다.
Domain-invariant Representation Learning은 도메인간 차이에 강건한 표현벡터를 추출하는 방식이다. Domain Adversarial기반의 Representation Learning은 DANN이라는 논문을 기반으로 진행된다. 해당 방식은 Classifier을 통해서 Class에 따른 Discriminativeness를 학습하며, Discriminator을 통해서 Domain에 따른 Invariance을 학습한다. 이를 통해 모든 Domain에 강건한 표현벡터를 추출할 수 있도록 학습된다. 하지만 이러한 방식은 적대적 학습의 불안정성, 결정 경계 근처의 features 생성, Domain Label 필요라는 3가지의 문제를 지닌다. 따라서 본 세미나에서는 해당 문제를 해결한 논문을 소개한다.
1. CAADA: Domain Adversarial Learning 구조에 CORAL loss를 더하여 Domain 간의 공분산 행렬의 차이를 줄여나갔다. 이를 통해 적대적 학습에 존재하는 불안정성을 완화하였다.
2.MMLD: Domain Label이 없는 경우에도 사용이 가능한 방식이다. 해당 방식은 Domain Label 대신에 Pseudo Domain Label을 사용하여 학습한다. 이러한 Pseudo Domain Label은 CNN의 low-level layers를 통해 추출된 domain-discriminative feature로 결정한다. 또한, Entropy Minimization을 통해서 더욱 확고한 결정경계선을 구축할 수 있다. 이를 통해 결정 경계 근처에 features가 생성되는 현상을 완화하고, Domain Label없이 문제를 해결한다.
Data Manipulation은 소스 도메인의 domain-related properties를 바꾸어 새로운 domain의 데이터를 생성하면 일반화 성능을 향상시키는 방식이다.
1.DDAIG: Domain Adversarial Learning을 기반으로 하는 Augmentation 기법 도입한다. 이를 통해 Discriminator를 속일 수 있을 만한 이미지를 생성하여 Domain 차이에 강건하도록 학습한다.
2.L2A-OT: Conditional Generator을 기반으로 데이터를 생성하여 학습 중 활용 가능한 Domain의 다양성을 확보한다. 이를 통해 활용 가능한 Domain의 범위를 확장하여 강건한 성능을 도출한다.
본 세미나를 통해서 Domain Generalization에 대해서 더욱 관심을 갖게 되어 해당 분야에 대한 연구를 진행해보고 한다. 많은 Domain Generalization 연구는 이미지 분야에서 많은 연구가 진행되고 있지만, 시계열 데이터에 적용해보고자 한다. 해당 세미나를 통해서 연구 분야에 대한 새로운 시각을 열 수 있었다는 점에서 굉장히 유익한 시간이었다. 마지막으로 세미나를 통해서 전체적인 Generalization에 대해서 친절하게 설명해준 김지현 연구원에게 굉장히 감사하다는 인사를 전합니다.

기계학습 모델의 일반화 성능을 높이기 위한 세미나를 청취하였다. 이번 세미나에서 강조된 일반화 성능 향상은 학습 데이터와 테스트 데이터 간의 도메인 차이에 대한 강건성을 의미한다. 도메인 간의 차이에 강건한 성능을 얻기 위해 주로 사용되는 두 연구에는 Domain adaptation과 Domain generalization이 있다. 두 연구의 목적과 차이가 쉽게 소개되어 있으므로 관심있는 여러 연구원들이 보면 좋을 것 같다. 특히, Domain generalization에 관한 여러 가지 알고리즘들을 구체적으로 이해할 수 있었는데, 쉬운 언어로 방법론들의 구체적인 아이디어들을 모두 리뷰하고 있는 친절한 세미나였다. 개인적으로, 요즘 우리 연구실 메인 연구 트렌드가 이 쪽으로 기울어 가는 느낌을 받고 있는데, 지현이가 선두주자로 좋은 연구 잘 이어나가길 응원한다. 오늘 세미나에서 소개받은 알고리즘들의 핵심을 정리해보면 아래와 같다
DANN: 서로 다른 도메인 간 데이터의 특징 분포가 일관성을 유지할 때 도메인 간 차이에 강건한 모델 학습이 가능하다 이를 위해 적대적 학습 아이디어를 도입하여 일관성을 유지하였다
CAADA: DANN을 개선한 방법으로, 데이터 특징 공간 상에서 특징들간 상관성 역시 여러 도메인에서 일관되어야 성능이 좋음을 입증하였다
MMLD: 도메인 라벨이 없는 경우에도 적용 가능한 실용적인 방법론으로, 저수준 데이터의 특징을 이용하여 pseudo 도메인을 정의한 후, 기존의 적대적 학습 방법을 활용하였다. 일부 테크니컬한 아이디어도 함께 소개되어 있다
DDAIG: 다양한 도메인 데이터를 학습하여 도메인 간 차이에 강건한 모델을 구축한다. 데이터 증강(도메인 관점 변형)은 학습을 통해 결정되며, 도메인 컨텍스트 벡터와 적대적인 방식을 활용하여 데이터를 변형하여 학습에 사용한다
L2A-OT: DDAIG와 유사한 목표를 가지며, 데이터 변형 시 도메인은 다르지만 데이터의 핵심 특징을 잘 유지하도록 기존 여러 GAN 연구 결과들을 적극 활용하였다.

이번 세미나는 Domain Generalization을 주제로 진행되었다. Domain Generalization (DG)은 i.i.d. assumption을 충족시키지 못하고 domain shift 문제를 해결하는 domain adaption (DA)에서 target domain 조차 확보하지 못해 학습 시 사용할 수 없는 경우에도 딥러닝 모델이 일반화된 성능을 가질 수 있게 모델을 학습 하는 연구이다. DG 은 Multi-source domain 상황을 가정하여 unseen target domain에 대해서도 잘 예측을 할 수 있게 하는 경우가 많다.
표현 벡터를 잘 추출하는 것을 목표로 하는 domain invariant representation learning 분야 소개에 앞서 DA 분야인 DANN 논문이 소개되었다. DANN은 DA가 2 Stage 단계로 나눠져서 학습되었지만, 이를 1 stage로 학습하며 discriminator라는 분류기를 덧붙여서 적대적으로 학습한 방법론이다. 하지만 적대적 학습은 불안정하며, 결정 경계 근처 특징이 생성되며, domain 레이블을 필요로 하는 문제가 존재한다. 적대적 학습은 불안정하다는 문제를 해결하기 위해 Correlation-aware adversarial domain adaptation and generalization. Pattern Recognition 논문이 제시되었으며, CORAL loss(domain의 공분산을 정렬하는 loss)를 통해 domain alignment 효과를 극대화하였다. MMLD는 나머지 두 가지 문제점을 해결하기 위해 제안되었으며, 수도 레이블 생성을 통해 적대적 학습을 수행하고 엔트로피 최소화를 통해 discriminative feature를 추출하였다.
Data manipulation 분야는 기존 source domain을 증강을 하여 과적합을 방지하는 분야로 DDAG는 domain adversarial learning을 기반으로 하는 증강기법을 도입하였다. Semantic 정보를 유지하면서 데이터를 생성하는 방법으로 DoTNet, Label Classifier, Domain classifier 총 3가지 모델로 구성되었다. L2A-OT는 Conditional generator을 기반으로 데이터를 생성하여 domain의 다양성을 확보하는 방법론이다. Conditional generator과 classifier 총 2가지 네트워크로 구성되었다.
DG 분야는 생소했었는데, Source domain만을 가지고 target domain을 맞추고자 하는 어려운 task이기 때문에 여러 모델들과 복잡한 구조를 가지고 있음을 확인할 수 있었다. 복잡한 구조를 간소화 시키며 좋은 성능을 유지할 수 있게 추후 발전되지 않을까 하는 생각이 들었다. 생소한 분야를 최대한 쉽게 설명하면서 다양한 관련 논문들을 소개 시켜주는 유익한 세미나였다고 생각한다. 방대한 내용의 세미나를 해준 김지현 연구원에게 수고했다는 얘기를 전하며 세미나 후기를 마친다.

이번 세미나는 Domain Generalization 주제로 진행되었다. 현재 딥러닝 모델은 학습된 데이터의 분포와 유사한 데이터에 대해서는 높은 성능을 보이지만, 다른 분포의 데이터에 대해서는 성능이 떨어지는 한계가 있다. 이런 이유로 실제 응용에서는 다양한 데이터에 대해 일반화된 성능을 내는 모델이 필요한데, 이를 위해 Domain Generalization 연구가 중요하게 다뤄졌다.
Domain-invariant Representation Learning
DANN: 이 방법은 도메인 간 차이에 강인한 표현벡터를 추출하기 위해 도메인 간의 차이를 최소화하고 일관된 특징을 추출하기 위한 적대적 학습을 활용한다. Classifier와 Domain Discriminator로 구성되어 있으며, Discriminator는 도메인 정보를 분별하도록 학습하여 특징 추출기가 도메인 간의 차이를 최소화하도록 역전파 된다. 그러나 적대적 학습의 불안정성과 결정 경계 근처의 특징 생성 등의 문제가 있다.
CAADA: DANN을 확장하여 도메인 간의 차이를 최소화하는 데 도움이 되는 CORAL Loss를 추가한 방법이다. CORAL Loss는 도메인 특징들의 공분산 행렬 차이를 최소화하는 목적을 가지며, 이를 통해 적대적 학습의 불안정성을 완화하고 성능을 향상시킨다.
MMLD: Domain Label 없이도 도메인 간의 차이를 학습하는 방법으로, 도메인 특징을 추출하고 이를 클러스터링 하여 도메인 간 차이를 구분한다. CNN의 low-level 레이어에서 추출된 특징을 활용하여 도메인을 구분하며, Entropy Minimization을 통해 결정 경계를 명확하게 만든다.
Data Manipulation
DDAIG: 데이터 조작을 통해 일반화된 모델을 생성하는 방법으로, 이미지를 생성하고 Classifier와 Domain Discriminator를 활용하여 일관된 특징을 추출하도록 학습한다. 데이터 생성은 low-level 특징을 이용하며, 도메인 간의 차이에 대해 강건한 모델을 만든다.
L2A-OT: 다양한 도메인 데이터를 생성하기 위한 방법으로, 조건부 생성자를 활용하여 다양한 도메인을 생성하고 이를 통해 일반화된 모델을 구축한다.
세미나를 통해 Domain Generalization 분야에 대한 이해를 높일 수 있었으며, 다양한 방법론과 접근 방식을 통해 도메인 간의 차이를 강인한 모델을 구축하는 연구들을 배울 수 있었다. 주제를 친절하게 설명해줘서 이해하기 쉬웠으며, 실제 응용 분야에서도 많은 도움이 될 것으로 보인다. 유익한 세미나를 준비해준 김지현 연구원님께 감사의 말을 전하며 세미나 후기를 마친다.