- 2022년 9월 16일 오전 3:12
- 조회수: 11669
INFORMATION
- 2022년 9월 16일
- 오후 1시 ~
온라인 비디오 시청 (YouTube)

TOPIC
On-Line Video
OVERVIEW
그러나 실제 상황에서는 다량의 레이블 데이터 셋을 확보하는 데 엄청난 비용과 시간이 소요된다.
그동안 제한된 레이블드 데이터에 대처하기 위해 많은 사람들이 레이블이 확보된 대규모 소스 도메인(source domain)에서 학습된 모델을 레이블이 할당되지 않은 다른 도메인(target domain)에 직접 적용하는 시도들이 수행되었다.
하지만 도메인 간 직접적인 전이(transfer)는 종종 도메인 간 분포 차이(domain shift/discrepancy)로 인해 제대로 수행되지 않는 경우가 있었다.
비지도 도메인 적응(unsupervised domain adaptation)은 다른(그러나 관련이 있는) 대상 도메인에서 우수한 성능을 보이는 모델을 소스 도메인과 레이블이 없는 대상 도메인을 같이 학습에 사용하여 만드는 것을 목표로 하는 기계 학습 패러다임이다.
본 세미나에서는 비지도 도메인 적응에 대한 설명과 몇 가지 알고리즘을 소개하려 한다.
참고문헌:
Zhao, S., Yue, X., Zhang, S., Li, B., Zhao, H., Wu, B., ... & Keutzer, K. (2020). A review of single-source deep unsupervised visual domain adaptation. IEEE Transactions on Neural Networks and Learning Systems.
청취자 후기

딥러닝은 다양한 분야에서 사용되고 있지만 실제 상황에서 데이터를 수집하는 것은 비용적, 공간적 문제가 크다. 이러한 문제를 해결하기 위해서는 실제 상황을 모사하는 시뮬레이터를 사용할 수 있다. 일례로 자율 주행 자동차 개발의 경우 시뮬레이션 혹은 게임에서 수집한 데이터로 알고리즘을 학습한 후, 실제 도로 환경에 알고리즘을 적용할 수 있다. 하지만 시뮬레이터와 실제 상황 사이에 존재하는 Domain Discrepancy로 인해 이러한 학습 방식은 잘 작동되지 않는다. 금일 세미나에서는 Domain Shift 혹은 Domain Discrepancy로 인해 발생하는 학습 성능 하락을 해결하기 위해 Unsupervised Domain Adaptation 방법론 3가지에 대해 알아보았다.
Unsupervised Domain Adaptation은 Discrepancy-based, Adversarial-based, Self-supervision-based로 크게 3가지 갈래로 연구가 진행되었다. 그 중 Adversarial-based 방법론이 가장 직관적이고 간단한 것 같았다. Adversarial-based 방법론의 핵심은 source-domain 과 target-domain 을 구분하는 classifier 의 gradient를 역방향으로 전파하여, 모델의 domain 구분 능력을 없애는 것이다. 이외에도 Discrepancy-based 와 Self-supervision-based에 대해 설명이 되있으나 아직 100% 이해하진 못한 것 같다.
생소한 분야라 이해하기 다소 힘들었으나, 해당 분야의 연구의 중요성을 알 수 있었다. Domain Adaptation에 대해 깊게 공부할 때 참고할 수 있는 가이드라인이 될 것 같다. 세미나를 준비하느라 고생하신 민정 누나께 감사의 말씀을 전한다.

이번 세미나는 Unsupervised Domain Adaptation에 대해 진행되었다. Domain Adaptation은 학습한 데이터의 분포와 평가하는 데이터의 분포가 달라 발생하는 Domain Gap을 극복하기 위한 방법론이다. 이러한 Domain Adaptation 문제는 이미지 문제뿐만 아니라 시계열 등 다양한 도메인에 걸쳐서 나타난다는 특징이 있다. 이를 전이학습을 기반으로도 해결이 가능하지만, 전이학습은 충분한 양의 레이블을 갖는 데이터를 필요로 한다. 이에 따라 본 세미나에서는 레이블을 갖는 데이터가 없는 상황에서도 적용 가능한 Unsupervised Domain Adaptation기법들에 대해 소개하였다.
크게 4가지 종류의 방법론으로 구분된다. 먼저 Discrepancy-based 방법론 중 DAN은 기존 도메인에 타겟 도메인과의 차이를 더해주어 두 도메인 격차를 정량화한다. 특히, 두 도메인의 분포 차이를 각 분포의 평균 차이로 정의하는데, 이때 커널함수를 활용한다는 것이 특징이다. 이를 통해 평균이 겹칠 때, 도메인 격차를 구분하는 한계를 극복할 수 있었다. 두 번째로 Adversarial-based 방법론이다. 그 중 DANN은 기존에 수행하는 Task 이외에 어떤 도메인에서 온 것 인지에 대해 구분하는 Discriminator를 추가한다. 이때, 학습된 Gradient의 반대 방향을 보내어 Feature Extractor가 도메인 구분이 어려운 방향으로 학습한다. 세번째로 자기지도학습 기반의 방법론이다. 대표적으로 JiGen은 기존 자기지도학습 방법론 중 Jigsaw puzzle의 아이디어에 착안하여 Jigsaw puzzle classifier를 추가함으로써 이를 해결하였다. 마지막으로 위 3가지 방법론을 결합한 Combination 방법론 중 SLARDA는 Adversarial, 자기지도학습, 준지도학습 개념을 모두 활용한다. 이는 이미지가 아닌 시계열에 적용한 연구로 시계열에 Domain Adaptation을 적용했을 뿐만 아니라, 여러 방법론을 혼합하는 것이 가능하다는 것을 제시한 의의를 갖는다.
이번 세미나를 통해 Domain Adaptation에 조금 더 가까워질 수 있었다. 특히, 레이블을 갖는 데이터가 희소할 때, 활용가능한 방법론들을 접할 수 있었는데, 이 분야에서는 새로운 Classifier를 추가하여 극복하는 것이 주 방향이라는 것을 알 수 있었다. 더불어 마지막에 SLARDA를 보았을 때, 최근 준지도학습의 연구동향처럼 기존의 연구들을 잘 조합하는 것도 중요한 포인트라고 느낄 수 있었다. 유익한 세미나를 준비해주신 이민정 연구원님께 감사드리며 이상으로 세미나 후기를 마친다.

대부분의 딥러닝 기반 Deterministic 모델은 학습 시 사용된 데이터와 모델 평가를 위한 데이터가 동일한 분포로부터 추출된다는 가정에 기반한다. 그러나 현실 세계에서는 해당 제약 조건을 충족시키기 어려운 경우가 많은데, 모델의 학습 도메인(Source Domain)과 테스트 도메인(Target Domain) 간의 데이터 분포 차이(Domain Shift/Discrepancy)가 일어나는 경우가 빈번하기 때문이다. 이러한 문제는 전통적인 전이학습(Transfer Learning)으로 해결할 수도 있지만, Fine-Tuning과 같은 방법론은 Target Domain에도 모델을 재학습 시킬만큼의 충분한 레이블이 있다는 가정에 기반한다는 한계를 가지고 있다.
이때 Domain Adaptation은 전이학습의 한 갈래로서, 데이터 분포가 다르며 레이블이 불충분한 Target Domain에 대해서도 우수한 성능을 내는 것을 목표로 하는 방법론이다. 데이터의 도메인과 관계없이 예측 성능을 향상시킬 수 있는 특징벡터(Domain Invariant Features)를 추출할 수 있는 모델을 만듦으로써 Domain Shift 완화가 가능한 것이다. 특히 오늘 민정 언니께서 발표해주신 Unsupervised Domain Adaptation은 Target Domain에 레이블이 없는 상황을 가정하여, 다량의 레이블 된 Source Domain를 통해 얻은 정보를 레이블이 없는 Target Domain에 적응(Adaptation)시키는 방법론을 의미한다. 본 세미나에서는 딥러닝 기반의 Unsupervised Domain Adaptation 방법론 중에서도 Source Domain과 Target Domain이 각각 하나인 Single Source / Single Target의 상황을 가정한 방법론이 소개되었다. 해당 분야의 알고리즘은 도메인 간극을 줄이는 전략에 따라서 'Discrepancy-based Method', 'Adversarial-based Method', 'Self-Supervision-based Method', 그리고 'Combination Method'로 다시 구분된다.
DAN(2015)로 대표되는 Discrepancy-Based Method는, Target Domain의 Risk를 줄이기 위해서 Source Risk 최소화와 더불어 Domain Discrepancy, 즉, Source Domain의 분포와 Target Domain의 분포 차를 최소화하는 함수를 함께 학습하는 방법론이다. 이때 DAN에서는 도메인 간 분포 차이를 MK-MMD를 통해 계산하여 Target Risk를 최소화 한다.
Adversarial-Based Methods는 Adversarial objective를 사용하여 서로 다른 도메인 간 불일치를 줄이기 위한 방법이다. Source Domain과 Target Domain 각각으로부터 비롯된 표현 벡터 분포가 유사하다면 각 도메인의 Task Risk도 유사할 것이라는 가정을 기반으로, 적대적 학습을 통해 Domain Invariant Representation을 추출하는 동시에 Task Risk를 최소화하는 방법론을 제안한다. 대표적으로 DANN(2016)은 GAN의 메커니즘을 차용하여 특징 추출기와 도메인 분류기가 적대적으로 학습하도록 프레임워크를 구성하였다. 보다 구체적으로, 도메인 분류기의 파라미터 업데이트 시 gradient에 음의 상수를 곱하여(Gradient Reversal Layer 이용) 역전파 시킴으로써 특징 추출기가 오히려 도메인을 잘 구분하지 못하는 표현을 학습하도록 하는 것이다.
Self-Supervision-based Method은 자기지도학습을 기반으로 하며, Self-Supervision을 위한 Pretext Task 정의에 따라 여러 방법론이 제안되었다. 본 세미나에서 소개된 JiGen(2019)에서는 Source Domain으로 Task Risk를 최소화하는 동시에 Target Domain을 함께 이용해 Jigsaw Puzzle을 풀어내는 Pretext Task를 진행하며 도메인에 불변하는 특징을 추출해내는 알고리즘을 제안하였다.
마지막으로 Combination Method는 여러 방법론을 조합하여 도메인 불변 특징을 추출해내는 알고리즘이다. 일례로 SLARDA (2022)는 Task Loss뿐 아니라 Adversarial Loss, Self-Supervision Loss, 그리고 Semi-Supervision Loss를 함께 최소화함으로써 보다 강건하게 도메인에 불변하는 특징을 추출해낼 수 있도록 하였다. 더불어 이미지 데이터에 특화된 기존의 Domain Adaptation 방법론과는 달리 시계열 데이터에 특화된 모델을 제안하였다는 점에서도 의의를 갖는다.
최근 생체 시그널 데이터를 기반으로 Multi Source Unsupervised Domain Adaptation과 관련한 연구를 진행하고 있다. 이때 유관 분야에 대한 연구를 진행하고 계시는 민정 언니의 도움을 많이 받고 있기에 개인적으로 더욱 유의미한 세미나였던 것 같다. 특히 Domain Adaptation의 필요성 및 각 알고리즘들의 기본 가정에 대해서 구체적으로 짚어주셨던 부분이 좋았는데, 모든 공부와 연구가 '왜 해당 연구 주제를 진행해야 하는가', '당면한 문제와 원인이 무엇인가', '이 알고리즘은 어떤 문제를 풀고자 하는 것이며 어떤 접근 방식을 취하는가', '기존 알고리즘과의 차별화되는 기여점과 더불어 한계점은 무엇인가? 이를 다른 방식으로 풀어낼 수는 없는가'에 대한 질문을 끊임없이 던지는 것에서 시작한다고 생각하기 때문이다. 언니는 언제나 이러한 핵심을 짚어주시기에 긴 세미나 영상을 시청하면서도 근본적 물음과 목표를 놓지 않을 수 있었던 것 같다. 수고하여 영상을 준비해 주신 민정 언니께 감사하다는 말씀 전하며, 이상으로 세미나 후기를 마친다.

이번 세미나는 Unsupervised Domain Adaptation이라는 주제로 진행되었다. 딥러닝 방법론과는 무관하게 훈련 데이터로 학습하고 테스트 데이터로 검증하였다고 해도 실생활에 적용하면 정확도가 떨어지는 경우가 많다. 이는 학습과 테스트에 활용된 데이터가 실생활과는 차이가 있기 때문이다. 실생활의 데이터는 연속적으로 변화하고 있는데 고정된 데이터셋을 사용하기 때문에 당연한 것이라고 할 수 있다. 이러한 데이터의 분포의 차이를 Domain Shift/Discrepancy라고 하는데 간략하게 Source(실험실)와 Target(현장)의 Domain이 같지 않다는 뜻이다. 따라서 이러한 Domain 분포의 차이를 해결하는 것이 아주 중요하다고 할 수 있으며 이번 세미나에서는 특히 Target 데이터의 레이블을 사용하지 않고 Domain의 차이를 해결하는 방법론을 소개해주었다.
크게 4가지 종류의 방법론을 설명해주었는데 첫 번째로 Deep Adaptation Networks(DAN)를 소개하였다. 이 방법론은 Target Risk를 정의하는데 이는 Source Risk와 Domain Discrepancy의 합으로 정의하였다. Source Risk는 익숙한 Source Domain에서의 성능을 나타내는 것이고 Domain Discrepancy는 Source와 Target Domain의 차이를 뜻한다. 이때 이 차이를 Measure할 수 있는 효과적인 방법으로 MK-MMD를 제시하는데 커널을 사용하는 방법이 SVM을 배울때도 그랬지만 신기하게 느껴졌다. 두번째는 Adversarial 기반 방법이었는데 4가지 방법 중 가장 인상 깊었다. 단어에서 알 수 있듯이 GAN의 적대적인 관계를 활용하는 방법론이고 Domain의 상관없이 강건한 특징 추출기를 만드는 것이 목적이다. 이러한 특징 추출기를 만들기 위해서 Source Domain은 기존대로 학습하는데 Target Domain의 데이터를 활용하여 해당 데이터가 Source에서 왔는지 Target에서 왔는지 판단하는 네트워크를 추가하였다. 특히 이 네트워크를 통해서 역전파를 수행할 때 Gradient Reversal Layer를 통해서 반대 부호로 바꿔주는 것이 매우 인상 깊었다. 이를 통해서 비교적 간단하게(?) Adversarial한 구조를 만든 것으로 이해하였고 유사한 구조를 다양한 곳에서 응용할 수 있지 않을까 라는 생각이 들었다. 세번째는 Self-supervised의 방법론을 결합하여 동시에 문제를 풀면 강건한 Feature Extractor를 확보할 수 있을 것이다 라는 아이디어였고 마지막 방법론은 앞서 언급한 개념을 모두 조합한 것이였다. Domain Adaptation이라는 것이 딥러닝 방법론을 실생활에 적용할 때 필수적이고 꼭 고려가 되어야 하는 사항이라는 것에서 굉장히 도움 되는 세미나였다. 중요하지만 익숙하지 않은 주제를 알기 쉽게 설명해주어 큰 부담 없이 청취할 수 있었고 관련된 방법론과 참고자료도 상세히 소개해주어 많은 도움이 되었던 것 같다. 유익한 세미나를 준비해주신 이민정 연구원님께 감사드리며 이상으로 세미나 후기를 마친다.

현실에서 빈번하게 발생하는 데이터 Domain Shift/Discrepancy 문제점과 이를 해결하기 위한 연구 세미나를 청취하였다. 해결 방법론을 Domation Adapation라고 부르는데, 오늘은 비지도학습 계열 Domation Adapation이 세미나의 주된 내용이었다. MK-MMD 개념을 기반한 Source, Target Feature Space 차이에 제약을 거는 방법과 Adversarial 개념을 기반한 Domain(Source와 Target Domain)-Invariant 데이터 학습을 통해 Target 도메인에서도 우수한 성능을 가질 수 있도록 일반화 성능을 높이는 방법론이 소개 되어 있다. 자가지도학습(직쏘 퍼즐 해결) 기반의 방법과 Time-Series 계열에도 적용할 수 있는 방법론도 꽤나 흥미로웠는데, 좀 더 읽어보고 싶은 마음이 생겼다. 좋은 세미나를 준비해주신 민정이 누나에게 감사의 말씀을 전하며, 세미나 후기를 마치도록 한다.