- 2022년 8월 12일 오전 9:59
- 조회수: 7510
REFERENCES
INFORMATION
- 2022년 8월 12일
- 오후 1시 ~
온라인 비디오 시청 (YouTube)

TOPIC
On-Line Video
OVERVIEW
발표자 후기

인공지능이 해결하고자 하는 Task와 직접적으로 관련된 다수의 Unlabeled 데이터는 쌍수를 들고 환영할 존재이나, 단순히 많은 Unlabeled 데이터는 Task 해결에 도움이 되지 않을 수 있다. 본 세미나에서는, Out-of-distribution 데이터가 포함된 Unlabeled 데이터를 가지고도, 안전하게 준지도학습을 수행할 수 있는 3가지 방법론을 소개하였다. 3가지 이외에도, Google Scholar에 Safe Semi-Supervised Learning, Openset Semi-Supervised Learning 등을 키워드로 검색하면, 본 세미나와 관련된 최신 연구들이 많이 진행되고 있음을 알 수 있다. 다수의 Unlabeled 데이터를 똑똑하게 활용하는 방법에 대한 첫 걸음으로, 연구실 사람들에게 본 세미나 도움이 크게 작용 되었으면 좋겠다.
청취자 후기

이번 세미나는 Out-Of-Distribution(OOD) Unlabeled data가 존재하는 상황에서 Semi-supervised Learning(SSL)을 어떻게 수행할지에 대하여 진행되었다. SSL이라 함은 Labeled data가 부족한 한계를 극복하기 위해서 Unlabeled data를 활용하자는 것이 포인트인데, 이때 품질 좋은 Unlabeled data를 선별하는 것이 이 세미나의 주제로 진행되었다. 이번 세미나를 통해서 처음 알게 되었는데, 이러한 연구분야는 Safe Semi-supervised Learning(Safe SSL)이라고 한다.
본 세미나에서는 이러한 Safe SSL 방법론 3가지를 소개한다. 3가지 방법론 모두 Safe SSL의 개념처럼 OOD Unlabeled data를 제거하거나, 가중치를 낮게 주는 방향으로 방법론이 설계되었다. 먼저 UASD는 앙상블을 통해 보다 신뢰도 높은 결과를 활용하여 OOD Unlabeled data를 제거하는 것이 핵심 아이디어이다. 조금 특이한 것은 Temporal Ensemble처럼 각 Epoch가 끝났을 때마다 Weight를 저장하여 현재까지 학습된 모든 Epoch의 결과들을 앙상블 한다는 것이었다. 사실 얼핏 들었을 때는 학습 초기의 Weight들이 유의미한 결과를 제공할 수 있을까 라는 생각이 들었는데, 어떻게 성능이 좋아졌을지에 대해 추후에 다시 공부해보고 싶은 부분이다. 또한 DS3L은 OOD Unlabeled data일수록 적은 가중치를 부여하는 방식으로 진행되며, SubNetwork를 활용한다는 것이 특징이다. 즉, SubNetwork를 통해 OOD 여부에 대한 가중치를 연산하고, 이를 Main Network에 반영하는 식으로 진행된다. 마지막으로 SafeUC는 베이지안 인공신경망의 불확실성을 활용하여 OOD Unlabeled data를 제거한다. 이때 OOD일수록 분산이 크다는 특징을 활용한다.
Semi-supervised Learning에 대해 최근 공부를 해왔었는데, 접해보지 못한 세부주제였기에 꽤나 재미있게 들을 수 있었다. 특히 개인연구에서 어떻게 좋은 Unlabeled data들을 선별하여 학습에 활용할 수 있을까에 대해 고민을 많이 했었는데, 이번 세미나는 좋은 아이디어를 얻을 수 있는 계기가 되었다. 유익한 세미나를 준비해주신 배진수 연구원님께 감사드리며 이상으로 세미나 후기를 마친다.

기존 semi-supervised 알고리즘은 labeled data와 unlabeled data 사이의 class mismatch를 고려하지않았다. 하지만 최근 unlabeled data를 수집하는 과정에서 labeled data와 클래스가 다른 데이터가 있을 수 있다는 현실성을 반영한 safe semi-supervised learning에 대한 연구가 활발히 진행되고 있다. 이러한 트렌드에 따라 금일 세미나는 out-of-distribution (OOD) 를 고려한 safe semi-supervised learning 방법론 3가지에 대해 알아보았다.
OOD 를 고려한 safe semi-supervised learning 은 크게 ood 데이터에 대한 confidence나 uncertainty를 산출한 후, 학습에서 완전히 배제하거나 학습 가중치를 줄이는 방향으로 진행된다.
UASD 는 에폭별 학습 모델에 대한 앙상블 예측값의 confidence가 특정 임계치보다 낮을 경우, 학습에서 완전히 배제한다. 앙상블 기법을 채택한 이유는 크게 두 가지로, 첫번째는 단일 모델이 ood 데이터 탐지 능력이 떨어진다는 것이고 두번째는 기존 semi-supervised learning 기법인 consistency regularization을 추가하기 용이하기 때문이다.
DS3L은 데이터 별로 학습 가중치를 동적으로 산출하는 별도의 sub-network를 두어, ood 에 가까울수록 0에 가까운 학습 가중치를 부여하는 방식으로 작동한다.
SafeUC는 베이지안 불확실성 기법인 MC Dropout을 활용하였다. MC Dropout 을 통해 산출된 개별 인스턴스에 대한 모델 불확실성이 특정 임계값보다 클 경우 학습에서 배제하였다. 뿐만 아니라 adversarial noise를 추가한 샘플을 생성하여 consistency regularization을 수행하였다.
Safe semi-supervised learning 의 개괄적인 흐름에 대해 알 수 있었던 좋은 세미나였다. 고생하신 진수형께 감사의 말씀을 전한다.

금번 세미나는 Semi-supervised Learning(SSL)을 수행할 때 Unlabeled Data로 Out-of-Distribution(OOD) Data가 존재하는 경우에 어떻게 안정적으로 높은 성능을 내는지에 대하여 진행되었다. 우선 SSL은 Labeled 데이터를 얻기가 힘든 Domain에서 비교적 낮은 비용으로 수집할 수 있는 Unlabeled Data를 활용하여 모델의 정확도를 높이고자 하는 방법인데 Unlabeled Data에 학습하고자 하는 상황과는 관계가 적은 데이터가 있을경우 해당 데이터를 사용하면 부정적인 영향을 끼치게 된다. 따라서 이러한 OOD Data를 잘 솎아내는 방법이 필요하고 본 세미나에서 UASD, DS3L, SafeUC 3가지의 방법론을 설명해주었다. 3가지 방법론 모두 OOD Data를 모델이 인식하고 제거하거나 비중을 작게 만드는 공통적인 과정을 취하고 있다. UASD 같은 경우 Labeled Data로 학습을 진행하면서 매 epoch마다 독립적인 모델이라 가정하고 해당 모델들을 앙상블하는 방법을 취한다. 그러면 OOD Unlabeled Data의 경우 모델마다 일관되지 않은 결과를 낼 확률이 높아 Threshold를 넘지 않을 가능성이 크기 때문이다. 두번째 DS3L은 OOD Data에 적은 학습 가중치를 부여하는 것이 핵심 아이디어이며 가중치를 위하여 Sub-Network를 추가하는 방법으로 해결하였다. OOD Unlabeled Data는 가중치가 0에 가깝게, Domain에 가까운 Unlabeled Data는 1에 가깝게, Labeled Data는 가중치를 1로 두고 학습을 진행하여 OOD Data의 영향을 최소화한다. 마지막으로 SafeUC는 베이지안 인공신경망의 불확실성으로 OOD Data를 제거하였다. 예측의 불확실성을 정량화 할 수 있으므로 분산이 Threshold를 넘은 데이터에 대해서는 OOD Data라고 판단할 수 있는 것이 핵심 요지이다. 이러한 방법론들을 통해서 SSL에서 보다 더 높은 성능을 낼 수 있다는 것이 재밌었고 개인 연구로 진행하고 있는 Self-supervised Learning에서도 OOD Data가 있을텐데 본 세미나를 통해서 OOD Data를 제거하는 것이 필요하지 않나 라는 생각이 들었다. 추가로 두가지의 의문이 생겼는데 첫번째 방법론에서 매 epoch마다 독립적인 모델로 가정하고 앙상블을 수행하나 실제론 독립적이지 않음에도 불구하고 성능이 좋게 나오는 것이 신기하였고 둘째로 DS3L에서 Sub-Network를 학습할 때 Labeled Data만 사용하여 경사하강법을 적용하는데 이과정을 통하여 OOD Unlabled Data의 가중치를 0에 가깝게 업데이트 할 수 있다는 것이 직관적으로 이해되지는 않아 본 세미나를 참고삼아 해당 내용을 추가로 더 공부해야겠다는 생각이 들었다. 이번 세미나를 통하여 SSL-OOD의 개념과 이를 해결한 방법론을 쉽게 이해할 수 있어서 많은 도움이 되었다. 유익한 세미나를 준비해주신 배진수 연구원님께 감사드리며 이상으로 세미나 후기를 마친다.

이번 세미나에서는 Out-of-distribution(OOD) Unlabeled data가 존재할 때도 우수한 성능을 보일 수 있는 Semi-supervised Learning(SSL) 방식을 소개한다. OOD data는 모델 학습에 사용된 data에 포함되지 않은 class를 가진 data를 의미한다. OOD data는 SSL 학습에 부정적인 영향을 미친다. 하지만 현실의 다양한 문제에서 Unlabeled data에는 Labeled data와 무관한 OOD data가 속해있을 확률이 높으므로, 이를 해결하는 것은 중요한 문제이다. 본 세미나에서는 OOD 데이터의 존재와 상관없이 우수한 성능을 낼 수 있는 Safe SSL 방법론을 소개한다.
1. Uncertainty-Aware Self-Distillation(UASD) : OOD data를 제거함으로써 악영향을 줄이는 방법론이다. 해당 방법론은 매 에폭별 학습된 인공신경망 모델의 앙상블된 예측 확률 값으로 OOD data를 제거하는 방법을 제안한다. 앙상블된 예측값의 Confidence가 특정 threshold보다 낮을 경우 OOD 데이터로 판단하게 된다. 해당 방법론은 앙상블을 사용하여 단일 모델의 over-confidence 문제를 해결하고, 앙상블 모델의 예측 확률값을 통해 Consistency Regularization을 수행하여 성능을 향상시킨다.
2. Deep Safe Semi-supervised Learning(DS3L) : OOD data일수록 적은 학습가중치를 부여함으로써 악영향을 줄이는 방법론이다. 학습 가중치를 부여할 수 있는 추가적인 Sub-network를 사용하여 OOD에 가까울수록 0의 가중치를 주게 된다.
3. Safe Uncertainty-based Consistency Training(SafeUC) : UASD와 동일하게 OOD data를 제거함으로써 악영향을 줄이는 방법론이다. 베이지안 인공신경망을 통해서 모델을 학습하고, 높은 불확실성을 보이는 데이터를 OOD로 하여 제거하는 방식이다.
OOD data는 현실의 많은 문제에서 접할 수 있는 상황이다. 따라서 현실문제를 해결할 때 반드시 고려해야하는 부분중에 하나라고 생각한다. 본 세미나를 통해서 OOD데이터가 있는 문제 상황에서 SSL을 사용하는 방법에 대한 개괄적인 흐름을 알 수 있어서 매우 유익한 시간이었다. 세미나를 준비해준 배진수 연구원님께 고맙다는 인사를 전하며, 세미나 후기를 마친다.