- 2021년 10월 1일 오후 3:12
- 조회수: 2912
INFORMATION
- 2021년 10월 1일
- 오전 12시 ~
온라인 비디오 시청 (YouTube)

TOPIC
On-Line Video
OVERVIEW
발표자 후기

딥러닝 기반의 준지도학습에 대해 세미나 하였다. 본인 연구 주제와 밀접한 연관이 있기 때문에 세미나를 준비하며 많은 도움이 되었고(논문을 많이 읽어야만 했다), 과거 연구들에 대해 놓쳤던 개념을 회수할 수 있었다. 좋은 연구를 하려면 논문을 자주(많이) 읽어야한다는 교수님 말씀이 왜 옳은지 직접 느낄 수 있었다.
최대한 많은 사람들의 이해와 공감을 얻을 수 있게 대중적으로 설명하려 노력했는데 잘 성공했을지는 모르겠다. 좋은 발표를 하려면 정말 많은 노력이 필요로 하다는 것을 세미나 준비하면서 많이 느꼈다. 작년 세미나보단 수월하겠지 생각했으나 여전히 고통스러웠다. 열심히 준비한 세미나인만큼 누군가에겐 좋은 인싸이트를 줄 수 있는 세미나가 되었음 한다.
청취자 후기

이번 세미나는 진수가 ‘Deep semi-supervised learning’ 주제로 진행되었다.
Semi-supervised learning, 준지도 학습은 딥러닝이 우수한 성능을 보이기 위해서는 다량의 레이블 데이터를 필요로 하나, 레이블 데이터가 충분치 않을 때 ,unlabeled 데이터를 활용하는 방법론 중 한 갈래이다. 이를 통해 모델의 일관성을 높일 수 있다. Pseudo-label 방법부터 virtual adversarial training까지 5가지의 다양한 방법론들을 소개한다.
주목할만한 부분은 지난 연구 방향과 최신 연구 방향의 차이에 대한 부분이다. 과거 준지도 학습 연구 방향은 수집된 모든 unlabeled 데이터 클래스가 labeled 데이터 클래스와 일치하는 이상적인 상황이었다면, 최근 연구 동향은 unlabeled 데이터는 사람의 검수가 이루어지지 않았기 때문에 잘못된 클래스 정보를 가진 데이터를 포함한다는 상황에서 연구되고 있다.
평소 비지도 학습에 대해서는 종종 살펴볼 기회가 있었지만, 준지도 학습에 관하여 마주할 기회가 없었는데, 진수의 좋은 세미나 덕에 새로운 컨셉을 알아갈 수 있었다. 많은 논문을 소개한 만큼 향 후 프로젝트 혹은 개인 연구에 접목할 기회가 생긴다면 다시 참고하면 좋겠다는 생각이다. 풍부한 내용을 준비해준 진수에게 고맙다는 말을 전한다.

이번 세미나는 딥러닝에서의 준지도 학습에 대한 주제로 진행되었다. 준비된 레이블 데이터가 충분하지 않을 때에도 unlabeled 데이터를 잘 사용하기 위해 준지도 학습을 사용하게 된다. 소량의 레이블데이터와, unlabeled 데이터를 사용하여 모델 예측의 일관성을 획득하는 것이다. 레이블 데이터의 경우는, 정답 레이블의 확률이 1에 가까워지도록 학습하는 것이고, Unlabeled 데이터의 경우는 data augmentation이나 모델의 preturbation을 했을 때 각각이 일관된 pseudo label을 예측하도록 학습하는 방식이다. 또 다른 방법으로는 Augmentation한 데이터에 대해 drop out과 random maxpooling을 통한 여러개의 예측값을 반복적으로 구하여 이들 사이의 값들이 차이가 사라지도록 MSE 손실함수를 적용하는 방식도 있고, 매 epoch 별로 여러가지 augmentation과 앙상블을 이용한 모델도 있었다. 이러한 아이디어들은 전부 적은양의 레이블 데이터를 보완하여 일정한 예측을 할 수 있도록 불확실한 부분을 줄여나가는 것에 주요한 포인트가 있다고 느껴졌다. 가장 인상깊었던 것은 virtual adversarial training이었는데, Unlabeled 데이터로부터 노이즈를 더할 때, 모델 입장에서 현재 시점의 예측 결과의 확률분포로부터 멀어지도록 만드는 노이즈를 계산하여 더해주었을 때, 이 노이즈를 가지고도 모델이 예측하도록 학습하면 좀더 robust한 성능을 갖는 모델을 만들 수 있다는 것이다. 어떻게 생각하면 augmentation과 유사하지만 예측 결과로부터 멀어지도록 만드는 노이즈인 만큼, 데이터 도메인 specific하지않고 상당히 다양하게 적용할 수 있지 않을까 생각이 들었다.
최근에는 현실 상황에서 모델이 기존에 알지 못한 새로운 unknown 레이블이 들어있는 상황에 대한 연구가 지속되고 있다. 즉, unlabeled 데이터에 레이블 데이터로는 알수 없었던 이상한 신규 데이터가 많이 들어있을 수록, 일관된 예측 결과를 위한 준지도 효과를 얻지 못하고, 오히려 지도학습보다 성능이 하락하게 되는 것이다. 말하자면, 예측에 도움이 되는 훈련모수를 증가시킬 수 있어야 하는데, 신규 클래스때문에 오히려 헷갈려 하는 것이다. 세미나에서는 이러한 문제에서도 잘 작동하는 준지도 학습을 간략하게 2개 더 소개해주었다.
레이블이 없는 데이터에 대한 문제는 대단히 산업적이고 재미있는 주제다. 데이터는 무궁무진 하지만, 그것을 정확히 분류하는 주체는 아직은 사람이기 때문이다. 모델이 이러한 데이터에 대해서 현재까지 알고있는 분류만으로 새로운 분류에 대한 정확도를 탐색해 나가는 과정이 굉장히 흥미로웠다. 분야를 관통하는 핵심적인 내용을 이렇게 듣기 편하게 설명할 수 있다는게 참 배울점이 많다고 느꼈다. 레이블에 대한 비용만이 아니라 결국 모델이 현재 알고있는 것만으로 새로운 것들을 배워갈 때 굉장히 필요한 점이지 않을까 생각이 들고, 나 또한 준지도 학습에 대해 조금더 공부하고 싶어지게 만드는 시간이었다. 진수에게 깊은 감사의 마음을 전한다.

딥러닝 기반 준지도학습에서 대표적인 논문 5가지에 대해 알아보았다. 준지도학습은 Unlabeled data 를 적극 활용하자는 측면에서 자가지도학습과 비슷한 의의를 가지고 있다. 차이점은, 자가지도학습은 Unlabeled data로부터 Feature extractor 를 학습한 후 풀고자하는 task의 labeled data에 fine-tuning 하는 것이라면 준지도학습은 Labeled data를 통해 학습한 모델을 기반으로 Unlabeled data의 예측값을 활용하는 것이다. 대표적인 알고리즘인 Pseudo-Label과 Mean-Teacher 는 익히 들어보았지만, Adversarial Attack 을 통해 Consistency 를 높인 Virtual Adversarial Attack 은 생소하고 신기했다.
단순 알고리즘 설명 뿐만 아니라 최신 연구 트렌드까지 알려준 것이 인상적이었다. 키포인트는 실제 상황에서는 Unlabeled data에 내재된 class와 Labeled data에 내재된 class 간의 차이(Mis-match) 가 있다는 것이다.
다양한 준지도학습 알고리즘 뿐만 아니라 최근 준지도학습의 메인 이슈인 Mismatch problem 까지 폭넓게 이해할 수 있었다.

이번 세미나는 'Deep semi-supervised learning'을 주제로 진행되었다. Semi-supervised learning은 labeled 데이터는 적지만 다량으로 수집된 unlabeled 데이터가 존재하는 경우 정답에 가까운 일반된 성능을 확보하는데 효과적으로 사용된다. 준지도학습은 지도학습과 consistent training을 동시에 수행하는 프레임워크로 구성된다. 본 세미나에서는 해당 프레임워크 내에 속하는 여러 알고리즘에 대해 소개하였다. 먼저 unlabeled 데이터에 대한 예측 확률값 중 가장 큰 값을 가진 class를 가상의 label로 다시 학습함으로써 모델의 불확실성을 제거하는 효과를 얻을 수 있는 "pseudo-label" 방법론에 대해 설명해주었다. 다음으로는 pseudo-label에서 사용하지 않았던 regularization과 perturbation을 적용하고, 반복을 통해 반복 결과값들의 차이를 줄여나가는 방법론에 대해 설명해주었다. 이 밖에도 매 epoch별로 랜덤하게 augmentation을 적용하는 stochastic augmentation과 예측 결과를 moving average하는 temporal ensemble을 제시한 "temporal ensembling" 방법론, 이와 달리 매 iteration별 모델 파라미터를 moving average하는 "mean teacher" 방법론, adversarial attack을 통해 가상으로 만들어진 노이즈에도 robust한 결과를 얻을 수 있는 "virtual adversarial training" 방법론에 대해 언급하며 해당 방법론들이 어떠한 이유에서 우수한 성능을 입증할 수 있었는지 꼼꼼히 설명해주었다. 추가적으로 최신 연구 동향까지 소개하며, 준지도학습에 대해 넓고도 깊게 접해볼 수 있는 시간이 되도록 하였다.
평소 진수오빠에게 응급 상황 시 문제 해결에 대한 자문을 많이 구하는데, 문제 해결 뒤 해결 방법에 대한 꼼꼼한 설명을 늘 덧붙여주는 오빠의 친절함이 이번 세미나에서도 잘 드러난 것 같다. 덕분에 준지도학습에 대한 다양한 아이디어를 깔끔한 구성 내에서 접할 수 있어 유익했으며, 이러한 좋은 세미나를 준비해준 진수오빠에게 감사한 마음이다. 진수오빠의 향후 연구를 진심으로 응원하며 세미나 후기를 마친다.

이번 세미나는 "Deep semi-supervised learning"이라는 주제로 진행됐다. 준지도학습은 레이블이 없는 데이터까지 활용하여 모델의 성능을 올리는 학습 기법을 의미한다. 준지도학습의 기본적인 가정은 consistency regularization으로 의미상으로 동일한 데이터에 대해서 모델의 예측 결과가 일관되어야 한다는 의미이다. 이번 세미나에서는 준지도학습의 기본적인 알고리즘들에 관해서 소개되었다. Pseudo-label은 레이블이 없는 데이터에 대해 모델의 결괏값을 활용해 레이블링한 후 학습을 진행하게 된다. 학습의 초기에서는 모델의 예측이 정확하지 않기 때문에 준지도학습의 손실함수에 대한 가중치를 낮게 설정하고 일정 epoch 이상에서 가중치를 높이게 된다. 두 번째로 소개된 모델에서는 레이블이 없는 데이터에 대해 이미지 증강기법을 활용한 여러 출력값의 값들이 일관되게 나오도록 하는 손실함수와 출력값이 하나의 값만 0이 아닌 값을 갖도록 하는 mutual exclusivity loss를 활용했다. Temporal ensemble의 레이블이 없는 데이터에 대해 epoch마다 나오는 출력값의 이동평균을 통해서 앙상블의 효과가 있도록 하고 해당 값을 예측하도록 하는 self-distillation 기법을 활용했다. Mean teacher의 경우 temporal ensemble과 유사하지만, 출력값의 이동평균 대신 모델 파라미터의 이동평균을 활용했다는 차이점이 존재한다. 마지막으로 소개된 virtual adversarial training의 경우 기존 이미지와 노이즈를 추가한 이미지의 출력 분포가 유사해지도록 하여 adversarial example을 생성하여 준지도학습을 진행하게 된다. 세미나의 후반부에서는 안전한 준지도 학습에 관해서 소개되었다. 기존 준지도학습은 레이블이 없는 데이터는 레이블이 있는 데이터와 동일한 레이블을 갖는다는 가정을 가지고 있지만 현실 상황에서는 그렇지 않은 경우도 많이 존재한다. 안전한 준지도학습은 레이블이 없는 데이터와 레이블이 있는 데이터가 서로 다른 클래스를 갖더라고 잘 동작하는 모델을 구축하는 것을 목표로 연구가 진행되고 있다. 이번 세미나를 통해 준지도학습 전반과 최신 연구 트렌드를 살펴볼 수 있어 의미 있는 세미나였다. 세미나를 위해 고생해준 진수에게 감사의 뜻을 전한다.

이번 세미나는 Deep semi-supervised learning에 대한 주제로 진행되었다. 준지도학습은 지도학습과 비지도학습을 함께 고려하는 학습의 형태로, 지도학습에 필요한 레이블이 부족하고 대신 레이블이 없는 데이터가 많은 상황에 적합한 방법론이다. 레이블 데이터가 부족한 상황에서 딥러닝 기반의 지도학습을 하게 되면 모델의 정확성과 일관성 측면에서 모두 좋지 않은 성능을 보이기 때문에 충분한 언레이블 데이터를 활용하여 모델의 일관성을 높이면서 지도학습에 가까운 정확성을 보이게 할 수 있는 것이 준지도학습 방법론이다. 이 때 언레이블 데이터가 일관성을 높일 수 있는 것은 Consistency regularization을 기반으로 학습하기 때문인데, 이는 Data augmentation, model perturbation, preprocessing, training의 관점에서 살펴볼 수 있다. 이에 대한 방법론들로 Pseudo-label, Regularization with stochastic transformations and perturbations, Temporal ensembling, Mean teacher, Virtual adversarial training이 소개되었다. 각 방법론들은 준지도학습 연구이지만 언레이블 데이터를 어떻게 학습에 활용하는지를 주로 다루고 있기 때문에 향후 비지도학습 연구를 할 때에도 많은 도움이 될 수 있을 것 같다. 마지막으로 진수가 현재 연구 중인 안전한 준지도학습에 대한 연구방향이 소개되었다. 언레이블 데이터는 레이블 없이 수집되는 데이터이기 때문에 잘못된 클래스 정보를 가진 데이터들이 충분히 섞일 수 있고, 이로 인한 성능 저하를 개선하는 것은 중요한 문제라고 생각된다. 이번 세미나로 준지도학습 방법론에 대한 여러 모델들을 살펴볼 수 있었고, Consistency regularization을 통해 언레이블 데이터를 어떻게 학습에 활용할 수 있었는지 알 수 있었다. 알찬 내용으로 세미나를 준비해준 진수에게 감사의 말을 전한다.

이번 세미나는 진수가 semi-supervised learning에 대한 다양한 방법론들과 최신연구 동향을 소개해 주었다. semi-supervised learning은 labeled data가 부족할 때, unlabeled data를 활용하기 위해 등장한 방법론이다.
semi-supervised learning에서 가장 중요한 개념은 consistency regularization이다. consistency regularization이란 data 혹은 모델에 작은 변화가 생기더라도 모델의 예측값은 일정해야한다는 것이다. 이를 위해서 semi-supervised learning은 label을 예측하거나 분류하는 supervised learning과 동시에 consistent training을 수행하는데 unlabeled data나 모델에 작은 변화를 주더라도 representation이 비슷하게 나오게끔 loss function을 구성한다.
오늘 세미나에서 소개된 다섯 가지 방법론은 Pseudo label, Temporal ensemble, Regularization with stochastic transformations and perturbations, Virtual adversarial training, mean teacher이다. 이 모든 방법론들은 결국 하나의 관측치에 작은 변화가 있더라도 일관된 예측을 하게하는 것을 목표로 한다.
최근 semi-supervised learning에서는 실제 데이터에서 unlabeled data에 unseened class나 missmatched class 관측치가 있기 때문에 이를 해결하기 위한 stage를 추가하는 연구가 진행되고 있다고 한다.
이번 세미나를 통해서 semi-supervised learning에 대한 기본적인 대표 알고리즘을 공부할 수 있게 되었다. self-supervised learning에 비해 semi-supervised learning은 잘 모르고 있었는데 이번 기회에 semi-supervised learning도 공부를 해보고 싶다.

금일 세미나는 "Deep Semi-Supervised Learning"이란 주제로 진수가 발표하였다. 계속해서 발전하고 있는 지도 학습 기반의 딥러닝은 성능을 높이기 위해 충분한 양의 레이블 데이터를 필요로 한다. 하지만, 현실적으로 대량의 레이블 데이터를 얻는 것에 있어서 비용, 시간 소비가 매우 크다. 현실적인 문제를 해결하기 위해 등장한 분야가 바로 Semi-Supervised Learning (SSL)이며 소량의 레이블 데이터와 대량의 레이블이 없는 데이터를 활용하여 지도 학습에 준하는 성능을 달성한다. 본 세미나에서는 위와 같은 문제를 해결하기 위한 전통적인 SSL (Temporal Ensembles, Mean Teacher, VAT, ...)를 설명하고 최근 SSL의 트렌드를 소개하였다. 특히, 최근에는 레이블 데이터와 레이블이 없는 데이터가 갖고 있는 클래스 분포가 같다는 가정이 맞지 않다는 문제(Mismatch, Out-of-Distribution)를 해결하기 위한 방법론들이 제안되고 있다. SSL은 Self-Supervised Learning과 같이 매우 중요한 학습 방식이라고 생각한다. 최근에는 SSL과 Self-Supervised Learning의 결합 연구도 소개되고 있어 추후에는 관련 연구를 소개하는 세미나가 등장하길 기대한다.

이번 세미나는 딥러닝 기반의 Semi-Supervised Learning에 관하여 진행되었다. Semi-Supervised Learning, 준지도학습은 정답 데이터를 수집하는 labelling 작업에 소요되는 많은 자원과 비용으로 인해 등장한 학습 방법론이다. 여기에 데이터에 발생하는 미세한 변화에도 일관되게, 옳게 예측을 해야한다는 consistency training까지 합친 방법이라고 이야기할 수 있다. 본 세미나에서는 지도학습과 비교하여 준지도학습에서 모델 성능을 더 높일 수 있는 가정을 포함해 다섯가지의 알고리즘 및 논문이 소개되었다.
첫번째로 소개된 pseudo-label은 레이블 된 데이터를 활용해 모델을 학습하고 이 모델을 활용해 unlabel 된 데이터를 학습하는 방법으로 진행하게 된다. 다시 말해 pseudo-label된 데이터를 합쳐 일반적인 지도학습의 방식으로 학습을 하는 방법론이다. 두번째로 소개된 모델에서는 unlabel 된 데이터에 다양한 종류의 augmentation을 활용하여 일관된 값이 나오도록 mutual exlusivity loss를 활용하였다. 세번째로 소개된 temporal ensembel은 매 에폭 별 예측 결과 값을 종합한 좋은 앙상블 값을 모델이 다시 학습하는 방법론이다. 네번째로 소개된 mean teacher의 경우 모델의 weight 자체를 이동 평균하여 과거시점의 모델의 정보도 함께 고려하여 학습할 수 있는 방법론이다. 마지막으로 virtual adversarial training은 perturbation based 방법론 중 어떻게 perturbation을 만드는지에 집중한 방법론으로, 모델이 틀릴만한 perturbation 다시 말해 노이즈를 생성하여 이 노이즈에도 robust하고 consistent한 모델을 만드는 방법론이다. 이후 최신 연구 동향과 함께 세미나가 마무리 되었는데 준지도학습에 대해 배울 수 있는 유익한 시간이었다.

해당 세미나는 준지도 학습 - Deep Semi supervised learning에 대한 기본적인 배경, 모델 그리고 현재 연구 진행방향들에 대한 내용들이다.
기본적으로 semi supervised learning이 필요한 이유는 현실적으로 labeled 된 데이터를 구하기 어렵기 때문에 labeled data가 부족한 상황에서 unlabeled data를 적극적으로 활용하자는 것이다. Semi supervised learning에서 핵심 개념 중 하나는 ‘Consistency Training’ 인데, 이는 동일한 데이터에 augmentation/perturbation을 주더라도 모델은 같은 예측결과를 출력하도록 하는 것이다.
[1] 첫번째 논문은 Pseudo Label 이었는데, unlabeled data를 예측한 결과 중 가장 확률이 높은 것을 pseudo label로 가정하는 것이 핵심이다. 이때 학습 초기에는 모델의 결과가 정확하지 않기 때문에 가중치를 낮게 설정하지만, 학습이 진행될수록 가중치를 높이게 된다
[2] 두번째 논문의 핵심 내용은 모델의 non-deterministic한 특성 때문에 예측 결과가 달라질 수 있는데 이를 최소화하기 위해 Transformation Stability와 모델이 하나의 class에 대해서만 1에 가까운 결과를 내뱉도록 하는 Mutual Exclusivity Loss를 사용한다.
[3] Temporal Ensembling은 각 training epoch에서 나온 예측 결과에 대해 moving average하여 하나의 모델만으로 앙상블 효과를 내는 self-distillation training을 제안한다
[4] Mean Teacher는 개인적으로 정말 이름을 많이 들어본 모델이다. 해당 모델은 매 iteration별 모델의 파라미터를 moving average하는 것이 핵심 아이디어이다.
[5] 마지막으로 virtual adversarial training은 원본 이미지와 이미지에 노이즈를 추가한 이미지에 대한 모델의 예측 결과가 같아지도록 하는 것으로 하여 모델이 robust하도록 한다.
해당 세미나를 통해 semi supervised learning에 대한 전반적인 내용에 대해 이해할 수 있어 큰 도움이 되었고, 유익한 세미나를 준비해준 배진수 연구원에게 고맙다는 말을 전하며 세미나 후기를 마친다

이번 세미나는 Deep semi-supervised learning에 대한 내용으로 진행되었다. 딥러닝 기반의 지도학습 모델들은 충분한 학습데이터를 필요로 하며, 레이블링된 학습데이터가 충분하지 않을 경우 성능이 저하되는 문제가 있습니다. 따라서 Labeled 데이터의 수집이 어려울 때, 상대적으로 수집이 쉬운 Unlabeled 데이터를 활용하는 것이 semi-supervised learning의 접근 방법입니다. semi-supervised learning은 Unlabeled 데이터를 통한 Consistency regularization을 통해서 모델의 예측결과의 일관성을 높이는 것이 핵심 아이디어입니다. 본 세미나에서는 다섯가지 알고리즘에 대한 설명이 진행되었습니다.
1. Pseudo-label : Labeled 데이터로 학습된 모델을 통해서 Unlabeled 데이터에 대해 예측하고, 가장 높은 확률의 Class를 정답으로 레이블링하여 다시 학습을 진행한다. 이를 통해 모델의 일관성 향상과 불확실성 제거의 효과를 보일 수 있다. 또한 학습 초기에는 예측 결과의 신뢰도가 떨어지므로, 손실함수에 대한 가중치를 낮게 부여하는 전략을 사용하여 성능을 향상한다.
2. Regularization with Stochastic Transformations and Perturbations for Deep Semi-Supervised Laearning : 데이터 Augmentation과 Random max-pooling에 의해 달라지는 예측값들의 MSE값을 줄임으로써 예측의 일관성을 확보한다. 또한, Mutual-Exclusivity Loss를 통해 하나의 값으로 확실히 예측하도록 하는 전략을 사용한다.
3. Temporal ensemble : 단일 모델을 활용하여 각 epoch의 moving average 결과 값과 현재 예측값의 차이를 줄이는 방식을 사용하는 Self-distillation 기법을 사용한다.
4. Mean teacher : Temporal ensemble기법과 유사한 방법을 사용하지만, 각 epoch별 예측값이 아닌 각 iteration별 모델의 파라미터를 moving average하는 방식을 사용한다.
5. Virtural adversarial training : 적대적 노이즈가 추가된 데이터와 원본 데이터의 출력값이 일관되도록 학습하는 방식을 사용한다.
본 세미나를 통해서 Deep semi-supervised learning의 기본적인 내용과 대표 알고리즘을 공부할 수 있어서 굉장히 유익한 시간이었다. 좋은 자료를 통해 Semi-supervised learning의 기본을 공부하는데 도움을 준 배진수 연구원님께 고맙다는 말을 전하며, 세미나 후기를 마친다.