- 2022년 1월 7일 오전 2:09
- 조회수: 5175
INFORMATION
- 2022년 1월 7일
- 오후 1시 ~
온라인 비디오 시청 (YouTube)

TOPIC
On-Line Video
OVERVIEW
청취자 후기

본래 Self-Supervised Learning(SSL)은 레이블이 있는 데이터를 대량으로 확보하기 어려운 점을 극복하기 위해 고안되었다. 최근까지 이미지 도메인에서 대표적인 SSL은 Contrastive Learning 으로써, 동일한 이미지 (instance)의 크기를 줄이거나 돌려도 내포한 정보는 변하지 않는 점을 이용해, 동일 이미지로부터 파생된 표현 벡터는 가깝게, 다른 이미지에서 파생된 표현 벡터는 멀어지게 학습한다. Contrastive Learning은 큰 성공을 거두었지만, 같은 범주(class)에 속하는 다른 이미지 간의 거리가 멀어지게 된다는 단점이 존재한다.
Supervised Contrastive Learning 은 레이블이 존재하는 데이터에서 Contrsative Learning 을 적용시킨 연구이다. 같은 범주의 다른 이미지들까지 Positive Sample 로 간주함에 따라 Self-Supervised Contrastive Learning 의 문제를 해결하면서 좋은 성능을 나타내었다.
Contrastive Learning 과 Supervised Learning 이 상호 배타적이지 않고, 서로의 문제를 해결하기 위해 합쳐질 수 있음을 알게 되었다. 세미나를 준비하느라 고생하신 윤상이형께 감사의 말씀을 드린다.

이번 세미나는 ‘Supervised Contrastive Learning’을 주제로 세미나가 진행됐다. Supervised Contrastive Learning이란 지도학습인 Supervised Learning과 Self-Supervised Learning의 대표적인 방법론인 Contrastive Learning이 합쳐진 방법론이다. 최근 많은 분야에서 연구가 진행되고 있는 Self-Supervised Learning이란 레이블이 있는 데이터가 부족한 경우, 데이터 증강 기법을 통해 모델의 예측 성능을 보장하는 연구 분야이다. 그 중 대표적으로 사용되는 방법론이 바로 Contrastive Learning이다. 데이터 증강 기법을 통해 얻어진 Positive는 원본 이미지인 Anchor와 유사한 feature vector를 가지므로 이를 다차원 공간에 가깝게 위치시키게끔 학습시킨다. 반면 나머지 데이터인 Negative는 Anchor와 상이한 feature vector를 가지므로 다차원 공간에 서로 멀게 위치시키게끔 학습하게 된다. 하지만 Anchor와 같은 레이블이 붙은 다른 데이터도 모델이 Negative로 인식하면서 멀어지는 문제가 발생하게 된다. 이를 해결하기 위해 나온 방법이 바로 Supervised Contrastive Learning이다. 이 방법은 단순히 Positive 이미지만을 가깝게 학습시키는 것이 아닌 같은 레이블의 데이터들을 다차원 공간에 유사하게 위치시키도록 학습시키는 방법이다. 즉, 레이블이 된 데이터가 어느 정도 풍부하다면 더 뛰어난 성능을 얻을 수 있는 방법이다. 실제로 Supervised Contrastive Learning을 단순히 이미지가 아닌 텍스트 분야에서도 적용하여 사용하고 있으며, 그 성능은 기존의 다른 방법론들에 비해 더 좋은 성능을 보여준다. 이번 세미나를 통해 Supervised Contrastive Learning에 대해서 확실하게 알 수 있었고, 지도학습의 한계를 개선하기 위해 나온 Self-Supervised Learning이 다시 지도학습을 통해 한계를 극복하는 점이 인상 깊었다. 좋은 세미나를 준비해주신 윤상이 형께 감사하다는 마음을 전하며 후기를 마무리한다.

이번 세미나는 'Supervised Contrastive Learning'을 주제로 진행되었다. Supervised contrastive learning은 정답 레이블을 활용하는 supervised learning과 다양한 데이터 증강기법 및 pre-training, fine-tuning을 활용하는 self-supervised contrastive learning 각각의 장점을 통합하여 활용한 기법이다. 일반적으로 다량의 데이터가 존재하는 상황에서 supervised learning은 representation learning을 통해 자동으로 추출된 효과적 특징과 사전에 부여된 정답을 사용하여 학습을 진행한다. 그러나 데이터가 충분하지 않은 상황 속에서 이러한 방법은 높은 성능을 기대하기에 다소 어렵다. 이를 극복하기 위해 고안된 self-supervised contrastive learning은 학습 대상 데이터인 anchor와 증강 데이터인 positive의 유사도는 크도록, 그 외 나머지 데이터인 negative와의 유사도는 작도록 representation learning을 수행한다. 이는 정답 레이블이 적은 상황에서 높은 성능을 보이지만 반대로 정답 레이블이 충분한 상황에서 오히려 효과적인 학습 성능을 기대하기 어렵다. 이 점에서 고안된 supervised contrastive learning은 레이블 정보를 모두 활용하여 하나의 positive sample만이 아닌 동일한 정답의 여러 positive sample을 이용한 loss term으로 학습 모델을 구성하였다. 이는 결과적으로 풍부한 representation learning을 통해 이미지와 텍스트 데이터 모두에서 예측 성능 향상을 이루어냈다.
Supervised contrastive learning이 무엇인지 배경부터 개념, 그리고 내부 수식까지 너무나 명료하게 전달된 세미나였다. 넓은 관점에서 봤을 때, 데이터를 설명하는 특징을 효과적으로 잘 추출해내는 것이 곧 현재 우리가 연구하는 딥러닝의 핵심이며 예측 성능에 있어 얼마나 중요한 부분을 차지하는지에 대해 다시금 느낄 수 있었다. 마지막까지 좋은 세미나를 준비해주신 윤상오빠께 감사의 말씀을 전하고 싶다.

금일 세미나는 “Supervised Contrastive Learning”으로 윤상이가 발표하였다. 요즘 딥러닝 연구에서는 비지도 학습 중 자기 지도 학습(Self-Supervised Learning)이 대세를 이루고 있다. 방법론부터 다양한 산업에 응용하는 연구 등 많은 연구들을 볼 수 있다. 자기 지도 학습은 레이블이 없는(Unlabelled) 데이터 자체에 대한 표현을 학습하는 방법이다. 표현 방식은 사용자가 직접 정의하여 문제를 푸는 Pretext Task와 대조 학습을 위한 손실 함수를 사용하여 학습하는 경우가 존재한다. 최근에는 대조 학습을 주로 사용하고 있다. 이번 세미나에서 소개한 논문은 비지도 학습 기반의 대조 학습에 지도 학습 개념을 결합한 연구이다. 연구의 핵심은 사전에 정의한 Negative examples에는 실제 Anchor와 Semantic 정보가 매우 유사한 False Negative가 존재할 것이라는 가정에서 시작한 연구이다. False Negative 문제는 입력 데이터의 레이블 정보를 적극 활용하여 Anchor와 동일한 레이블을 가진 Negatives를 Positives로 변경함으로써 해결한다. 오늘 소개된 논문은 내가 현재 연구하고 있는 강화학습에 결합하는 연구로 활용하고 있다. 자기 지도 학습은 분야를 막론하고 다양한 도메인에 적용해볼 수 있는 장점이 있다고 생각한다. 추후에도 강화학습과 자기 지도 학습을 결합하여 강화학습의 고질적인 문제를 해결하는 연구를 계속해 나아갈 것이다.

이번 세미나는 supervised contrastive learning에 대해 윤상이형이 발표를 해주었다. Deep learning의 가장 큰 장점으로는 feature engineering을 사람이 직접하는 것이 아닌 모델이 자동적으로 찾아준다는 것이다. 기존에는 특정 도메인에 맞게 전문가 지식을 활용하여 데이터를 가공함으로써 좋은 특징을 만들어 냈지만 사람이 인지하지 못하는 변수들 간의 관계를 반영할 수 없었다. 하지만 deep learning은 학습을 통해 목적함수에 가장 알맞는 특징을 추출할 수 있는 특징추출기를 얻을 수 있다.
여기서 특정 label이 없이 unlabeled data만을 이용하여 입력 데이터의 특징을 잘 표현하도록 학습하는 방법이 self-supervised learning이다. 최근 self-supervised learning에서는 contrastive loss를 이용한 contrastive learning 방법론이 큰 효과를 거두고 있다.
Contrastive learning은 positive pair와 negative samples를 정의하여 잠재 공간 상에서
positive pair끼리는 가깝게, negative samples와는 멀도록 학습이 이루어진다. 여기서 contrastive learning의 문제를 발견할 수 있는데 만약 positive pair나 negative samples의 정의가 잘못되어 버리면 제대로 된 표현 학습이 이루어지지 않는다. positive pair는 보통 하나의 관측치에 서로 다른 데이터 증강기법을 적용하기 때문에 큰 문제가 되지 않지만 negative samples 중에 positive pair와 비슷한 관측치가 있다면 이는 false negative가 된다. 이러한 문제를 해결하기 위해서 실제 label을 주고 constrastive learning을 진행하는 supervised contrastive learning 방법론이 제안되었다.
이번 세미나를 통해서 self-supervised contrastive learning과 supervised contrastive learning에 대한 차이를 알 수 있었다. 좋은 세미나를 해준 윤상이형에게 감사를 전하며 세미나 후기를 마친다.

금일 세미나는 윤상이 형이 지도학습 기반의 대조 표현 학습을 주제로 진행해주었다. 대표적인 표현 학습 기법 중 하나인 딥러닝을 예시로 표현 학습이 무엇인지와 자가지도학습의 필요성을 설명하며 세미나가 시작되었다. 자가지도학습 설명 부분은 자가지도학습 초심자가 봐도 바로 이해될 정도로 직관적이게 진행되었다. 특히 자가지도학습을 위한 손실함수 부분 설명을 구체적으로도 같이 해주어 좋았다.
지도학습 기반의 자가지도 대조학습은 아이디어가 직관적이고 이해하기 쉬워 느낌정도로만 알고 있었는데, 금일 세미나를 통해 구체적인 손실함수와 활용 방안 및 목적을 알 수 있어 좋았다. (대조학습을 위한 3가지 요소에 대한 자세한 설명 역시 많은 도움이 되었다.)
좋은 세미나를 준비해준 윤상이 형에게 감사의 말씀을 전하며 세미나 후기를 마치도록 한다.

이번 세미나는 "Supervised Contrastive Learning"을 주제로 진행됐다. Contrastive learning은 표현학습의 일종이다. 데이터에 augmentation 기법을 활용하여 만들어진 데이터를 postivie pair, 이외의 데이터를 negative pair로 정의한다. 딥러닝 모델을 통해 데이터에서 특징을 추출한 이후에 postivie pair는 가깝게, negative pair는 멀어지도록 하는 contrastive loss를 통해 학습을 진행하게 된다. 이때 negative pair내에 postivie pair와 유사한 형태의 데이터가 섞여 있는 경우 정확한 표현학습이 어렵다는 단점이 있다. 따라서 supervised contrastive learning에서는 데이터의 레이블 정보를 활용해 positive pair와 negative pair를 정의하게 된다. 이를 통해서 좀 더 정확한 표현학습을 진행할 수 있게 되며 downstream task에서도 좋은 성능을 보임을 실험적으로 입증했다.