- 2025년 5월 2일 오후 2:42
- 조회수: 140
INFORMATION
- 2025년 5월 2일
- 오후 2시 ~
- Youtube
온라인 비디오 시청 (YouTube)

TOPIC
On-Line Video
OVERVIEW
지난 세미나에서는 모델의 추가적인 학습 없이 OOD를 탐지하는 post-hoc 기반 방법론들을 소개하였지만, 해당 방법론들은 OOD 탐지를 목적으로 학습된 모델이 아니기 때문에 OOD 탐지 성능에 한계가 존재한다.
이번 세미나에서는 OOD탐지 성능을 개선하기 위해 가상 혹은 실제 OOD 데이터를 추가적으로 활용하는 outlier exposure 기반 방법론들을 소개하고자 한다.
[1] Lee, K., Lee, H., Lee, K., & Shin, J. (2018). Training confidence-calibrated classifiers for detecting out-of-distribution samples. In 6th International Conference on Learning Representations, ICLR 2018.
[2] Hendrycks, D., Mazeika, M., & Dietterich, T. Deep Anomaly Detection with Outlier Exposure. In International Conference on Learning Representations.
[3] Tack, J., Mo, S., Jeong, J., & Shin, J. (2020). Csi: Novelty detection via contrastive learning on distributionally shifted instances. Advances in neural information processing systems, 33, 11839-11852.
[4] Liu, W., Wang, X., Owens, J., & Li, Y. (2020). Energy-based out-of-distribution detection. Advances in neural information processing systems, 33, 21464-21475.
청취자 후기

이번 세미나는 새린이형이 세 번째로 OOD detection에 대해 설명해주었다. 여러 가지 OOD detection 방법 중 outlier exposure appraoch에 대해 설명해주었다. 가상의 OOD 데이터를 생성하여 활용하는 것이 이번 세미나에서 흥미로운 점 중 하나였다.
마지막 방법론은 대조 학습을 이용하여, OOD detection을 수행한다. 대조 학습에서 가장 중요한 부분은 positive/negative samples를 어떻게 정의하냐인데, 해당 방법론에서는 강한 변형 기법을 통해 OOD스러운 데이터를 생성하였다. Identity transform만 positive sample로, 그 외의 k-1개의 강한 transformation은 negative sample로 정의하여 대조 학습을 수행하였다. 또한, distribution shifting transformation을 찾기 위해 OODness라는 지표를 정의하였으며, 이 부분도 핵심적인 요소라고 할 수 있다. 결과적으로는, 데이터셋에 따라 적절한 transformation을 찾는 것이 중요한 부분이였다. 상당히 다양한 실험을 통해 인사이트를 도출하였으며, 세미나에는 소개되지 않은 실험들도 있을 것이기 때문에 해당 논문은 따로 한 번 읽어봐야겠다는 생각을 했다.
최근 OOD와 ID label noise가 결합된 문제 상황을 해결하는 연구를 진행하고 있어서 이번 세미나를 매우 흥미롭게 들을 수 있었다. 방법론에서 핵심적인 부분을 매우 잘 설명해주어 도움도 많이 되었다. 내 문제 상황에 적용할 수 있는 것들을 잘 고민해서 적용해봐야겠다는 생각이 들었고, 보다 최신 논문들도 탐색이 필요할 것 같다. 좋은 세미나를 준비하느라 고생한 새린이형에게 고맙다는 말을 전하며, 본 세미나 후기를 마친다.

OOD detection 중 post-hoc 방식은 ID나 OOD를 구분하는 것이 아닌 단순히 이미지를 분류하는 방식을 학습하기 때문에 탐지 성능에 한계가 있다. 이러한 부분을 해결하기 위해 실제 혹은 가상의 OOD 데이터에 노출 시킴으로써 성능을 개선시키는 outlier exposure 방식이 존재한다.
그 중 네 가지 방법론에 대해서 설명을 해주었는데, 실제 OOD 데이터를 활용하는 방법과 GAN을 이용하는 방법, 그리고 강한 augmentation을 통해 class 보존이 어렵게 활용하는 방식들에 대해 소개해 주었다.
Loss를 포함한 다양한 수식과 결과에 대해서 구체적으로 설명해주어서 이해하기 좋았고 논문 읽을 때 어떤 시각으로 봐야 할지 참고 해보고자 한다. 좋은 세미나 만들어준 새린이에게 고맙다는 말 전하고 싶다.

기존의 part1&2에서 다뤘던 방법론들은 ID/OOD 구분이 메인이 아니라 단순히 이미지 분류 목적으로 학습했기 때문에, OOD 탐지 성능에 한계를 보였다. 금일 세미나에서 발표한 4개의 방법론은 모두 실제 혹은 가상의 OOD 데이터를 활용하여 Unseen OOD를 탐지하는 방법론들이다.
[Training Confidence-Calibrated Classifiers for Detecting Out-of-Distribution Samples]
- 가상의 OOD 데이터를 생성 및 활용하며, OOD 데이터의 경우 Uniform Distibution에 대한 Cross Entropy로 학습시켜 OOD 샘플에 대한 Confidence를 감소시킨다.
- Toy Example을 통해 OOD 중에서도 ID와 비슷한 OOD를 집중적으로 활용하는 것이 Classification Boundary를 보수적으로 만들어 탐지 성능을 높이는 것을 밝혀냈다.
- 이에 따라 ID 데이터와 GAN을 활용하여 가상의 OOD 데이터를 만들어 Uniform Distirbution과의 Cross Entropy를 증가시키는 방향으로 학습한다.
- 이 때, GAN Loss에 추가적인 Loss Term을 추가시켜, 생성된 가상 OOD 데이터의 예측값이 Uniform에 가깝도록 한다.
[Deep Anomaly Detection with Outlier Exposure]
- 가상의 OOD 데이터가 아니라 실제 OOD 데이터가 일부 존재한다는 상황에서 종합적인 프레임워크 방향을 제시하였다.
- 다양한 방면으로 정의 될 수 있으나, 본 세미나에서는 앞서 설명한 방법론에 실제 OOD 데이터를 사용하는 방법을 소개하였다.
- ID 데이터로 학습 후 OOD 데이터로 fine-tuning을 진행하거나, 1-stage 방식으로 학습하여도 성능 차이가 없음을 보여주어, 다양한 상황에서 시의적절하게 써도 무방하다고한다.
- 앞선 방법론에서 제안한 GAN Loss의 경우 복잡한 데이터의 생성이 어렵기 때문에, 성능이 떨어짐을 보여주었다.
[Energy-based Out-of-Distribution Detection]
- ID, OOD 데이터의 에너지 값에 대한 margin loss를 추가하여 logit(energy)를 직접적으로 조정하는 방법론
- Maximum Softmax Prediction (MSP) 기반 OOD detection 보다 Energy Score를 활용하는 것이 ID/OOD 간의 Discrepancy를 더 잘 반영한다고 주장하였다.
- OOD에 대한 margin 값보다 ID에 대한 margin 값에 더 sensitive하다고 하지만, 구체적인 이유는 잘 이해하지 못하였다.
[CSI: Novelty Detection via Contrastive Learning on Distributionally Shifted Instances]
- Contrastive Learning을 적용하여 ID/OOD를 분리하는 representation learning을 수행하는 것이 목표
- 독특하게도, 원본 데이터에서 (원본 클래스 정보를 약간 상실할 정도로) Hard Augmentation을 적용해서 가상의 OOD 데이터를 생성하였다.
- 이러한 OOD-like negative sample들로 OOD 바운더리를 생성하였으며, SimCLR 논문에서 제안된 증강 기법 후보군과 사전학습된 SimCLR 모델을 활용해서 가장 Distribtuion-Shifting을 일으키는 증강 기법이 어떤 것인지 탐색하였다.
세미나를 만드느라 고생한 새린이형에게 감사의 말을 전한다.