[학회 후기]

2025년 7월 1일~4일, 4일이라는 기간 동안 열린 2025 IEA/AIE 학회에 참가하게 되었다. 첫 해외 학회 참가였기 때문에, 들뜬 마음보다는 긴장감이 컸던 학회였다. 그래도 같이 참여한 연구실 인원들이 근 기수이기도 하고, 친한 연구원들이라 긴장감을 조금이나마 낮출 수 있었던 것 같다. 우리는 학회 시작 하루 전 날인 6월 30일에 출국하였다. 도착하자마자 일본 특유의 분위기가 우리를 반겼고, 그 덕에 긴장감이 설렘으로 어느 정도 바뀌었던 것 같다. 학회에 참여하면서 중간 중간에 일본 음식들도 맛보고 거리 구경도 하며 재미있는 시간을 가졌다. 

IEA/AIE는 산업 공학에서도 유명한 학회로 알고 있었는데, 이는 세션들을 청취하며 한 번 더 체감할 수 있었다. Computer vision, large language model 등의 세션 뿐만 아니라 industrial and engineering applications, optimization등의 세션에서도 각 국의 연구원들이 좋은 발표들을 하여 유의미한 경험을 할 수 있었다. 또한 내 발표에 대한 질의응답을 진행하며 내 연구도 다시 돌아볼 수 있었고, 연구적으로 한 층 더 발전할 수 있었다. 학회에서 첫 영어 발표라 부족한 부분이 많았던 것 같지만, 이것도 좋은 경험이라 생각하고 다음에 이런 기회가 다시 찾아온다면 더 발전한 나를 보여주고 싶다는 생각을 하였다.


[발표 후기] - Uncertainty-based Instance-Dependent Noisy Label Datasets Generation

Noisy label은 크게 instance-dependent와 instance-independent로 구분할 수 있다. 이 중 instance-dependent는 단순 랜덤한 방식이 아닌, 각 데이터의 특징이 반영된 noisy label을 의미한다. 이러한 noisy label이 포함된 벤치마크 데이터셋은 다른 분야들의 벤치마크 데이터셋과 비교하면 적은 편이다. 뿐만 아니라, noise ratio가 고정되어 있어 사용자가 이를 직접 조절할 수 없고, 이로 인해 다양한 분석 실험을 하기는 어렵다. 나는 이러한 상황을 개선하고 label noise learning 분야에서 다양한 실험을 할 수 있도록, 일반적인 image classification 데이터셋을 instance-dependent noisy label 데이터셋으로 변환할 수 있는 방법론을 제안하였다. 우선적으로, 어떠한 label이 부여될지 애매함의 정도를 불확실성으로 정량화하였다. 불확실성이 큰 만큼 label을 부여할 때, 잘 못 부여할 수 있다고 판단했기 때문이였다. 비교 방법론에서는 모델의 예측 값을 활용할 때 여러 개의 모델을 독립적으로 학습하였지만, 나는 MC dropout을 활용하여 단일 모델로 같은 효과를 내었고, 이를 통해 불확실성도 같이 정량화할 수 있었다. 결과적으로 불확실성이 큰 상위 r%의 데이터를 선별하여, 각 확률적 모델들의 출력 값을 ensemble 하였고, 이를 통해 noisy label 데이터셋을 생성하였다.


질문 1. 제안 방법론이 비교 방법론들과 비교하여 왜 성능 향상을 이루었다고 생각하나요?

답변 1. 단순 모델 예측 값을 활용하는 비교 방법론들보다, 제안 방법론의 핵심인 불확실성이 유효했다고 생각합니다. 실제로 불확실성은 데이터의 특징을 잘 반영할 수 있어, 다양한 분야에서 모델 학습 및 추론에 활발하게 사용되고 있습니다.


질문 2. 사용한 데이터셋은 어떻게 구성되어 있나요?

답변 2. 저는 Cifar 10-H 이라는 데이터셋을 사용했습니다. 해당 데이터셋은 Cifar 10 데이터셋의 평가 데이터셋에 human annotator들이 직접 noisy label을 부여한 데이터셋입니다.


[청취 후기]

1. Guided by Entropy: Semi-supervised Domain Adaptation with Curriculum and Contrastive Learning

우리 연구실의 순혁이형이 발표한 주제였다. 해당 주제는 나의 연구와도 불확실성이라는 측면에서 겹치는 부분이 있어 사실상 제일 흥미로웠던 내용이였다. Label noise learning, out-of-distribution 문제에서도 불확실성을 shannon entropy를 통해 정의를 하는데, domain adaption에서도 비슷한 방식으로 정의하는 것을 알 수 있었다. 불확실성을 통해 보다 확실한 데이터부터 학습에 참여시키며 curriculum learning을 진행하는 것이 흥미로웠다. 이에 이어 unlabeled target data와 소량의 labeled source/target data를 활용하여 contrastive learning을 진행하는데, 설명을 들으며 느꼈던 점은 매우 논리적으로도 타당하며 짜임새 있는 연구를 했다는 생각을 했다. 


2. SkinPalNet: An Advanced Ensemble Model for Skin Cancer Diagnosis with Computer Vision Appraoch

해당 연구는 피부암 진단을 향상시키기 위한 목적으로 진행되었으며, InceptionNet, EfficientNet, ResNet 등의 CNN 기반 모델들을 앙상블하고, dropout, Batch Normalization 등의 기법들을 활용하여 성능 향상을 이루어냈다. 뿐만 아니라, 대표적인 XAI 기법인 Grad-CAM 방법들을 통해 결과 해석도 진행하였다. 방법론적인 contribution이 크게 있지는 않아 이 부분이 조금 의아하기도 했고 중동권의 영어라 알아 듣기가 다른 발표에 비해 어려웠던 점이 조금 아쉬웠다. 그래도 다양한 분석을 진행하였다는 부분이 어느 정도 작용한 것 같고 발표를 들으며 피부암 이미지 데이터셋도 처음으로 접할 수 있었다.