#학회 후기

2024년 11월 22일 ~23일 경주 화백컨벤션센터에서 개최된 한국 데이터 마이닝학회 추계학술대회에 참가했다. 2일 동악 약 30여명의 교수님들의 구두 발표와 130여 명의 포스터 발표가 진행되었다. 발표 청취를 통해 다양한 분야의 연구를 접해볼 수 있었으며, 현실문제에 적용되고 있는 사례들을 볼 수 있어서 유익한 시간이었다. 또한, 이번 학회에서 첫 포스터 발표를 진행했기에 기억이 남는다. 포스터 발표는 구두 발표보다 많은 연구원들과 가깝게 소통할 수 있는 좋은 기회였다. 더욱 다양한 질의응답을 진행할 수 있었고, 이를 통해서 진행하고 있는 연구에 대해서 다양한 방향으로 생각해 볼 수 있는 기회가 되었다고 생각한다. 마지막으로, 이번 학회는 연구실에서 주최하고, 전 인원이 참석한 학회였기에 더욱 의미있었다. 

# 포스터 발표 후기

주제: 모델 가중치 평균화를 활용한 설비 고장 진단의 도메인 일반화
본 연구는 설비 시스템에서 수집되는 센서 신호데이터를 활용하여 건정성 상태를 진단하는 고장 진단 분야에 관한 것이다. 설비 시스템 데이터의 분포 차이로 인하여 새로운 설비 및 환경에 대한 예측 성능 하락 문제를 해결하기 위해서 도메인 일반화 방법론을 적용하는 연구이다. 이때, 기존 연구와는 다르게 최적의 모델을 잘 선택하는 방식을 통해서 일반화 성능을 향상시키고자 하였다. Flat Minimum을 찾음으로써, 데이터 분포차이에 강건한 모델을 선택하고자 하였다. 이를 위해, 모델 가중치 평균화 기법을 적용하고자 하였다.

이번 학회에서 처음으로 포스터 발표를 경험하면서, 굉장히 매력을 느꼈자. 학회에서 구두발표를 진행하게 되면, 많은 연구원들과 소통하는 시간을 갖는 것은 어렵다고 생각한다. 제한된 시간안에 발표와 질의응답을 모두 진행해야 했기 때문이다. 하지만, 포스터 발표는 조금 더 자유롭게 연구에 대해서 질의응답 할 수 있었고, 더욱 여러 연구원들과 가까이에서 소통할 수 있었다. 직접 연구에 대해서 반복적으로 설명하면서 다시금 연구에 대한 흐름을 정립할 수 있었고, 다양한 의견을 통해서 보완해야 할 점도 인지할 수 있었다. 이번 포스터 발표는 굉장히 유익한 시간이었다.

질문 1: Flat Minimum을 찾음으로써, 강건한 모델을 선택하는 컨셉은 매우 흥미로웠다. 하지만, 모델 가중치 평균화 기법을 사용하면 실제로 Flat Minimum을 갖는지 확인해 보았나요?
답변 1: 현재는 실험적인 성능의 향상만을 확인해 보았고, 실제로 시각화하여 확인해보지는 않았습니다. 다만, 기존 연구들의 사례를 확인해보면 Flat Minimum으로 수렴하는것을 알 수 있고, 실험적 수식적으로 입증되어 있음을 확인하였습니다. (추후 방법론 적용을 통해서 Flat Minimum을 찾는 것을 시각적으로 보여주는 것은 굉장히 좋은 방법이라고 생각했다. 따라서, 제안 방법론 실험결과에 Flat Minimum 시각화를 포함하고자 한다.)

질문 2: 모델 학습 할 때, 학습 및 검증 데이터 구성은 어떻게 진행했나요?
답변 2: 저는 Test domain을 제외한 모든 데이터에서 80%를 학습, 20%를 검증에 활용하였습니다. 도메인 일반화 연구에서 하나의 domain 전체를 검증으로 활용하고, 남은 데이터를 통해서 학습을 진행하는 경우도 다수 존재합니다. 하지만, 본 연구에서는 모델 선택에 검증 데이터를 활용하기 때문에, 검증 데이터에도 편향될 가능성이 있어 해당 방법은 제외하였습니다.

#청취 후기

1. 설비 데이터를 활용한 이상감지 및 보전관리 - 임광영 그룹장 (삼성전자)
실제 제조 산업에서 설비 데이터를 활용해서 진행하는 이상감지 및 보전관리 대해서 설명해주셨다. 또한 실제 현장에서 데이터 사이언티스트가 갖춰야할 자세에 대해서도 가이드를 주셨다. 복합적 고장진단을 위해서는 데이터 기반 방법들이 필수적이지만, 아직 양질의 고장 데이터 부족, 센서 추가의 어려움, 설비 동작에 대한 공학적 이해 부족 등의 문제가 있음을 알 수 있었다. 
해당 발표에서 가장 주의 깊게 들은 부분은 제조 산업에서 데이터 분석가가 갖춰야 할 자세였다. 현업에서는 '문제를 어떻게 정의할까?'라는 점이 가장 중요하다는 말이 기억에 남는다. 이는 어떤 문제를 정의하는 것이 분석을 통해 이윤 창출로 이어지는가에 대해서 고민하고 해결하는 자세가 중요하다는 의미였다. 앞으로 산업계로 진출하면서, 이 점을 꼭 유의해야겠다고 생각했다.

2. Dual Cone Gradient Descent for Training Physics-Informed Neural Networks - 임동영 교수님 (UNIST 산업공학과)
기존의 Gradient Descent 방법론들은 목적함수가 2개일 때, 두가지 목적함수 모두에 대한 최적화가 어렵기 때문에 진행한 연구였다. 실제로 2가지 목적함수의 합을 통해서 학습을 진행하면, 전체적으로는 감소하는 양상을 보일지라도, 하나의 loss만 감소하고 남은 loss는 증가하는 문제가 있다고 한다. 따라서 두 손실함수의 균형을 맞추는 것이 중요한 문제상황에서 적용할 수 있는 Dual Cone Gradient Descent 제안하는 연구를 소개해주셨다. 추후 두 개의 목적함수를 갖는 Multi task 문제를 해결할 때 활용해보면 좋을 것 같다고 생각했다.