[학회 후기] 

올해 한국데이터마이닝학회 추계학술대회는 경주에서 개최되었다.  연구실 인원 거의 전부가 참석하였으며, 포스터 발표도 해보았다. 이번에는 학생들은 모두 포스터, 교수님들이 구두 발표를 하는 방식으로 개최되었는데, 나름 재밌었다.


[발표 후기]


주제 : Improving Preference-based Reinforcement Learning by Policy-based Query Sampling Guidance and Mitigating Reward Overestimation

포스터 발표는 처음 해봤다. 정해진 시간에 발표하는 구두 발표와 달리 포스터 세션은 시시각각 내 연구에 대한 설명을 요청하는 사람들마다 설명을 해야하기 때문에 많은 체력 및 목청이 요구되었다. 특히 구두 발표는 처음 시작할 때 청중이 있지만, 포스터는 처음에 사람 없이 서있는 시간이 상당히 어색했다. 


-질문 1 : Primacy Bias가 문제라면 Reset 대신에 새로 들어온 데이터만 추가 학습하면 되지 않나요?

-답변 1 : 그렇게 할 경우, Continual Learning에서 발생하는 Catastrophic Forgetting 문제가 발생할 것이라고 생각합니다. 데이터 100개를 동시에 1회 학습하는 것과, 데이터 100개를 10개씩 순차적으로 학습하는 상황은 다른 문제 상황이니까요


[청취 후기]


이번 학회는 교수님들의 구두 발표가 메인이었는데, 특히 젊은 교수님들이 최근 탑 컨퍼런스에서 발표하신 연구들이 재밌었다.


Oral

[Fantastic Robustness Measures: The Secrets of Robust Generalization (중앙대학교 산업보안학과- 김호기 교수)]

2023 NIPS에 발표한 논문에 대해 소개하였으며, Adversarial Example에서 시작하여 Robsutness란 무엇인지, 그리고 이러한 Robustness에 대해 평가하기 위한 Metric들은 무엇인지, 이러한 Metric들은 진짜로 신빙성이 있는지 살펴보는 내용이었다. 결과적으로는 어떠한 평가지표도 모든 벤치마크에 대해 강건하게 작동하지 않았으며, 우리가 어떠한 모델의 강건성을 나타낼때는 협소한 벤치마크에서만 실험하지 말고, 다방면에서 실험을 해야한다는 것이었다.  모티베이션부터 발표 흐름이 굉장히 직관적이었으며 발표를 굉장히 잘하신다고 생각이 들었다.


Poster

[개인화된 추천을 위한 멀티 에이전트 기반 사용자 프로필 생성 (한양대학교- 노태형)]

대규모 언어 모델을 사용하여 사용자 프로필 제작을 개선하는 방법론인 MAPLE을 제안하였다. 동일한 LLM에 서로 다른 특성인 preference, personality 등에 대한 프롬프트를 입력하여 서로 다른 특징을 추출하도록 한다음 사용자 프로필을 만들고, 최종적으로는 이를 기반으로 사용자의 행동 예측을 하는 것이 목표인 연구였다.