- 2024년 11월 24일 오후 8:43
- 조회수: 345

11월 22일-23일 경주에서 개최되었던 한국데이터마이닝 학회에 참여하였습니다. 총 이틀 동안 열린 학회에서는 약 30여 명의 교수님들의 구두 발표와 함께 130여 명의 학생들의 포스터 발표를 들을 수 있는 기회가 주어졌습니다.
특히나 지금까지 학생들이 본인의 연구를 발표해왔던 기존 학회 틀과는 다르게, 교수님들이 직접 연구를 소개해주시는 시간을 가졌다는 점이 매우 인상 깊었습니다. 훌륭한 연구들을 청취할 수 있다는 사실만으로도 좋은 경험이지만, 발표를 어떻게 해야 하는지, 그리고 연구에 대한 소개를 어떻게 하면 효율적일 지 등등 배울 점이 여러 모로 많았던 것 같습니다.
또한 개인적으로는 좌장을 맡을 수 있는 좋은 기회를 얻어, 22일은 'Real-World Applications of AI-1', 23일에는 'AI Theory and Methods' 세션을 각각 맡아 진행하였습니다. 말 그대로 발표에 빠져들만큼 흥미롭게 느껴졌던 여러 연구들이 소개되었기 때문에, 하마터면 시간 조율을 잊고 끝까지 들을 뻔 한 적도 있었습니다. 아래는 세션에서 진행된 모든 발표에 대한 후기를 짤막하게 작성한 것입니다.
[청취 후기]
Session 1. Real-World Applications of AI-1
(1) Anomaly Detection in FDC Trace Time-Series Data: Distance-based Approach vs. Foundation Model
- 포항공대 고영명 교수님께서 진행해주신 발표였고, 이 발표를 들으며 개인적으로는 시계열 데이터를 위한 foundation model이 있다는 사실도 처음 알게 되었습니다. 우리 연구실에서도 시계열 데이터를 자주 다루는 만큼, 관련해서 찾아보고 적극 활용해볼 예정입니다.
- 더불어, reconstruction-based anomaly detection task에서 발생하는 'overgeneralization' 문제에 대해서도 처음 들을 수 있었습니다. 이 문제가 매우 흥미로운데, 모델의 시계열 데이터에 대한 이해도가 너무 좋아지는 만큼, 학습 시 보지 못했던 이상 데이터도 복원을 너무 잘 하게 되어서 이상치 탐지에 어려움을 겪게 되는 문제를 의미합니다. 이를 해결하기 위해서, embedding vector를 기반으로 isolation forest 등의 기존 알고리즘을 추가 활용하여 제약을 거는 조건으로 overgeneralziation 문제를 일부 해결하는 연구에 대해서 제안 주셨던 발표였습니다. 새로운 문제 상황을 소개 받은 만큼 흥미롭게 청취할 수 있엇고, 이렇게 예상치 못하게 새로운 지식을 배워나갈 수 있는 점이 학회의 매력이 아닐까 싶습니다.
(2) Innovation Intelligence: Uncovering New Innovation Opportunities with Data Analysis
- 서울과학기술대학교 이학연 교수님께서 진행해주신 발표였습니다. 신기술을 개발하고 사업 영역을 확장하고자 할 때, 이 신기술을 어떤 데이터 분석을 통해서 발굴할 것이며, 그 결과를 어떻게 활용할 수 있을 지에 대해 소개해주셨습니다. 매우 현실적이고 실용적인 연구라고 생각했고, 기술의 쓰임새에 대해서 다시 한 번 고민해볼 수 있게끔 만든 연구였다고 생각합니다.
- 특히나 특허를 발명할 때의 관점에서 진행된 연구였는데, 여러 특허 데이터들을 수집하여 text embedding vector로 feature space를 그려보았을 때 'vacancy'-즉, 빈 공간이 있는 영역을 아직 개발되지 않은 특허의 영역으로 정의하신 점이 정말 참신했습니다.
- 나아가, vacancy를 단순 발굴하는 것을 넘어 이 vacancy 영역이 어떤 신기술이 될 수 있을지를 찾기 위해서 embedding vector를 다시 text로 generation 하는 기술을 이용하였고, 이를 통해 아직 개발되지 않은 기술이 무엇인지를 구체적으로 알아낼 수 있는 이정표까지 제안했다는 점에서 완성도가 높은 연구라는 생각이 들었습니다. 기존에 개발된 nlp 기술을 매우 참신하고 실용적인 아이디어와 결합한 연구였던 것 같습니다.
(3) 보험상품 문서 기반 질의 응답 생성
- 한양대학교 김미숙 교수님께서 진행해주신 발표였고, RAG 메커니즘을 최적화하기 위한 연구로 요약할 수 있겠습니다. 즉, 여러 종류의 query 데이터가 입력되었을 때, 해당 query에 최적화된 embedding 기술, retrival 기술, 문서 chunking 기술 등을 발굴해낼 수 있는 방법론을 제안주셨습니다.
- 이전에 유사한 메커니즘으로 수행되었던 프로젝트를 진행한 적이 있었는데, 그 때에는 임베딩 벡터를 생성하는 모델, retrival 기술도 각각 kobert와 bm25로 한정지어 버렸기에 결과 값이 적절하게 생성되지 못하는 문제를 겪었었습니다. 그 때 결과값을 최적화하기 위해서 더 이상의 어떤 노력을 할 수 있을지 고민했던 경험이 떠올라서 매우 집중해서 흥미롭게 청취할 수 있었습니다.
(4) Dynamic Transaction Fee Adjustment in Ethereum through Deep Reinforcement Learning
- 서울과학기술대학교 심재웅 교수님의 발표였습니다. 블록체인이나 강화학습에 대해서는 잘 몰랐기 때문에 배울 점이 많은 발표였던 것 같습니다. 블록체인을 통해 여러 가지 종류의 거래가 일어날 때, 기본 수수료 (base fee)가 환경 변화에 의해 크게 요동친다는 점을 고려하여서, 이를 안정화 시키기 위한 알고리즘을 개발하신 것으로 이해하였습니다.
- 개인적으로는 base fee의 안정화를 위해서 여러 알고리즘이 개발되었을 텐데, 기존의 base fee 산정방식이 너무 단순한듯 하여 이러한 점이 아직 개발되지 않은 영역인지가 궁금하였습니다. 질문을 드렸을 때, 기존 산정방식도 꽤나 최근에 정해진 것이고 아직도 발전해야 하는 점이 많다는 점을 지적해주셔서 이해에 도움이 많이 되었습니다. 블록체인의 개념에 대해서 더 잘 알았다면 좀 더 많은 질문을 드릴 수 있었을 텐데 조금 아쉬웠습니다.
Session 2. AI Theory and Methods
(1) Stable Neural Stochastic Differential Equations for Irregular Time Series Classification
- UNIST 김성일 교수님께서 진행해주신 발표였고, 실제 시계열 데이터의 불규칙한 샘플링 간격과 결측값으로 인하여 발생하는 현실적인 문제를 다룬 연구였습니다. 2024년 ICLR spotlight로 선정된 연구였고, irregular 시계열의 특성으로 인한 분포 변화에서 robustness 개선을 위해서 세 가지 종류의 확률 미분 방정식 (neural SDE)를 제안했다고 이해하였습니다.
- neural SDE로는 Langevin-type SDE, Linear Noise SDE, 그리고 Geometric SDE가 있는데, 이런 SDE의 robustness를 실험뿐 아니라 이론적으로도 증명해주셨습니다. 시간 부족으로 인해 자세한 증명은 듣지 못하였지만, publish된 논문이 있으니 잘 읽어봐야겠다고 다짐했습니다.
(2) Mixed-Effects Contextual Bandits
- UNIST 김지수 교수님께서 진행해주신 발표였고, 마치 수업을 듣는 기분이라 넋을 놓고 듣다가 발표시간 조율을 깜빡 잊을 뻔 했습니다. 강화학습에 대해서 좀 더 알았다면 깊은 이해를 위해서 더 많은 질문을 드렸을 것 같은데, 해당 부분이 좀 아쉬웠습니다 (공부를 많이 해야겠다는 다짐을 일깨워준 발표였음).
- 해당 연구는 기존의 bandit 알고리즘이 현실 세계의 많은 문제가 다차원 보상으로 구성되며, 이 보상들이 서로 상관관계를 가질 수 있다는 점을 간과한 점을 정확히 짚고, 보상 간의 상관관계를 모델링할 수 있도록 보상을 고정 효과, 랜덤 효과로 나누어 모델링한 방법론입니다. 이때 실험에서 사용된 다차원 보상들이 얼마나 상관관계를 가지고 있고, 상관관계가 약한 경우에도 성능이 유지되는지가 궁금하였는데, 교수님께서 해당 부분의 실험을 시간관계상 보여주시지는 못하였으나, 좋은 성능이 유지된다고 말씀해주셔서 이해에 도움이 많이 되었습니다.
(3) Fantastic Robustness Measures: The Secrets of Robustness Generalization
- 중앙대학교 김호기 교수님께서 진행해주신 발표였습니다. 저는 좌장이라서 맨 앞에 앉아 고개를 꺾어 발표 자료를 보아야 하는데, 목이 아프다는 생각을 잊게 만들어줄 정도로 집중해서 들었던 발표였던 것 같습니다. generalization이 제 연구분야인 만큼 흥미가 크기도 했지만, 직관적인 설명과 더불어 발표의 흐름이 유기적으로 연결되어서 이해가 더 쉬웠던 것 같습니다.
- 딥러닝 모델의 일반화 성능을 측정하기 위한 다양한 measures가 있지만, 해당 연구에서는 이러한 일명 'robustness measures'가 현실적으로 한계가 있음을 비판하고, 특히나 모델이 adverasally trained 되었을 때 (모델 예측 성능을 떨어뜨리는 adversarial nosie/perturbation을 추가하였을 때) 학습 성능과 테스트 성능 사이에 gap이 커짐을 지적하였습니다. domain adaptation을 연구하는 입장에서 모델이 학습 시 본 적 없는 새로운 분포의 test set에서 얼마나 강건한 성능을 낼 수 있을 지를 고민하고 그 척도를 개발하고자 하는데, 이전의 선행연구들이 가지는 한계가 무엇일지를 더 깊게 고민하고 새로운 measures를 개발할 수 있도록 노력해보아야 겠습니다.
(4) Daul Cone Gradient Descent for Training Physics-Informed Neural Networks
- UNIST 임동영 교수님께서 진행해주신 발표였고, Physics-Informed Nerual Networks (PINNs)에서 목적함수가 2개일 때, 해당 손실함수들을 어떻게 모두 잘 최적화 할 수 있을 지에 대한 동기를 가지고 제안된 알고리즘을 설명해주셨습니다.
- 현대의 복잡한 딥러닝 모델은 대부분 2개 이상의 multi-objective를 가지고 학습을 수행하게 되는데, 해당 알고리즘은 PINNs 문제 외에도 다른 multi-objective optimziation 문제에도 general 하게 적용될 수 있다는 점을 강조해주셔서 매우 유의미한 연구라는 생각이 들었습니다. 뿐만 아니라 손실함수 간의 성능 균형을 맞추는 것이 주 목적인 multi-task learning에도 적용 가능한 방법론이기에, gradient conflict 현상이 발생하는 여러 상황에서 실제로 적용해보아야겠다는 다짐을 했습니다.
- 다만, 각 손실의 중요도가 다른 경우에도 dual cone을 적용할 수 있을 지가 궁금하였었는데, 발표 시간이 초과되어 질문을 드리지 못한 점이 조금 아쉬웠습니다. 시간을 돌릴 수 있다면 개인적으로 교수님께 찾아가서 여쭤보고 싶습니다.