[학회 후기]
2025년 8월 28~29일 동안 한국데이터마이닝학회 하계학술대회에 참가하였다. 이번에는 평창 알펜시아에서 열렸는데 평창역이 아닌 진부역에서 내려 이동하였다. 강원도 평창은 항상 먼 곳이라는 편견이 있었는데 KTX로 1시간 정도 밖에 걸리지 않아서 의외였다. 도착해서는 학회 준비를 도왔다. 사실 제일 기억에 남는건 기념품을 포장하는 일이었는데 산업공학도들 답게 바로 컨베이어 밸트 시스템을 모사하여 각자 역할을 맡아 매우 효율적으로 일을 마칠 수 있었다. 심지어 Bottleneck 구간은 인원을 더 투입하는 방식으로 해결하였다. 학회는 학생이 포스터 발표는 교수님과 외부 초청 인사분들이 진행하는 방식이었다. 개인적으로는 굉장히 마음에 든다. 내가 원하는 관심있는 발표는 자유롭게 돌아다니면서 설명을 듣고 질문할 수 있고 또 교수님들의 발표를 들으면서 많이 배울 수 있기 때문이다. 특히 작년부터는 LLM을 주제로 한 연구가 많이 보였다. 올해도 마찬가지였다. 다만 특이한 점이 있다면 인문.사회과학의 개념을 LLM 문제에 적용해서 해결하려고 한 점이다. 최근에 데이터 분석 경진대회에서도 경영학에 접목한 LLM 사용 방법을 레퍼런스로 제시하는 경우가 있었는데 이렇게 결이 다른 학문에도 영향력을 미친 기술이 있었을까 싶기도 하였다. 학회를 모두 마친 뒤에는 기차를 타기 전에 시간이 남아서 랩실 인원들과 함께 알펜시아에 있는 액티비티도 즐겼다. 대관령 코스터라는 레일에 달린 썰매를 탔는데 생각보다 속도감이 있어서 재밌었다. 특히 360도 회전하는 구간에서는 원심분리기에 들어가면 이런 기분이겠구나 느낄 수 있었다. 이번 학회도 많은 것을 배울 수 있었고 또 나름의 힐링을 즐길 수 있는 시간이어서 좋았다.

[발표 후기]
주제: 불확실성 기반의 온/오프라인 데이터 동적배치 구성을 통한 효율적인 심층강화학습 방법론
심층강화학습에서는 환경과의 상호작용으로 얻을 수 있는 온라인 데이터뿐만 아니라 기존에 다른 에이전트가 수집해준 오프라인 데이터를 활용하여 보다 효율적으로 학습을 수행하는 연구가 활발히 진행되고 있다. 최근까지의 연구는 이 오프라인과 온라인 데이터를 일대일 비율로 배치를 구성하여 에이전트를 학습시키는 구조였다. 본 연구에서는 온/오프라인 데이터에 대한 예측 불확실성을 기반으로 배치 비율을 동적으로 구성하여 학습할 정보가 더 많은 데이터가 더 큰 비율을 차지하는 방식으로 효율적인 강화학습을 수행하고자 한다. 이를 위해서 정방향 역학 모델링을 앙상블로 구성하였으며 온/오프라인 데이터 각각에서 예측 불확실성을 정량화 할 수 있도록 준지도학습을 수행하였다. 해당 방법론을 통해서 기존보다 효과적으로 강화학습 에이전트를 학습하고 더 높은 성능을 달성함을 보여주고자 한다.

#1
질문: 온/오프라인의 정보량을 어떻게 비교하는지 궁금하다.
답변: 앙상블 구조에서 입력된 데이터의 예측 값을 출력하고 동 데이터에 대한 서로의 출력 값의 분산을 구한다. 분산이 클수록 학습이 안 된 데이터니 학습할 정보량이 많은 것이고 반대의 경우 적은 것이다.

#2
질문: 오라클 모델보다 성능이 훨씬 더 뛰어난 경우가 있는 것 같은데 어떻게 가능한지 궁금하다.
답변: 오라클 모델에는 사실 탐험 보너스가 부여되지 않아서 충분히 가능한 경우이다. 이는 참고한 논문의 세팅을 그대로 따라서 진행했다.


[청취 후기]
1. Moral Alignment in Large Language Models : Effects of Linguistic Framing and Domain Personas (장선규, 고려대학교)
본 연구는 LLM이 언어와 문화 맥락이 달라짐에 따라 도덕적, 경제적 의사결정에 어떤 영향을 미치는지 분석하였다. 이 연구는 행동경제학 연구에서 출발을 하는데 WEIRD(Western, Educated, Industrialized, Rich, Democratic)로 대표되는 인구통계학적 특징에 편향이 되어있어서 언어가 도덕적, 경제적 추론에 미치는 영향을 충분히 다루지 못한 점을 지적하였다. 이러한 점은 한국어, 영어 프롬프트를 LLM에 적용하였을 때도 드러나는 것을 실험을 통해 확인하였다고 한다. 따라서 제안한 도메인 페르소나를 주입하였을 때에는 언어 간의 격차가 감소하는 것을 확인하였다고 한다. 개인적으로 느낀 것은 '언어'를 잘 하는 모델이 나온 이후 학제 간 융합 연구가 보다 활발해지고 있다는 점이다. 해당 연구 뿐만 아니라 이전에도 악마의 변호인 개념을 도입하거나 이번 학회에서는 해겔의 변증법을 도입해보는 등 기존 인문사회학 관점에서 바라본 문제 상황과 그에 대한 해결 방법을 LLM에 도입했을 때 마찬가지로 해결되는 연구 결과가 자주 보이고 있다. 또한 반대로 사회과학에서는 LLM의 시뮬레이션 역량을 사회과학 실험에 활용해보려는 시도가 활발하게 진행되고 있다. 공학기술이 이렇게 모든 학문에 걸쳐서 영향력을 행사한 적이 있을까 싶기도하고 정말 기술 격변의 시대에 살고 있다는 느낌을 받았다.


2. 서지정보 기반 그래프 검색 증강 생성을 통한 문헌분석 프레임워크 (김도윤, 서울대학교)
본 연구는 Graph Retrieval Augmented Generation (RAG) 기법을 활용한 새로운 문헌 분석 프레임워크를 제안하며 전기차 배터리 전극 제조 공정 도메인에 적용한 실험 결과를 소개하였다. 기존에 내가 알고 있던 RAG에서는 정보 검색을 할 때 BERT 인코더의 임베딩을 기반으로 질문과 정보 간의 코사인 유사도를 구하는 방식으로 진행하였다. 하지만 GraphRAG에서는 정보 검색을 BERT 대신에 지식 그래프를 구축하여 질문과 관련된 서브 그래프를 추출하는 방식으로 진행된다. 이 때 지식 그래프 자체가 논문 간의 인용관계나 유사관계, 논문과 저자의 관계 등 다양한 관점에서 연관성을 분석한 결과로 구축되기 때문에 BERT 인코더의 임베딩을 저장하는 방식보다 더 정보 간의 연관성을 잘 파악할 수 있겠다는 생각이 들었다. 왜냐하면 BERT 인코더 기반의 방식은 사실상 질문이 중심이 되어서 정보 간의 연관성이 간접적으로 학습되는 반면 지식 그래프는 직접적으로 정보 간의 연관성을 고려하기 때문이다. 또한 검색해보니 최근에 GraphRAG가 꽤 연구되고 있는 것 같아서 해당 분야에 대한 흥미를 가질 수 있었다.