- 2024년 11월 25일 오후 3:05
- 조회수: 151

2024년 11월 22일 ~ 23일 경주에서 열린 한국 데이터마이닝학회 추계학술대회에 참석했습니다. 연구실에 들어와서 첫번째로 학회에서 포스터 발표를 진행하게 되어 걱정과 기대가 반반 섞인 마음으로 참석했던 것 같습니다. 기존의 학회와 다르게 교수님들이 구두발표를, 학생들이 포스터 발표를 진행하며 학생들이 서로의 포스터를 평가하고 투표하는 시스템이 매우 신선했습니다. 또 그런 시스템 덕분에 포스터 발표에 크게 관심이 없었던 다른 학회와 달리 포스터 세션에 사람들이 많이 붐비고 많은 참여와 발표가 이루어 졌던 것 같습니다. 궁금한 내용에 자유롭게 질문할 수 있었고 또 많은 사람들이 포스터에 관심을 가져서 다양하게 의견을 나눌 수 있었던 뜻 깊은 시간이였습니다. 개인적으로 포스터 발표 최우수 논문상을 수상하게 되어서 매우 뜻 깊은 학회였습니다.
[포스터 발표 후기]
# 거대 언어 모델과 RLHF를 활용한 슈퍼마리오 게임 맵 생성 모델
저는 슈퍼마리오 게임을 언어모델과 RLHF를 통행 게임의 맵을 효과적으로 생성할 수 있는 모델을 주제로 포스터 발표를 진행했습니다. 포스터 발표를 진행하였을 때 많은 사람들이 해당 주제에 관심을 가져 주어서 놀랐습니다.
그 중에서도 처음으로 찾아와서 질문을 해주셨던 분이 기억에 남습니다. 해당 분야는 게임에서의 활용분야고 대부분의 사람들이 PCG라는 맵 생성 분야를 잘 알지 못할 것이라 예상했지만
평소 게임에 관심이 많고 비슷한 주제의 연구들에 대해 관심을 가지고 있는 분이 첫번쨰로 오셔서 다양한 질문과 다른 연구와 차별점이 있어서 좋은 점이 많은 것 같다는 이야기를 해주셨습니다.
질문 1. 원본 맵을 입력으로 하였을 때 출력 맵의 구조는 크게 변화하지 않는 것 같은데 이 부분에 문제가 없나요?
답변 1 - 원본 맵 대상으로 구성요소를 변환하여 다양한 난이도를 주고 다양성을 늘리는 것을 목표로 하였기 때문에 사람들이 만든 창의적인 맵을 대상으로 효과적으로 맵의 구성요소를 변환하여 연구 목적에 맞습니다. 또한 맵의 구성요소를 효과적으로 바꾸어서
사용자에게 다양한 경험을 할 수 있도록 하는 방향성을 가지고 있습니다.
질문 2. 게임을 플레이 할 때 실시간으로 맵을 변경하는 건가요?
답변 2- 게임을 플레이 할 때 실시간으로 맵을 변경하지는 않고 게임 맵을 생성하고 그것을 플레이 할 수 있도록 합니다. 생성시간을 고려하였을때 실시간으로 게임의 맵을 생성하는 방법도 충분히 가능하다고 생각하고 그 방향성으로 추가적으로 진행한다면
더 큰 메리트가 될 수 있을것 같습니다.
[세션 청취 후기]
# 투자온도: 공포탐욕지수 기반 투자 정보 서비스 투자온도: 공포탐욕지수 기반 투자 정보 서비스
평소 주식투자를 하며 관심을 많이 가지고 있는 분야여서 집중해서 청취했던거 같습니다. 투자를 진행할 때 사람들은 사실에만 집중하지 않고 공포와 탐욕으로 인해서 시장이 과열되고 급속도로 냉각 되는 경향이 있다고 합니다. 이런 상황에서 시장이 한번 과열되면 계속해서 오르는 경향이 크고 시장이 냉각되면 계속 하락되는 경향성을 가지고 있어 이 부분을 고려하여 투자를 하는 것이 좋다라고 합니다. 이런 이유 때문에 현재 시장이 과열되어 있는지 시장이 냉각되어 있는지에 대한 정보가 필요한데 이를 구체적인 지표로 제시하기는 어려움이 있었다고 합니다. 현재 미국에서는 CNN에서 투자 온도를 분석을 통해서 올려주는 서비스가 존재하지만 한국 주식시장을 기반으로 한 서비스는 존재하지 않아 K뱅크와 협업해서 투자온도를 측정하고 배포하는 서비스 개발을 진행하였다고 소개를 하였습니다. 회사와의 프로젝트 이기 때문에 보안상의 문제로 정확히 어떠한 변수와 어떠한 모델을 사용하여 개발을 진행하였는지 자세히 들을 수 없어 매우 아쉬웠지만 관심있는 분야에 대한 내용을 들을 수 있어 정말 재밌는 발표였습니다.
# Dynamic Transaction Fee Adjustment in Ethereum through Deep Reinforcement Learning
나의 개인 연구분야와 관심분야인 강화학습에 대한 내용이여서 정말 재밌게 청취하였습니다. 강화학습을 처음 공부할 때 강화학습의 활용범위에서 금융에서의 활용 분야도 존재해 기회가 된다면 꼭 해보고 싶다라는 생각을 하였는데 비슷한 주제의 발표를 들을 수 있어서 정말 집중해서 봤던거 같습니다. 암호화폐인 이더리움에서는 이더리움을 캐는 사람과 그것을 사는 사람이 나누어 져 있고 서로 그것을 거래하고 자신이 가장 이득을 볼 수 있는 방향으로 거래를 한다고 합니다. 그랬을 때 균형이 맞지 않아 가격이 비정상적으로 올라가는 경우와 내려가는 경우가 발생한다고 합니다. 그떄 그것을 막기 위해서 가중치를 설정해주게 되는데 기존 가중치 설정 방식에 문제가 있어 강화학습을 통해 가중치를 설정해보자라는 아이디어로 연구를 진행하셨습니다. 여기서 흥미로웠던 것은 대부분의 강화학습의 알고리즘은 시뮬레이션을 기반으로 하기 떄문에 해당하는 내용을 시뮬레이션 한다는 것은 어려운 일인데 해당 내용을 시뮬레이션으로 구현한 내용을 자세하게 공유 해주시고 최대한 실제 사람이 거래하는 것과 비슷한 분포를 맞추기 위해서 포아송 분포를 두 번 사용한 분포를 사용했다는 것에 흥미로웠습니다. 또 DDPG 알고리즘을 사용해 기존의 정책에 비해 우수한 성능을 나타내어 휼룡한 연구이고 실제로 적용하였을 때 매우 좋은 효과를 보일 수 있을 것 같다는 생각이 들었습니다. 강화학습을 공부하면서 강화학습이 활용되는 분야에 대한 연구는 많지 않아 학회를 갈 때 아쉬움이 많았는데 정말 재밌게 발표를 들었던 것 같습니다.