- 2019년 10월 31일 오후 10:07
- 조회수: 521
강현구
1. 미국 시애틀에서 열린 2019 INFORMS Annual Meeting에 참석 및 발표를 하게 되었다. 어릴적 잠시 살았던 추억이 있는 도시라 나에겐 여태 다녀온 다른 학회보다 특별한 의미가 있었다. 수도권에서 나고 자란 터라 딱히 고향이라 칭할 곳이 없는 나에게 유년기의 일부를 보냈던 시애틀은 마음의 고향 같은 곳이다. 시애틀 시내에는 구글, 페이스북, 아마존, MS 등 많은 IT 기업들이 들어서면서 마지막으로 이 곳을 방문했을 때의 모습과는 사뭇 달랐다. 물기를 한움쿰 머금고 언제든 비가 내려도 이상하지 않은 우중충한 날씨는 그대로라서 참 좋았다. 학회를 모두 마치고 좋은 기회를 얻어 아마존 본사를 방문하게 되었다. 아마존은 산업공학을 전공한 사람이라면 누구나 꿈꾸는 직장이라고 한다. 꼭 시애틀로 돌아오고 싶다는 생각이 강하게 들었다.
2. 이번 INFORMS에서 나는
주로
Interface Between Optimization and Machine Learning을 연구하는
MIT Operations Research Center의
Bertsimas 교수
연구실의
발표들을
찾아들었다. 이
연구실에서
추구하는
연구의
방향은
크게
두
가지인
것
같다. 첫
번째는
정수계획법을
활용하여
suboptimal한
기존의
기계학습
모델을
개선하는
연구
흐름이
있다.
Greedy한
해공간
탐색이
단점인Decision
Tree를
개선한
Optimal Tree, 이를
앙상블로
확장한
Optimal Forest가
대표적인
연구성과다. 두번째는
Traveling Salesman Problem, Vehicle Routing Problem, Facility location Problem,
Inventory Management 등
전통적인
산업공학
문제를
풀기
위해
기계학습
기법을
동원하는
연구
흐름이다.
Graph Convolution과
강화학습을
이용하여
TSP나
VRP를
풀어내는
연구는
NIPS와
ICML에서도
자주
등장하곤
하는데, 역시나
산업공학자들이
이를
놓치지
않고
확장
연구를
여럿
시도하고
있는
것
같다. 이번
학회에서
처음
접한
내용
중
가장
인상
깊었던
발표논문
‘Voice of Optimization’은
최적화
분야에서
굉장히
중요하게
여겨지는
Sensitivity Analysis에
Optimal Tree를
활용한다. 최적화
문제의
파라미터를
입력으로, 최적화
solver로
얻은
최적
해를
출력으로
하는
데이터로
Optimal Tree를
학습하여
도출한
최적
해에
대한
해석력을
부여한다. 한
번도
생각해보지
못한
접근
방식이라
굉장히
신선했다.
3. Interface Between Optimization and Machine Learning 분야에 대한 호기심과 확신이 커졌다. 작년 이 맘때쯤 Yoshua Bengio 교수가 쓴 논문 ‘Machine Learning for Combinatorial Optimization: a Methodological Tour d’Horizon’ 을 읽으면서 몇년동안 접어두었던 이 분야에 대한 관심이 다시 싹트기 시작했는데, 산업공학 전공자로서 경쟁적 우위를 점할 수 있는 몇 안되는 분야가 아닐까라는 생각이 든다. 내가 좋아하는 것과 내가 남들보다 잘할 수 있는 것 사이에서 줄타기는 항상 어렵다. 박사과정 3년차를 마무리하고 있는 현 시점에서 남은 학교 생활동안 내가 어떤 연구를 하여 어떤 진로를 택해야 할지 스스로 많은 질문을 던져보았다.
4. 서구 문화권의 교육을 받은 사람들의 발표는 다르다. 언어적 장벽이 물론 존재하겠지만, 본인의 생각을 조리있게 정리하여 표현하는 방법을 어릴적부터 익힌 덕인지 눈치를 보지 않으며 표현에 자신감이 넘친다. 실력까지 뒷받침해준다면 요즘 시대에 이는 정말 큰 무기가 된다. 일주일이라는 짧은 시간동안 개구리가 우물 밖으로 나와 넓은 세상을 조금이나마 느끼고 돌아왔다. 이 마음가짐을 잃지 않고 더 큰 무대로 나아가기 위해 나에게 부족한 것이 무엇이고 이를 채우기 위해서 뭘해야 할지 끊임없는 고민이 필요할 것 같다.