[학회 후기]

산업공학회는 근 2년간의 석사생활뿐만 아니라 생애 최초의 참석이었다. 학회 등록을 위한 대기줄이 생각보다 길었고, 따라서 규모가 큰 학회라는 것을 알 수 있었다. 학회가 열린 카이스트 캠퍼스는 탁 트인 평지에 멋진 건물들이 듬성듬성 서 있고, 캠퍼스 한가운데 호수도 있어서 더욱 넓고 쾌적하게 느껴졌다. 구두 발표는 4월 ICIEA 이후 약 7개월만이고, 더군다나 석사논문경진대회라는 타이틀도 있어서 부담도 됐지만, 그만큼 기억에 남고 뜻깊은 학회였다.


[발표후기]

주제: 제철 공정의 용강 온도 예측을 위한 듀얼 어텐션 신경망 모델

사람들이 제철 공정이라는 주제를 접했을 때 처음 드는 생각이 '고리타분하고 거친 구시대적 유물이다' 일 것이라는 생각이 들었다. 그래서 발표 준비를 할 때, 그 런 선입견을 깨고 재밌고 친근하게 다가설 수 있도록 노력했다. 연구에 쓴 알고리즘이나 방법론들을 짧은 시간 안에 이해시키기엔 어려울 것이라 생각했고, 따라서 친근하게 다가가서 어떤 문제를 해결하고자 했고, 문제를 풀기 위해 어떻게 접근했으며, 최종적으로 문제를 잘 해결했다는 전반적인 흐름을 전달하고자 했다.
석사논문경진대회 자체도 처음이지만 발표 순서도 첫번째여서 다소 긴장되는 마음으로 발표에 임했다. 발표의 시작은 '여러분 철을 어떻게 만드는지 아시나요?' 로 시작했는데, 청중들이 관심을 보이는 것이 눈에 보여서 내심 다행이라는 마음으로 준비한 발표를 무사히 마무리했다. 중간중간 발표가 재밌게 다가갔는지 몇몇분들은 웃기도 하고 질문도 많이 해주셔서 감사한 마음도 들었다.


질문 1. 이 온도 예측 모델을 현장에 바로 적용한다면 어떻게 쓸 수 있나요?
현재 상태로는 온도만 예측해주기 때문에, 말 그대로 온도 예측기로 쓸 수 있는데, 예를 들어 어떤 쇳물의 목표 온도가 1650도일 때, 조업자가 여러가지 인자를 조정하면서 1650도가 나올 수 있도록 온도 예측기를 통해 최적의 인자를 찾는 데 쓸 수 있을 것 같습니다.


질문 2. 실험 결과를 보면 R square 기준으로 0.5 가 나오는데 이게 실제로 현장에서 쓸 수 있는 성능인가요?
기존에는 목표 온도 대비 최대 30도까지도 차이가 나고 있습니다. 그런데 이 모델을 적용해서 단 1도 라도 줄일 수 있으면, 연간 적지 않은 원가 절감을 할 수 있습니다. 따라서 R square 수치 자체보다는 현재 보다 개선이 된다는 것 자체만으로도 현장에서는 안 쓸 이유가 없습니다.


질문3. 이 모델이 예측한 온도가 맞다 틀리다를 현장에 어떻게 납득시킬 수 있나요?
앞서 말씀드린대로 조업자가 여러가지 인자를 조정하면 이 모델이 온도를 예측해줄텐데, 통상 어떤 A인자를 올렸을 때 온도가 높아지고 반대로 낮췄을 때는 온도가 내려가는데, 그런 것들이 온도 모델에서 잘 구현이 되면 충분히 납득을 할 것 같고, 실제로 온도 모델이 잘 반응하고 있습니다.

질문4. y 값이 지금 쇳물의 온도인데, 그 온도는 어떻게 얻는 값이고, 매번 있는 값인가요?
온도는 매 Charge가 끝나면 Probe라는 자재를 쇳물에 넣어서 측정하는 값입니다. 그래서 매번 존재하는 값입니다.

질문4-1. 근데 그 값이 정확하다고 할 수 있나요?
정확하다고 할 수 없지만 정확하다고 믿을 수밖에 없습니다. 왜냐하면 측정할 수 있는 방법이 그것밖에 없기 때문입니다. 사실 이 온도는 우리가 뜨거운 물에 손가락 넣어보고 아 뜨겁다 이런식으로 측정해볼 수가 없기 때문에 아까도 말씀드린 probe라는 자재로 측정하는데, 이 측정 원리가 열전대라고 하는 백금 금속이 쇳물에 들어가면 온도차 때문에 전류를 발생시키는데 그 전류를 계측기가 읽어서 추정하는 원리입니다. 당연히 진짜 온도가 1650도인지는 모르고 그정도 온도일 것이다라고 추정하는 것이고 당연히 오차가 있습니다. 하지만 저희는 그 온도를 믿어야 할 수밖에 없고, 그 온도에 대한 정확도는 자재를 공급하는 회사가 담당할 일입니다.



[청취후기]

주제 :  이상치 탐지 방법을 활용한 SMAC 황경에서의 다중 에이전트 버그 탐지

이 연구는 여러 캐릭터가 동시에 등장하는 게임에서의 버그를 탐지하기 위한 연구이다. 요새 게임들이 워낙 복잡하기 때문에 사람이 일일이 플레이하면서 버그를 잡아내기란 시간과 비용이 너무 많이 들기 때문에 이런 태스크가 꼭 필요하다는 생각이 들었다. 다른 모든 현상들도 마찬가지이겠지만, 게임은 특히 구현된 환경 내에서 유저의 선택이 결과를 만들어내는, 인과율에 따른 결과가 비교적 직관적인 환경이다. 그래서 이 연구에서는 선택에 따른 결과를 얻기 위해 State, Action, Next state 라는 강화학습에서 사용하는 인자들로 하여금 입력변수를 생성한다는 것이 굉장히 신선하고 기발한 아이디어라고 생각했다. 이상 탐지 자체는 정상 데이터로만 학습시킨 후 Anomaly detection 하는 방식과 비슷하게 탐지해내는데, 이런 통상적인 프레임워크에 강화학습의 일부를 떼어내서 결합한다는 것이 굉장히 기억에 남았다.