- 2019년 6월 28일 오후 5:29
- 조회수: 688
이민재
[Summary]
인간 중심의 AI를 슬로건으로 내세운 컨퍼런스였으며, SK와 그 SK 협력사들이 어떤 방향으로 연구하고 있는지 살펴볼
수 있는 시간이었다. NLP, Meta Learning 등 넓은 분야에서 SOTA 알고리즘(e.g BERT, meta-learning, few-shot
learning)을 곧바로 상용화했다는 발표와 부스들을 보고 들으면서 역시 우리나라 ICT 분야의
선두주자 라는 생각이 절로 들었다. 아는 만큼 보인다는데 사실 많은 부분 SOTA 기술들을 다루고 있어서 이해를 그 자리에서 하고 질문을 하기에는 어려움이 있었으나, 연구실에만 있을 때와는 또 다른 경험을 얻을 수 있어서 의미 있는 시간이었다.
[AM Session]
발표제목 : What can AI do for Humanity? / Smart
Interfaces for Human-Centered AI
발표자 : Tom Gruber(Humanistic.AI) / James
Landay(Stanford University)
오전 세션으로 진행된 위 두 발표로 이번 X.AI 컨퍼런스의 슬로건으로
내세운 '인간 중심의 AI'이 무엇인지 감을 잡을 수 있었으나
내용은 다소 형이상학적이었다. Tom Gruber씨는 알고리즘의 퍼포먼스만 강조하는 현존 AI의 objective function에 ‘+Maximize Human Benefit’ 을 추가해야 한다고 역설하였고, 이는
기존 과학계에서 항상 강조되던 연구 윤리성을 재조명하려는 것으로 보였다. 예시로는 장애인 및 노인처럼
소외될 수 있는 사회적 계층을 위한 보조적인 AI를 많이 들었는데, 새로운
아이디어는 아니었다고 생각하며 무엇보다 ‘Human-Benefit’을 정량적으로 어떻게 다루어야 하는가에
대한 설명은 정작 없어서 빛 좋은 개살구와 같았다. 그래도 다음 발표자인 James Landay씨는 AI Service를 이용하는 End Device User가 바람직한 행동을 할 수 있도록 ‘유도’하는 AI를 만들어야 한다고 강조하였다. 오히려 대다수의 사용자를 타겟팅 한다는 측면에서 전 발표보다 현실성이 있어 보였고, 나아가 실제로 여러 심리학자들과 협업하였다는 concrete한 근거를
제시하였다. 발표자 본인의 연구실에서 교육용 AI와 생활밀착성
AI를 만든 예시가 비록 prototype인 crude한 작품이었지만, 충분히 Human
Centered AI의 실루엣을 보여주었다. 비록 많은 이들이 꿈꾸는 Human-Centered AI는 수십년 뒤의 이야기이겠지만, 오전에
향후 AI의 방향에 대해 좋은 의견을 나누어 주셨다는 점이 감사했다.
[PM Session]
발표제목 : Frontiers of Metric-based Few-shot
Learning / Meta AI Research and System Development
발표자 : Jake Snell(Univ. of Toronto) /
Dongyeon Cho(SK telecom)
지금껏 대부분의 신경망 모델들은 무조건 대용량 데이터가 있어야만 한다는 생각이었는데, 적은 량의 training data로도 일부 어떤 도메인(e.g computer vision에서 분류문제)에서는 사용할 수 있다는 방법론(few shot learning)이 있다는 것이 가히 파격적인 컨셉이었다. 일반적으로 지도 학습에 있어서 학습데이터가 적으면 모델의 일반화를 신뢰할 수 없으며, 나아가 각 클래스별 데이터가 적은데 거기에다 추가적인 클래스를 더하는 것은 어려운 일이다. Few-shot Learning에는 크게 두 가지 방법론이 있다. 첫 번째로 Data-level approach이다. 지도학습에 필요한 label된 데이터가 없다면, label이 없는 데이터라도 가져와서 semi-supervised learning을 하는 방법이 있고, 아예 비슷한 데이터를 GAN, VAE 같은 생성모델로 부족한 데이터를 충당하는 방법이다. 두 번째 방법론은 Parameter-level approach이다. 학습 데이터가 부족한 상태에서 학습될 모델의 parameter space가 너무 크면 해당 학습 데이터에만 맞도록 overfitting 되는 것을 방지하기 위해 사용하는 정규화 기법들을 few-shot learning에 같은 맥락으로 사용할 수 있다. 하지만 이 또한 Gradient Descent를 쓰기 때문에 한계가 명확한 해결법이다. 따라서, 요즘에는 아예 parameter space를 어떻게 하면 Gradient Descent를 할 때 가장 효과적으로 진행할 수 있는지에 대한 meta-learning 기법이 연구되고 있다. 쉽게 말하자면 학생을 잘 가르칠 수 있도록 교사(알고리즘)를 잘 교육시키는 셈이다. 실제로 SK에서는 오픈소스화가 된 hyperparameter optimization 인 SHAC을 적용시킨 meta-learning API를 상용화하여 사용하고 있다고 한다. 기존에 단순하게 Grid-Search 했었는데, SHAC library를 향후 프로젝트에 적용하면 작업 효율을 크게 높일 수 있을 것이다.