- 2022년 4월 9일 오전 5:02
- 조회수: 6647
REFERENCES
INFORMATION
- 2022년 4월 8일
- 오후 12시 ~
온라인 비디오 시청 (YouTube)

TOPIC
On-Line Video
OVERVIEW
청취자 후기

이번 세미나는 XAI를 주제로 진행되었다. XAI는 모델이 도출한 결과에 대해 주요한 근거를 표시해 주고, 어떤 근거를 기준으로 결과를 도출하게 되었는지 설명해 준다. 도메인 전문가가 아닌 경우 신뢰성을 갖기에 효과적이다. 인공지능 모델이 내린 결정을 사람이 이해하기 쉬운 경우 White box라고 하며, 이해하기 어렵고 설명력이 낮은 경우 Black Box 모델이라고 한다. 뉴럴 네트워크 모델의 경우 설명이 어려운 Black box 모델로 예시를 들 수 있다. XAI 중 SHAP 기법에 대해 소개 되었는데, SHAP 기법의 경우 변수 간 독립성을 기초로 제안 된 방법이다. Shapley Value를 활용하여 변수 별 기여도를 계산하고, 예측 결과에 대한 설명을 여러 종류의 그래프로 제공한다. 여기서 모델 자체적으로 제공하는 변수 주요도 그래프(ex. Xgboost)와 SHAP 변수 중요도 그래프가 비교 되었는데 동일한 데이터를 가지고 다른 변수 중요도 순위를 도출하는 결과를 볼 수 있었다. SHAP 기법이 모델 자체 제공 변수 중요도 보다 음의 영향도 등 변수의 더 많은 부분을 고려하고 있음을 알 수 있었다. 그 다음에는 타이어 분야에서 SHAP 기법이 적용되는 과정 및 평가를 볼 수 있었다. 목표 성능에 근접한 좋은 결과를 볼 수 있었다.
현업에서 기법이 사용되는 흐름을 처음부터 끝까지 알 수 있어서 이해도가 높아졌고, 청취자가 관심 있는 분야인 이상치 탐지에서도 설명 가능한 이상치 탐지가 주요 이슈 이기에 더 흥미롭게 세미나를 들을 수 있었다. XAI 주제에 걸맞게 발표자인 황석철 연구원님이 해당 분야를 잘 알지 못하는 청취자도 이해하기 너무 나도 쉽게 발표 자료 준비해 주셔서 유익한 시간이었다는 감사 말씀드리며 세미나 후기를 마친다.

이번 세미나는 Explainable AI(XAI)의 적용사례에 대한 주제로 진행되었다. 최근 인공지능이 인기가 많아지면서 인공지능에 대한 연구가 매우 활발하게 진행되고 있다. 이에 따라 인공지능 모델들이 매우 고도화되어 예측력은 매우 높아지고 있지만, 도출한 결과에 대하여 어떤 근거로 의사결정을 내렸는지에 대한 설명력은 저조해지고 있다. XAI는 이러한 최근 인공지능의 한계를 극복할 수 있는 방법론으로 도메인 전문가가 아니어도 해석할 수 있는 가능성을 제공한다.
이전 전통적인 기계학습 알고리즘(회귀분석, 의사결정나무 등)들은 화이트 박스 모델로, 어느 정도의 설명력을 지닌다. 예를들어 회귀분석은 각 Coefficient의 크기를 통해 Feature의 중요도를 파악할 수 있으며, Coefficient의 부호를 통해 Feature 값에 대한 방향성 또한 알 수 있다. 본 세미나는 이러한 화이트박스 모델보다는 Neural Net 모델과 같은 블랙박스 모델을 해석할 수 있는 방법에 맞추어 진행하였다. XAI에서도 여러 방법론들이 존재하는데, 그 중에서도 SHAP에 대해 세미나가 진행되었다. 이는 각 Feature들의 기여도를 환산하여 예측결과에 대한 설명을 제공하는 모델이다. Model Feature Importance와 비슷할 수 있지만, SHAP은 음의 영향도마저 고려하는 등 모든 값들을 고려하여 Model Feature Importance가 담지 못한 것들을 나타낼 수 있다고 소개하였다.
세미나 후반부에는 이러한 SHAP을 실제 타이어 산업에 적용하여 유의미한 인자를 도출한 사례를 보여주었다. 실제 현업에서는 Feature가 150개나 이르렀으며, 도메인 전문가라고 해도 이러한 많은 Feature에서 유의미한 변수의 순위를 책정하기란 쉽지 않다. 본 세미나에서는 SHAP을 통해 유의미한 변수를 효율적으로 산출할 수 있었으며, SHAP이 제공하는 설명력을 통해 반응변수 3가지를 성공적으로 목표성능까지 끌어올릴 수 있었다.
본 세미나를 통해 현업에서 실제로 SHAP을 적용하고 실제로 유의미한 결과를 도출한 것을 통해 SHAP이 현실에서도 유의미하게 해석될 수 있다는 것을 알 수 있었다. 특히 이를 통해 이론적으로만 머무는 것이 아닌 이처럼 현실과 밀접하게 연결되는 AI가 흥미롭게 느껴지는 세미나였다. 유익한 세미나를 준비해주신 황석철 연구원님께 감사드리며 이상으로 세미나 후기를 마친다.

이번 세미나는 XAI(eXplainable AI)를 주제로 진행되었다. XAI는 모델이 도출한 결과에 대해 어떤 근거로 의사 결정을 내렸는지를 설명하는 방법론이며 모델의 개선 또는 신뢰성 확보에 효과적이다. 본 세미나에서는 대표적인 XAI의 방법론 중 하나로 SHAP(Shapley Additive exPlanations)를 소개하였다. SHAP은 Feature간의 독립성을 기초로 제안 된 방법론이며 Shapley Value를 활용하여 각 Feature의 기여도를 계산하여 예측 결과에 대한 설명을 제공한다. 보스턴 주택 가격 데이터를 활용한 SHAP 예제를 통하여 어떻게 SHAP 결과를 해석 하는지 이해할 수 있었고 특히, Model Feature Importance와 SHAP Feature Importance 간의 차이를 설명한 내용이 인상 깊었다. 전자는 변수 간 상호 의존적인 관계일 경우 오차가 크게 발생하고 부정적인 영향도를 고려하지 않으며 Feature Importance를 계산 시 오류가 커질 경우 해당 값도 미포함한다고 한다. 결국 모델의 근거를 설명할 때 SHAP를 활용하는 것이 더욱 신뢰할 수 있을 것이다. 작년에 제품의 불량여부를 예측하는 과제를 진행했었을 때 이 알고리즘은 무엇으로 예측을 하는가? 라는 질문을 많이 받았었고 Model Feature Importance를 활용하여 근거를 제시하였었는데 변수 간 의존성이 큰 데이터여서 설득력 있는 결과가 나오지 않았던 것 같다는 생각이 들었다. White box라고 할 수 있는 Tree 계열 알고리즘을 사용했었음에도 불구하고 이런 어려움을 겪게 되는데 보다 더 복잡하고 고도화된 Neural Network를 사용하게 되면 Black box로서 알고리즘을 현장에 적용하기 위한 근거를 설명하기가 굉장히 어려울 것이라는 생각이 들어 다시 한번 XAI의 중요성에 대해 생각하게 되었다. 뿐만 아니라 타이어 제품 설계에 SHAP를 적용하는 예시를 통하여 중요 변수를 선정하고 설계에 반영하는 과정을 간접적으로 체험할 수 있어서 흥미로웠다. 앞으로 산업 현장에 Deep Learning을 적용하기 위해서는 XAI가 필수적이라 생각되어 관심 가는 주제였는데 이해하기 쉽게 발표 준비해주신 황석철 연구원님께 감사드리며 세미나 후기를 마친다.

이번 세미나는 XAI에 대한 소개와 실제에 적용된 사례에 대해 소개되었다. 본 세미나는 XAI의 개요, SHAP에 대한 설명, SHAP을 활용한 제품 설계 적용 사례 소개 순으로 진행되었다.
XAI는 설명력이 낮은 인공지능 모델의 설명을 제공한다. 일반적으로 선형 회귀와 같이 설명력이 높은 모델을 화이트 박스, 신경망과 같이 설명력이 낮은 모델을 블랙 박스라고 표현한다.
기존 랜덤 포레스트나 부스팅 모델에서 Feature Importance를 도출할 수 있는데 그것과 SHAP을 이용한 Feature Importance의 특징을 비교해주셔서 큰 도움이 되었다. 도메인에 대한 지식이 없는 사람들은 어떤 정보를 사용해야 할지 헷갈릴 수 밖에 없다. 기존 모델에서의 Feature Importance는 요인이 상호 의존적일 경우 오차가 발생하고 음의 영향도를 고려하지 않는다는 단점을 가지고 있기 때문에 SHAP을 이용한 방식이 더 신뢰가 있을 것이다.
다음으로 이러한 SHAP을 실제로 적용한 사례에 대해 소개되었다. 실제로 적용하는 방식은 다음과 같다. 먼저 예측 모델을 생성하고 최초 설계안으로 부터 SHAP 분석을 실시한다. SHAP 분석을 통해 중요 설명 변수 및 설계 방향을 도출 후 이를 반영하여 목표 성능을 만족하는지 확인한다. 이 방식을 타이어 설계에 적용하여 실제로 목표 성능을 만족하는 결과를 도출하였다.
본 세미나에서는 XAI에 대한 전반적인 개요와 같이 실제 적용 사례를 같이 보여주신 부분이 많이 인상깊었다. 모델링을 통해 결과를 도출해도 그에 대한 설명이 부족하면 도메인 지식이 부족한 사람한테는 전달이 잘 안될 수 밖에 없는데, 이러한 과정이 그런 경우에 큰 도움을 줄 수 있을 것이다. 이전에 XAI와 관련된 다른 세미나를 들었었는데 리마인드 할 수 있는 좋은 경험이었다. 이해하기 쉽게 잘 설명해주신 황석철 연구원님께 감사드리며 본 세미나 후기를 마친다.

딥러닝은 우수한 성능을 갖지만 어떠한 원리로 의사결정을 내렸는지 알 수 없어 블랙박스 모델로 불려진다. 이와 같은 단점을 보완하기 위해 explainable AI 연구가 활발하게 진행되고 있는데, 오늘은 그 중 대표적인 방법론 SHAP 알고리즘을 이해할 수 있었다. SHAP에 대한 정확한 메커니즘보다 SHAP 장점, 해석 방법, 활용 방안을 중점적으로 세미나에서 청취할 수 있었다. 개인적으로 활용 방안 쪽이 가장 흥미로운 부분이였다.
목표 품질의 제품을 얻기 위해서는 여러 가지 제품 설계도를 종합적으로 고려해야하는데, 이를 위해 딥러닝과 SHAP을 이용하였다. 이해한 바로는 다음과 같은 순서로 진행되었다.
1. 제품 설계도와 목표 품질 사이의 모델링을 딥러닝으로 실시하고,
2. 이에 관한 해석을 SHAP으로 진행한다.
어떠한 제품 설계가 품질에 얼마만큼 영향을 끼쳤는지 알 수 있기에 이를 활용하여 최적의 제품 설계도를 파악할 수 있게 된다. 기존 현업에서 사용되는 방법들 대비 빠르고 신뢰할 수 있어 좋은 연구 분야라고 생각하였다.

이번 세미나는 석철이형이 eXplainable AI(XAI)로 진행하였다. 인공지능 모델의 한계점 중 하나는 의사결정의 근거를 제시하기가 어렵다는 점이다. 이를 일컫어 블랙박스 모델이라고 하며, 반대로 설명이 용이한 모델은 화이트박스 모델이라고 한다. 블랙박스 모델에는 대표적으로 인공신경망이 있고, 화이트박스 모델에는 의사결정나무가 있다. 이 때 XAI는 블랙박스 모델의 설명력을 보완하기 위한 것으로 해석 가능한 결과를 만드는 것에 집중을 한다. XAI의 대표적인 방법론 중 하나는 Sharpley Additive exPlanations(SHAP)가 있다. 이는 Shapley Value와 독립변수 간의 독립성을 기초로 제안되었으며 발생한 Shapley Value는 변수의 기여도에 따라서 변동하기 때문에 예측 결과에 대한 설명을 제공한다.
SHAP가 현실 세계에서 활용되는 곳 중 하나는 제품 설계가 있다. 간단한 형상의 제품일지라도 매우 많은 설계인자(변수)가 존재한다. 이 때 좋은 설계를 위해서는 최종 결과물에 영향을 크게 미치는 설계인자를 찾고 해당 인자에 따른 결과물의 변동을 파악해야한다. 따라서 실제 타이어 공정 같은 경우에는 제품 테스트에서 타이어 형상 치수, 재료 물성값, 시험 조건 등의 인자를 투입하여 이에 따른 연비, 핸들링, 소음/진동 결과를 살펴본다. 이 때 XAI 기술을 적용한 인공지능 모델을 확보한다면 수 차례의 반복 테스트를 하지 않더라도 어떤 요인이 중요한지를 효율적으로 파악할 수 있다.
XAI는 인공지능 기술이 학문의 영역에만 남아있지 않고 실전 영역에 넘어갈 수 있도록 해주는 교두보 역할을 해준다는 느낌을 많이 받은 세미나였다. 좋은 세미나를 준비해주신 석철이형에게 감사의 말을 전한다.

이번 세미나는 XAI(설명가능한 인공지능)를 주제로 진행되었다. XAI는 인공지능 모델이 도출한 결과에 대해 어떤 근거로 의사 결정을 내렸는지 설명하는 방법이다. 인공지능 모델의 개선 혹은 도메인 전문가가 아닌 경우 신뢰성과 근거 확보에 효과적이라는 장점이 존재한다.
XAI는 보통 설명력이 낮은 인공지능 모델의 설명을 제공하는데, 설명력이란 인공지능 모델이 내린 결정 근거를 사람이 이해할 수 있는 정도를 의미한다. 예를 들어 선형회귀와 같은 경우 계수 같에 대한 이해를 통해 모델을 해석하는데 용이하여 설명력이 높다고 말한다. 반면 Neural Network와 같은 경우 인간이 모델을 설명하는데 한계가 존재하고 이런 모델은 설명력이 낮다고 말한다.
XAI 방법론 중 SHAP은 shapley value와 피처(feature)간 독립성을 기초로 제안된 방법론이다. Shapley value를 사용하여 각 피처의 기여도를 계산하는데, Shapley value는 게임이론에서 처음 등장하여 각 플레이어의 기여도에 따라 보상을 할당하는 기준을 의미한다.
이번 세미나에서는 타이어 데이터에 XAI를 적용하여 제품 설계를 적용하는 예시를 볼 수 있었다. 타이어와 제품 설계에 전무한 지식을 가지고 있는 나에게도 쉽게 받아드릴 수 있는 결과가 도출된 것을 알 수 있었다. 산업 현장과 뗄 수 없는 관계를 가지고 있는 분야에서는 특히 XAI에 대한 이해가 필수적이라 생각되는 부분이었다. 도메인 지식과 함께 이해하기 쉽게 발표 준비해주신 황석철 연구원님께 감사드리며 세미나 후기를 마친다.