- 2024년 12월 9일 오후 10:41
- 조회수: 7816
INFORMATION
- 2024년 12월 13일
- 오전 12시 ~
- 온라인 비디오 시청 (YouTube)
TOPIC
On-Line Video
OVERVIEW
머신러닝은 표 형식(tabular) 데이터를 다루는 문제, 특히 부스팅 모델(LGBM, XGB 등)에서 높은 성과를 보였으나, 모델의 의사결정 과정을 명확히 이해하거나 설명하기 어려운 한계가 있다. 딥러닝은 이미지 데이터 등에서 머신러닝보다 우수한 성능을 보이지만, 비선형성과 복잡한 파라미터 구조로 인해 예측 결과를 해석하기 어려우며, 추가적인 해석 기법이 필요하다. 특히, 의료와 금융 분야에서는 성능보다 설명 가능성이 더 중요한 경우도 많아, 현업에서 모델 의사결정 과정에 대한 근거를 요구하고 있다. 이를 해결하기 위해 LIME, SHAP과 같은 설명 가능한 인공지능(Explainable Artificial Intelligence, XAI) 기법이 제시되었지만, 이 기법들은 예측 모델과 해석 모델을 분리하여 의사결정을 간접적으로 추론하는 데 그친다. 본 세미나에서는 설명가능한 머신러닝 모델인 Cyclic Boosting Machine (CBM)을 소개한다. CBM은 일반화 가법 모델(GAM) 구조를 기반으로 하며, 데이터의 패턴을 이해하기 쉽게 표현하며, 각 변수(feature)의 기여도를 명확히 드러낼 수 있도록 설계되었다. 이를 통해 CBM은 기존의 복잡한 부스팅 모델과 딥러닝 모델이 가진 설명의 어려움을 극복하며, 회귀 및 분류 문제에서 신뢰성과 설명 가능성을 동시에 제공한다.
[1] Linardatos, P., Papastefanopoulos, V., & Kotsiantis, S. (2020). Explainable ai: A review of machine learning interpretability methods. Entropy, 23(1), 18.
[2] Lou, Y., Caruana, R., Gehrke, J., & Hooker, G. (2013, August). Accurate intelligible models with pairwise interactions. In Proceedings of the 19th ACM SIGKDD international conference on Knowledge discovery and data mining (pp. 623-631).
[3] Nori, H., Jenkins, S., Koch, P., & Caruana, R. (2019). Interpretml: A unified framework for machine learning interpretability. arXiv preprint arXiv:1909.09223.
[4] Wick, F., Kerzel, U., & Feindt, M. (2019, December). Cyclic boosting-an explainable supervised machine learning algorithm. In 2019 18th IEEE International Conference On Machine Learning And Applications (ICMLA) (pp. 358-363).