주요 연구 내용: 기계 학습(XGBoost), 비지도 클러스터링(Fuzzy C-Means, K-means), 설명가능 AI(XAI)를 통합하여 제조 공정의 결함을 예측하고 분석하는 통합 프레임워크를 제안함. 지도 학습 모델로 결함 발생 가능성이 높은 시나리오를 분류하고, 비지도 학습으로 생산 데이터를 잠재적 운영 프로파일로 군집화하여 각 접근법을 XAI로 해석함.
주요 결과 및 결론: XGBoost 모델은 95.37%의 높은 정확도로 결함을 예측했으며, SHAP, LIME 등의 XAI 기법은 'MaintenanceHours', 'DefectRate', 'QualityScore'를 핵심 영향 변수로 일관되게 식별함. K-means 클러스터링은 '고효율/고품질', '고위험/자원집약적', '균형/지속가능'의 세 가지 의미 있는 운영 프로파일을 성공적으로 분리했으나, Fuzzy C-Means는 명확한 군집 분리에 한계를 보임.
기여점: 지도 학습, 비지도 클러스터링, XAI를 제조 결함 분석을 위한 단일 프레임워크로 통합한 최초의 연구임. 예측 모델링과 구조적 데이터 분석 모두에 XAI를 적용하여, 제조 공정의 동적 관계에 대한 투명하고 데이터 기반의 이해를 가능하게 하는 이중 해석 가능성 접근법을 제시함.
주요 연구 내용: 본 연구는 LIME(Local Interpretable Model-agnostic Explanations)의 커널을 이용하여 AFA(Additive Feature Attribution)의 일반적인 분석식을 유도함. 커널에 대칭성 조건을 부과하여, 특정 커널로부터 AFA 값을 분석적으로 계산할 수 있는 일반적인 프레임워크를 제시함.
주요 결과 및 결론: 이 프레임워크를 통해 기존의 AFA 방법론인 SHAP, ES, FESP를 커널 기반으로 재해석하고, LS prenucleolus 개념과 일치하거나 LIME의 커널 속성과 부합하는 새로운 AFA 방법론 4가지를 제안함. 이를 통해 SHAP의 대안이 될 수 있는 설명가능 AI 방법론의 이론적 기반을 확장함.
기여점: LIME의 커널 관점에서 AFA 방법론들을 통합적으로 분석하고 생성할 수 있는 일반화된 분석식을 최초로 유도함. 이를 통해 SHAP, ES 등 기존 방법론들을 커널 기반으로 재정의하고, LIME의 철학에 더 부합하는 새로운 AFA 대안들을 제시하여 설명가능 AI 분야의 이론적 토대를 넓힘.
제목: Explainable AI for Material Property Prediction Based on Energy Cloud: A Shapley-Driven Approach
저자: Faiza Qayyum (Jeju National University), Murad Ali Khan (Jeju National University), Do-Hyeun Kim (Jeju National University), Hyunseok Ko (Korea Institute of Ceramic Engineering and Technology), Ga-Ae Ryu (Korea Institute of Ceramic Engineering and Technology)
제목: Explainable machine learning in materials science
저자: Xiaoting Zhong (Lawrence Livermore National Laboratory), Brian Gallagher (LLNL), Shusen Liu (LLNL), Bhavya Kailkhura (LLNL), Anna Hiszpanski (LLNL), T. Yong-Jin Han (LLNL)