학회/저널: Journal of Artificial Intelligence and Data Science (JAIDA)
발행일: 2021-08-12
DOI: 제공되지 않음
주요 연구 내용: 딥러닝 모델(ResNet18, GoogLeNet)을 이용한 원단 불량 분류와, 이 모델들에서 특징만 추출하고 분류는 SVM(Support Vector Machines)으로 수행하는 하이브리드 방식의 성능을 비교 분석함. 딥러닝의 단점인 긴 처리 시간을 개선하는 것을 목표로 함.
주요 결과 및 결론: 순수 ResNet18 모델이 가장 높은 분류 정확도(최대 87.5%)를 보였으나, ResNet18로 특징을 추출하고 SVM으로 분류하는 하이브리드 모델은 정확도 저하가 크지 않으면서도 분류 시간을 약 60배 단축시키는 결과를 보임.
기여점: 딥러닝의 높은 특징 추출 능력과 머신러닝 분류기의 속도 이점을 결합하여, 원단 불량 검출 시스템에서 시간 효율성과 정확성 간의 균형을 맞춘 실용적인 접근법을 제시함. 이를 통해 속도가 중요한 실제 생산 환경에 적용 가능한 지능형 시스템의 가능성을 보임.
제목: Dimensionality reduction using statistical analysis and model based methods: a comparison between elementary effect method and random forest regressor
저자: 정인범 (한양대학교 대학원)
학회/저널: 한양대학교 대학원 석사학위논문
발행일: 2018-02
DOI: (N/A, URI: 1804:null-200000432990)
주요 연구 내용: 본 연구는 차원축소 기법을 변수선택(Filter, Wrapper, Embedded)과 변수추출(PCA, Autoencoder)로 분류함. 이후 통계적 해석(Filter) 방법인 Elementary Effect(EE) 기법과 모델 기반(Embedded) 방법인 Random Forest Regressor(RFR)의 변수 중요도 계산 방식과 성능을 비교 분석함.
주요 결과 및 결론: 시뮬레이션 모델(데이터 생성 필요)의 경우, EE 기법(특히 Sampling for Uniformity)이 RFR보다 적은 해석 횟수로 높은 변수 선별 정확도를 보였음. 반면, 'Big data'와 같이 이미 데이터가 확보된 경우 RFR이 더 적합했음. 또한 RFR은 변수추출 기법인 Autoencoder보다 사용이 편리하고 우수한 성능을 보임.
기여점: 서로 다른 학문적 배경(통계적 GSA vs. 기계학습)에서 발전한 두 주요 차원축소 기법(EE, RFR)의 성능을 정량적으로 비교, 분석하였음. 데이터 상황(시뮬레이션 vs. 기존 데이터)에 따라 적절한 기법을 선택해야 함을 실증적으로 제시함.
주요 연구 내용: 본 논문은 확장 가능한 엔드투엔드 트리 부스팅 시스템인 XGBoost를 제안함. 희소 데이터를 효율적으로 처리하기 위한 새로운 희소성 인지 알고리즘(sparsity-aware algorithm)과 근사 트리 학습을 위한 가중치 분위 스케치(weighted quantile sketch)를 도입함. 또한, 캐시 접근 패턴, 데이터 압축, 샤딩(sharding)과 같은 시스템 최적화를 통해 확장성을 극대화함.
주요 결과 및 결론: XGBoost는 단일 머신에서 기존 솔루션보다 10배 이상 빠른 성능을 보이며, 분산 및 메모리 제한 환경에서도 수십억 개의 대용량 데이터를 훨씬 적은 리소스로 처리할 수 있음. 이러한 알고리즘과 시스템 최적화의 결합을 통해 실제 대규모 문제를 해결하는 강력한 솔루션 제공.
기여점: 고도로 확장 가능한 엔드투엔드 트리 부스팅 시스템을 설계 및 구축함. 병렬 트리 학습을 위한 새로운 희소성 인지 알고리즘과 효율적인 제안 계산을 위한 이론적으로 정당화된 가중치 분위 스케치를 제안함. 또한, 메모리 외부(out-of-core) 트리 학습을 위한 효과적인 캐시 인식 블록 구조를 도입하여 시스템 효율성을 높임.