설명 가능한 인공지능(XAI)이 복잡한 머신러닝 모델을 투명하게 만드는 방법을 알아보세요. SHAP 및 LIME과 같은 핵심 기법을 통해 Ultralytics 대한 신뢰를 구축하는 방법을 발견하세요.
설명 가능한 인공지능(XAI)은 인공지능(AI) 시스템의 출력을 인간 사용자가 이해할 수 있도록 설계된 포괄적인 프로세스, 도구 및 방법론을 의미합니다. 조직이 복잡한 기계 학습(ML ) 모델—특히 딥 러닝(DL) 영역에서—을 점점 더 많이 도입함에 따라, 이러한 시스템은 종종 "블랙박스"로 기능합니다. 블랙박스 모델은 매우 정확한 예측을 제공할 수 있지만, 그 내부 의사 결정 논리는 불투명합니다. 기계 학습(ML) 모델, 특히 딥 러닝(DL)영역에서 이러한 시스템은 종종 "블랙박스"처럼 작동합니다. 블랙박스 모델은 매우 정확한 예측을 제공할 수 있지만, 내부 의사 결정 논리는 불투명한 상태로 남아 있습니다. XAI는 이 과정을 밝히고 이해관계자가 특정 결정이 내려진 이유를 이해하도록 돕는 것을 목표로 합니다. 이는 신뢰 구축, 안전 보장, 규제 준수 충족에 중요한 역할을 합니다.
자동화된 의사 결정에 대한 투명성 요구가 산업 전반에 걸쳐 XAI(설명 가능한 인공지능) 도입을 촉진하고 있습니다. 신뢰는 핵심 요소입니다. 사용자는 예측 모델링의 추론 과정을 검증할 수 없다면 이를 신뢰하기 어렵습니다. 이는 오류가 심각한 결과를 초래할 수 있는 고위험 환경에서 특히 중요합니다.
신경망을 보다 투명하게 만드는 다양한 기법이 존재하며, 이는 모델에 무관한(모든 알고리즘에 적용 가능) 기법인지 모델에 특화된 기법인지에 따라 분류되는 경우가 많다.
설명 가능한 인공지능은 '무엇'만큼이나 '왜'가 중요한 분야에서 핵심적이다.
XAI를 AI 용어집의 유사 개념과 구분하는 것이 유용합니다:
컴퓨터 비전 설명 가능성의 핵심 단계는 모델의 예측을 이미지에 직접 시각화하는 것이다.
고급 XAI는 히트맵을 사용하지만, 바운딩 박스와 신뢰도 점수를 확인하면 모델이 감지한 내용을 즉시 파악할 수 있다. ultralytics 최첨단 모델을 포함한 패키지
YOLO26사용자는 탐지 결과를 쉽게 확인할 수 있습니다.
from ultralytics import YOLO
# Load a pre-trained YOLO26 model (Nano version)
model = YOLO("yolo26n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Visualize the results
# This displays the image with bounding boxes, labels, and confidence scores,
# acting as a basic visual explanation of the model's detection logic.
results[0].show()
이 간단한 시각화는 정상성 검사로 기능하며, 객체 탐지 작업 중 모델이 장면 내 관련 객체에 주의를 기울이고 있음을 확인하는 기본적인 설명 가능성 형태입니다. 데이터셋 관리 및 모델 훈련 시각화를 포함한 고급 워크플로우의 경우 사용자는 Ultralytics 활용할 수 있습니다. 연구자들은 종종 NIST XAI 원칙에 설명된 심층 분석을 위해 기반 특징 맵에 접근함으로써 이를 확장합니다.