설명 가능한 AI(XAI)에 대해 알아보세요: 더 스마트한 AI 의사 결정을 위한 해석 가능한 인사이트를 통해 신뢰를 구축하고, 책임성을 보장하며, 규정을 준수하세요.
설명 가능한 인공지능( XAI)은 인공지능 시스템에서 생성된 결정과 예측을 인간이 이해할 수 있도록 설계된 인공지능(AI) 내의 방법과 기술을 포괄합니다. AI 모델, 특히 컴퓨터 비전(CV)에 사용되는 딥러닝 신경망과 같은 복잡한 모델이 중요한 결정에 점점 더 많은 영향을 미치면서, 그 내부 메커니즘은 종종 불투명한'블랙박스'와 비슷해졌습니다. XAI는 이러한 프로세스를 조명하여 결과물이 도출되는 방식에 대한 인사이트를 제공함으로써 신뢰를 조성하고, 책임감을 부여하며, 효과적인 인간 감독을 촉진하기 위해 노력합니다.
XAI에 대한 수요는 다양한 분야의 고위험 의사 결정에 AI가 점점 더 많이 통합됨에 따라 발생합니다. 다음과 같은 AI 모델은 Ultralytics YOLO 와 같은 AI 모델은 놀라운 정확도를 달성할 수 있지만, 특정 결론에 도달하는 이유를 이해하는 것은 매우 중요합니다. 이러한 해석 가능성의 부족은 의료 분야의 AI나 금융 분야의 AI와 같은 분야에서 장벽이 될 수 있습니다. XAI를 도입하는 주요 동기는 다음과 같습니다:
XAI를 구현하면 사용자 신뢰도 향상, 디버깅 프로세스 간소화, 책임감 있는 AI 배포 촉진 등 상당한 이점을 얻을 수 있습니다. XAI 기술은 다양한 분야에서 활용되고 있습니다:
설명 가능성을 달성하기 위한 다양한 방법이 존재하며, 종종 접근 방식이 다릅니다(예: 개별 예측과 전체 모델 행동에 대한 설명). 몇 가지 일반적인 기법은 다음과 같습니다:
DARPA XAI 프로그램과 같은 연구 이니셔티브는 이러한 기술의 개발을 크게 진전시켰습니다.
XAI를 관련 용어와 구별하는 것이 중요합니다:
의미 있는 설명 가능성을 달성하는 것은 복잡할 수 있습니다.'비전 모델의 역사'에서 설명한 것처럼 모델 성능(정확도)과 해석 가능성 사이에는 종종 상충 관계가 있으며, 매우 복잡한 모델은 더 정확할 수 있지만 설명하기는 더 어려울 수 있습니다. 또한, 상세한 모델 로직을 노출하면 지적 재산권이나 적대적인 조작에 대한 우려가 제기될 수 있습니다. AI 파트너십과 같은 조직은 이러한 윤리적, 실용적 문제를 해결하기 위해 노력하고 있습니다.
Ultralytics 는 도구와 리소스를 통해 모델 동작에 대한 이해를 촉진합니다. 사용자가 다음과 같은 모델을 평가하고 해석하는 데 도움이 되는 Ultralytics HUB의 시각화 기능과 YOLO 성능 메트릭에 대한 설명과 같은 Ultralytics 문서의 자세한 가이드는 다음과 같습니다. Ultralytics YOLOv8.