녹색 확인
링크가 클립보드에 복사됨

설명 가능한 AI(XAI)에 대해 알아야 할 모든 것

설명 가능한 AI(XAI)가 의료, 보안, 자율 주행 등 다양한 분야에서 투명하고 신뢰할 수 있는 AI 예측을 통해 신뢰를 구축하는 방법을 알아보세요.

ChatGPT 같은 인공지능(AI) 도구의 응답을 보고 어떻게 그런 결론에 도달했는지 궁금한 적이 있나요? 그렇다면 AI의 '블랙박스' 문제에 직면한 것입니다. 이는 AI 모델이 데이터를 처리하고 분석하는 방식에 대한 명확성이 부족하다는 의미의 용어입니다. 최첨단 AI 알고리즘을 정기적으로 사용하는 AI 엔지니어와 과학자조차도 그 내부 작동 방식을 완전히 이해하기 어려울 수 있습니다. 실제로 IT 전문가의 22%만이 AI 도구의 기능을 제대로 이해하고 있습니다. 

특히 의료 분야의 컴퓨터 비전이나 금융 분야의 AI와 같은 중요한 분야에서는 AI 모델이 의사 결정을 내리는 방식을 둘러싼 불확실성이 위험할 수 있습니다. 하지만 이러한 문제를 해결하고 투명성을 개선하기 위해 상당한 진전이 이루어지고 있습니다.

특히 설명 가능한 AI(XAI) 는 이러한 문제를 해결하는 데 초점을 맞추고 있습니다. 간단히 말해, 복잡한 머신러닝 알고리즘이 제공하는 결과 또는 산출물을 인간 사용자가 이해하고 신뢰할 수 있도록 도와주는 일련의 프로세스와 방법입니다. 

XAI는 개발자가 AI 시스템이 예상대로 작동하는지 확인하는 데 도움을 줄 수 있습니다. 또한 AI 기업이 규제 표준을 충족하는 데 도움이 될 수 있습니다. 이 문서에서는 설명 가능한 AI와 그 다양한 사용 사례에 대해 살펴봅니다. 시작해 보겠습니다!

설명 가능한 AI의 중요성

AI로 작업할 때는 설명 가능성이 핵심입니다. 특히 의료와 같은 산업 분야에서 널리 사용되는 AI의 하위 분야인 컴퓨터 비전의 경우 더욱 그렇습니다. 이처럼 민감한 산업에서 비전 모델을 사용할 때는 모델의 작동 방식이 투명하고 모든 사람이 해석할 수 있어야 합니다. 

컴퓨터 비전 모델의 해석 가능성은 사용자가 예측이 이루어진 방식과 그 이면의 논리를 더 잘 이해하는 데 도움이 됩니다. 투명성은 모델의 한계를 명확하게 설명하고 데이터를 윤리적으로 사용하도록 보장함으로써 모든 사람이 모델의 작동을 명확하게 이해할 수 있도록 합니다. 예를 들어, 컴퓨터 비전은 방사선 전문의가 엑스레이 이미지에서 건강상의 합병증을 효율적으로 식별하는 데 도움이 될 수 있습니다. 

그림 1. Vision AI로 분석한 흉부 엑스레이를 건강, 질환, 활동성 및 잠복 결핵으로 분류한 결과.

하지만 정확한 비전 시스템만으로는 충분하지 않습니다. 시스템은 또한 그 결정을 설명할 수 있어야 합니다. 시스템이 이미지의 어떤 부분이 어떤 결론을 이끌어냈는지 보여줄 수 있다면 모든 결과가 더 명확해질 것입니다. 이러한 수준의 투명성은 의료 전문가가 자신의 결과를 재확인하고 환자 치료가 의료 기준에 부합하는지 확인하는 데 도움이 될 것입니다. 

설명가능성이 중요한 또 다른 이유는 AI 기업이 책임감을 갖고 사용자에 대한 신뢰를 구축할 수 있기 때문입니다. 신뢰할 수 있는 AI는 사용자가 AI 혁신이 안정적으로 작동하고, 공정한 의사 결정을 내리고, 데이터를 책임감 있게 처리한다는 확신을 갖게 합니다. 

컴퓨터 비전의 주요 설명 가능한 AI 기술

이제 컴퓨터 비전에서 설명 가능성이 중요한 이유를 살펴보았으니, 비전 AI에 사용되는 주요 XAI 기술을 살펴보겠습니다.

살리언스 맵

신경망은 인간의 뇌에서 영감을 얻은 모델로, 서로 연결된 노드(뉴런) 계층을 통해 데이터를 처리하여 패턴을 인식하고 의사 결정을 내릴 수 있도록 설계되었습니다. 복잡한 컴퓨터 비전 문제를 높은 정확도로 해결하는 데 사용할 수 있습니다. 이러한 정확도에도 불구하고 여전히 설계상 블랙박스입니다. 

살리언시 맵은 신경망이 이미지를 분석할 때 무엇을 보고 있는지 이해하는 데 사용할 수 있는 XAI 기법입니다. 또한 모델이 예상대로 작동하지 않을 경우 문제를 해결하는 데 사용할 수도 있습니다. 

이미지의 어느 부분(픽셀)이 모델의 예측을 정의하는지에 초점을 맞추는 방식으로 살리언스 맵이 작동합니다. 이 프로세스는 모델이 예측에서 입력으로 역추적하는 역전파와 매우 유사합니다. 하지만 오류에 따라 모델의 가중치를 업데이트하는 대신 각 픽셀이 예측에 얼마나 '중요한지'만 살펴봅니다. 중요도 맵은 이미지 분류와 같은 컴퓨터 비전 작업에 매우 유용합니다.

예를 들어 이미지 분류 모델이 어떤 이미지가 개라고 예측하는 경우, 해당 이미지의 중요도 맵을 보고 모델이 왜 개라고 생각하는지 이해할 수 있습니다. 이를 통해 어떤 픽셀이 출력에 가장 큰 영향을 미치는지 파악할 수 있습니다. 이미지가 개라고 최종적으로 예측하는 데 기여한 모든 픽셀이 중요도 맵에 강조 표시됩니다.

그림 2. 입력 이미지와 해당 이미지의 중요도 맵의 나란히 보기.

클래스 활성화 매핑(CAM)

클래스 활성화 매핑은 신경망이 이미지 분류 예측을 할 때 이미지의 어떤 부분에 초점을 맞추는지 이해하는 데 사용되는 또 다른 XAI 기법입니다. 중요도 맵과 유사하게 작동하지만 특정 픽셀 대신 이미지의 중요한 특징을 식별하는 데 중점을 둡니다. 특징이란 이미지에서 모델이 감지하는 모양이나 질감과 같은 패턴이나 디테일을 말합니다.

그라데이션 가중치 클래스 활성화 매핑(Grad-CAM) 및 Grad-CAM++와 같은 메서드는 동일한 아이디어를 기반으로 하지만 몇 가지 개선 사항이 있습니다.

CAM의 작동 방식은 다음과 같습니다:

  • 신경망은 최종 결정을 내리기 전에 글로벌 평균 풀링(GAP)이라는 단계를 사용하여 정보를 단순화합니다. GAP는 감지된 패턴의 모든 픽셀을 하나의 평균값으로 결합하여 각 피처 맵(감지된 패턴의 시각적 표현)에 대한 요약을 생성합니다.
  • 그런 다음 각 피처 맵에 가중치를 부여하여 특정 클래스(예: '새' 또는 '고양이')를 예측하는 데 얼마나 중요한지 보여줍니다.
  • 하지만 CAM의 한 가지 한계는 이러한 가중치를 계산하기 위해 모델을 다시 학습시켜야 하므로 시간이 많이 소요될 수 있다는 점입니다.

Grad-CAM은 각 특징 맵이 최종 예측에 얼마나 영향을 미치는지 보여주는 신호와 같은 그라디언트를 사용하여 이를 개선합니다. 이 방법을 사용하면 GAP이 필요하지 않으며 재학습 없이도 모델이 어디에 초점을 맞추는지 쉽게 확인할 수 있습니다. Grad-CAM++는 여기서 한 걸음 더 나아가 긍정적인 영향에만 집중하여 결과를 더욱 명확하게 만듭니다.

그림 3. CAM, Grad-CAM, Grad-CAM++ 비교.

사실과 반대되는 설명

사실과 반대되는 설명은 설명 가능한 AI의 중요한 요소입니다. 역사적 설명은 일어나지 않았지만 일어날 수 있었던 대체 시나리오나 사건을 고려하여 상황이나 결과를 설명하는 것을 포함합니다. 특정 입력 변수의 변화가 어떻게 다른 결과로 이어지는지 다음과 같이 설명할 수 있습니다: "X가 일어나지 않았다면 Y는 발생하지 않았을 것이다."와 같이.

AI 및 컴퓨터 비전과 관련하여 역설적 설명은 이미지나 데이터와 같은 입력에서 AI 모델이 다른 특정 결과를 생성하는 데 필요한 최소한의 변화를 식별합니다. 예를 들어 이미지에서 물체의 색상을 변경하면 이미지 분류 모델의 예측이 "고양이"에서 "개"로 바뀔 수 있습니다.

또 다른 좋은 예는 얼굴 인식 시스템에서 각도나 조명을 변경하는 것입니다. 이렇게 하면 모델이 다른 사람을 식별할 수 있으며, 입력의 작은 변화가 모델의 예측에 얼마나 큰 영향을 미칠 수 있는지 보여줍니다.

이러한 설명을 만드는 가장 간단한 방법은 시행착오를 통해 AI 모델이 원하는 결과를 제공할 때까지 입력의 일부(이미지나 데이터의 특징 등)를 임의로 변경하는 것입니다. 다른 방법으로는 최적화 및 검색 기술을 사용하여 변경 사항을 찾는 모델 불가지론적 접근 방식과 내부 설정 또는 계산에 의존하여 필요한 변경 사항을 식별하는 모델별 접근 방식이 있습니다.

컴퓨터 비전에서 설명 가능한 AI의 응용

이제 XAI의 정의와 주요 기술에 대해 살펴보았으니 실생활에서 어떻게 사용되는지 살펴볼 수 있습니다. XAI는 여러 분야에 걸쳐 다양하게 활용되고 있습니다. 그 잠재력을 보여주는 몇 가지 사용 사례를 살펴보겠습니다:

  • 보안 시스템: XAI는 여권이나 운전면허증과 같은 신분증에서 변조된 이미지를 감지하여 보안 시스템을 강화하는 데 사용할 수 있습니다. 이를 통해 이미지의 진위를 보장하고 신원 확인 프로세스를 강화하며 민감한 애플리케이션에서 사기 행위를 방지할 수 있습니다.
그림 4. 변형된 이미지를 감지하는 XAI의 작동 방식.

  • 자율 주행: 자율주행 자동차의 온보드 비전 AI 시스템의 기능과 한계를 이해하는 것은 실제 도로에 배치하기 전에 자동차를 테스트하는 데 있어 매우 중요한 부분입니다. XAI는 자동차 회사가 문제를 보다 명확하게 파악하고 해결하는 데 도움을 줄 수 있습니다.
  • 법률 시스템: 비전 기반 문서 분석 시스템은 사법 의사 결정에 점점 더 많이 사용되고 있습니다. XAI는 공정한 결과를 지원하고 자동화된 판결을 면밀히 검토할 수 있도록 지원합니다. 또한 법률 전문가가 AI 모델이 어떻게 의사 결정에 도달하는지 이해하도록 돕습니다.
  • 야생동물 모니터링: 카메라 트랩은 야생동물을 모니터링하고 동물 종에 대한 데이터를 수집하는 데 자주 사용됩니다. XAI는 이미지에서 AI가 이러한 종을 어떻게 분류하는지 설명하는 데 사용할 수 있습니다. 이를 통해 자연 보호 활동을 더욱 신뢰할 수 있고 정확하게 수행할 수 있습니다.

설명 가능한 AI에 대한 주요 내용

설명 가능한 AI를 사용하면 AI 시스템의 작동 방식과 특정 결정을 내리는 이유를 더 쉽게 이해할 수 있습니다. AI 모델에 대한 투명성은 신뢰와 책임감을 구축합니다. 지식은 힘이며 AI 혁신이 보다 책임감 있게 사용될 수 있도록 도와줍니다. 의료, 보안, 자율 주행, 법률 시스템과 같은 중요한 영역에서 XAI는 개발자와 사용자가 AI 예측을 이해하고, 오류를 식별하며, 공정하고 윤리적인 사용을 보장하는 데 도움이 될 수 있습니다. XAI는 AI를 더욱 투명하게 만들어 기술과 인간의 신뢰 사이의 간극을 좁히고, 실제 애플리케이션을 더욱 안전하고 신뢰할 수 있게 만듭니다.

자세히 알아보려면 GitHub 리포지토리를 방문하여 커뮤니티에 참여하세요. 솔루션 페이지에서 자율 주행 차량과 농업 분야의 AI 애플리케이션을 살펴보세요. 🚀

Facebook 로고트위터 로고LinkedIn 로고복사 링크 기호

이 카테고리에서 자세히 보기

인공지능의 미래
를 함께 만들어 갑시다!

머신 러닝의 미래와 함께하는 여정 시작하기