용어집

적대적 공격

공격자가 AI 취약점을 악용하는 방법과 실제 영향, 머신 러닝 모델을 보호하기 위한 방어 전략에 대해 알아보세요.

YOLO 모델을 Ultralytics HUB로 간단히
훈련

자세히 알아보기

적대적 공격은 입력 데이터에 눈에 띄지 않는 미묘한 변화를 일으켜 모델이 잘못된 출력을 생성하거나 의도하지 않은 방식으로 작동하도록 하여 머신 러닝 모델을 조작하는 데 사용되는 기술입니다. 이러한 공격은 특히 이미지 인식, 자연어 처리, 자율 시스템과 같은 영역에서 AI 시스템의 취약점을 악용합니다. 적대적 공격은 특히 의료, 금융, 자율 주행 차량과 같이 중요도가 높은 분야에서 AI 애플리케이션의 견고성과 보안에 대한 심각한 우려를 불러일으킵니다.

적대적 공격의 작동 방식

적대적 공격은 일반적으로 머신 러닝 모델을 속이기 위해 의도적으로 변경된 입력인 '적대적 예시'를 만드는 것을 포함합니다. 이러한 변경은 일반적으로 최소한의 수준으로 사람이 구별할 수 없도록 설계되지만 모델의 성능에 상당한 영향을 미칩니다. 예를 들어, 정지 표지판의 이미지를 약간만 수정하면 자율 주행 차량의 AI 시스템이 이를 속도 제한 표지판으로 잘못 분류하여 잠재적으로 위험한 결과를 초래할 수 있습니다.

적대적 공격의 유형

  1. 화이트박스 공격: 공격자는 모델의 아키텍처, 매개변수, 학습 데이터 등 모델에 대한 모든 지식을 가지고 있습니다. 이 정보는 매우 효과적인 공격 사례를 만드는 데 사용됩니다.
  2. 블랙박스 공격: 공격자는 모델의 내부 작동에 액세스할 수 없지만 모델의 출력을 관찰할 수 있습니다. 이러한 공격은 종종 모델을 쿼리하고 응답을 활용하여 취약점을 추론하는 방식으로 이루어집니다.
  3. 표적 공격: 모델이 특정 예측을 잘못하도록 속이는 것을 목표로 합니다.
  4. 비표적 공격: 특정 대상을 염두에 두지 않고 모델이 잘못된 예측을 하도록 만드는 것을 목표로 합니다.

AI 및 ML과의 관련성

적대적 공격은 강력하고 안전한 AI 시스템 구축의 중요성을 강조합니다. 모델이 질병을 감지하는 데 도움을 주는 의료 이미지 분석과 같은 애플리케이션은 적대적인 공격이 도입될 경우 심각한 손상을 입을 수 있습니다. 마찬가지로 자율 주행 차량의 경우 적대적 공격은 차량의 인식 시스템을 오도하여 생명을 위협할 수 있습니다.

이러한 위험을 완화하기 위해서는 적대적 훈련과 차등 개인정보 보호와 같은 방어 기법 사용과 같은 보안 조치가 매우 중요합니다. 차등 개인정보 보호와 민감한 AI 모델을 보호하는 데 있어 차등 개인정보 보호의 역할에 대해 자세히 알아보세요.

실제 적용 사례 및 예시

예 1: 자율 주행 차량

자율주행 차량에 사용되는 컴퓨터 비전 시스템에 대한 적대적인 공격은 도로 표지판이나 장애물을 잘못 분류할 수 있습니다. 예를 들어, 연구자들은 정지 표지판의 작은 스티커나 패턴이 잘못 분류되어 잠재적으로 사고로 이어질 수 있음을 입증했습니다. 자율주행차의 AI가 안전을 보장하기 위해 강력한 비전 모델에 의존하는 방법을 살펴보세요.

예 2: 금융 사기 탐지

금융 시스템에서 공격자는 사기 탐지 모델을 조작할 수 있습니다. 공격자는 보안 시스템을 우회하기 위해 거래 데이터를 교묘하게 변경하여 오탐을 일으킬 수 있습니다. 이는 이상 징후 탐지에서 설명한 대로 고급 이상 징후 탐지 기술의 필요성을 보여줍니다.

적대적 공격과 관련 개념 비교

알고리즘 편향은 불균형하거나 결함이 있는 학습 데이터로 인해 의도치 않게 발생하는 경우가 많은 반면, 적대적 공격은 의도적인 악용이라는 점에서 알고리즘 편향과는 다릅니다. 또한 적대적 공격은 시간이 지남에 따라 모델 성능을 저하시킬 수 있는 데이터 분포의 변화를 의미하는 데이터 드리프트와는 구별됩니다.

적대적 공격에 대한 방어

  1. 적대적 훈련: 적대적 예시로 훈련 데이터 세트를 보강하여 모델이 이러한 입력을 효과적으로 처리하는 방법을 학습할 수 있도록 합니다.
  2. 견고한 아키텍처: 배치 정규화와 같은 기술을 사용하는 등 적대적 교란에 대한 내재적 복원력을 갖춘 모델을 설계합니다.
  3. 정기적인 모니터링: 모델 모니터링 관행을 사용하여 비정상적인 패턴이나 성능 이상을 감지합니다.
  4. 방어 알고리즘: 그라데이션 마스킹 또는 입력 전처리와 같은 기술을 활용하여 공격적인 예제의 영향을 줄입니다.

AI 보안의 미래

AI 시스템이 핵심 산업에 더욱 통합됨에 따라 적대적인 공격에 대처하는 것이 최우선 과제로 남을 것입니다. Ultralytics 같은 조직은 Ultralytics 허브와 같은 고급 도구와 플랫폼을 통해 모델 견고성과 보안을 강화하기 위해 노력하고 있습니다. AI 커뮤니티는 혁신과 보안 모범 사례를 결합함으로써 실제 애플리케이션에서 안전하고 신뢰할 수 있는 AI 기술 배포를 보장할 수 있습니다.

적대적 공격은 AI 보안을 발전시키기 위한 도전이자 기회입니다. 이러한 정교한 위협으로부터 AI 시스템을 보호하려면 지속적인 연구와 협력이 필수적입니다.

모두 보기