용어집

AI의 공정성

윤리적이며 편견 없는 모델로 AI의 공정성을 보장하세요. 도구, 전략 및 공정한 AI 솔루션을 위한 Ultralytics YOLO 을 살펴보세요.

YOLO 모델을 Ultralytics HUB로 간단히
훈련

자세히 알아보기

인공지능의 공정성은 인공지능 시스템이 공평하게 작동하고 기존의 사회적 편견을 지속시키거나 증폭시키지 않도록 하는 데 중점을 둔 중요한 분야입니다. 여기에는 인종, 성별, 나이, 종교, 성적 지향과 같은 민감한 속성에 따라 개인이나 집단에 대한 차별을 피하는 모델을 개발하고 배포하는 것이 포함됩니다. 인공지능(AI) 시스템이 다양한 분야의 중요한 의사결정 과정에 통합됨에 따라 공정성 문제는 윤리적 발전, 법률 준수, 대중의 신뢰 구축에 필수적입니다.

AI의 공정성 이해

AI의 공정성은 보편적으로 합의된 단일 정의가 없는 다면적인 개념입니다. 대신 공정성은 불공정한 결과를 완화하기 위한 다양한 수학적 형식주의와 윤리적 고려 사항을 포괄합니다. 핵심 과제는 왜곡된 학습 데이터(데이터세트 편향), 편향된 알고리즘, 결함이 있는 배포 환경 등 다양한 원인에서 비롯될 수 있는 AI의 편향을 식별하고 해결하는 데 있습니다. 데이터에 존재하는 역사적 편향은 실수로 모델에 과거의 차별을 재현하도록 가르칠 수 있으며, 측정 편향은 여러 그룹에서 일관되지 않은 데이터 수집으로 인해 발생할 수 있습니다. 이러한 잠재적 함정을 인식하는 것이 더 공정한 시스템을 구축하기 위한 첫걸음입니다. 인구통계학적 평등(결과가 민감한 속성과 무관하도록 보장) 또는 기회 균등(그룹 간 진양성률이 동일하도록 보장)과 같은 다양한 공정성 기준은 형평성을 측정하고 노력하는 뚜렷한 방법을 제공하지만, 여러 기준을 동시에 달성하는 것은 이 분야의 연구(예: ACM FAccT 절차)에서 강조한 것처럼 어려울 수 있습니다.

관련성 및 중요성

AI가 개인과 사회에 미치는 막대한 잠재적 영향을 고려할 때 공정성의 중요성은 아무리 강조해도 지나치지 않습니다. 불공정한 AI 시스템은 채용, 대출 신청, 형사 사법, 의료 분야의 AI와 같은 중요한 영역에서 차별적인 결과를 초래할 수 있으며, 특정 집단에 대한 기회나 필수 서비스를 거부할 수도 있습니다. 공정성 보장은 단순히 윤리적 고려 사항일 뿐만 아니라 법적 요건이 되는 경우가 많으며, AI 애플리케이션에 대한 책임과 차별 금지를 요구하는 규정이 점점 더 많아지고 있습니다( NIST AI 위험 관리 프레임워크 참조). 공정성 문제는 피해를 예방하고, 사회 정의를 증진하며, AI 기술에 대한 신뢰를 조성하여 책임감 있는 채택을 장려하는 데 도움이 됩니다. 이는 공정성, 투명성, 책임성, 개인정보 보호를 포괄하는 AI 윤리의 광범위한 원칙과도 일치합니다.

AI의 공정성 적용

공정성을 내재화하기 위한 노력은 수많은 AI 애플리케이션에서 계속되고 있습니다. 다음은 두 가지 예입니다:

  • 채용 도구의 공정성: AI는 이력서를 선별하고 지원자의 성공 가능성을 예측하는 데 사용됩니다. 과거 채용 편견(예: 특정 대학 또는 인구통계학적 배경의 지원자 선호)이 반영된 과거 데이터로 주로 학습된 경우, AI는 소외된 그룹의 자격을 갖춘 지원자에게 불공정한 불이익을 줄 수 있습니다. 기업들은 이러한 편견을 감지하고 완화하기 위해 IBM의 AI Fairness 360과 같은 공정성 인식 알고리즘과 감사 도구를 개발하고 있으며, 종종 데이터 포인트의 가중치를 재조정하거나 모델 학습 중에 공정성 제약 조건을 추가하는 등의 기술을 사용하고 있습니다.
  • 얼굴 인식의 공정성: 얼굴 인식 시스템은 인구통계학적 그룹에 따라 정확도에 차이가 있으며, 피부색이 어두운 사람이나 여성의 경우 정확도가 떨어지는 경우가 많습니다. 이는 신원 확인부터 법 집행에 이르기까지 다양한 분야에서 심각한 결과를 초래할 수 있습니다. 알고리즘 저스티스 리그와 같은 연구 단체는 이러한 문제를 강조하며 보다 다양한 훈련 데이터 세트를 만들고 인구 집단 전반에서 보다 일관된 성능을 보이는 모델을 개발하기 위한 노력을 기울이고 있습니다. 데이터 증강과 보다 포괄적인 벤치마크 데이터 세트 사용과 같은 기술은 중요한 단계입니다.

공정성과 관련 개념의 구분

밀접한 관련이 있지만 AI의 공정성은 인접 개념과는 다릅니다:

  • AI 윤리: 공정성, 책임성, 투명성, 개인정보 보호, 보안 등 AI 개발 및 사용에 대한 도덕적 원칙과 가이드라인에 관한 광범위한 분야입니다. 공정성은 AI 윤리에서 중요한 요소 중 하나입니다.
  • 알고리즘 편향: 불공정한 결과를 초래하는 AI 시스템의 체계적이고 반복 가능한 오류를 구체적으로 말합니다. AI의 공정성은 알고리즘 편향성을 식별, 측정 및 완화하기 위한 사전 예방적 노력입니다.
  • 설명 가능한 AI(XAI): XAI는 AI의 결정을 인간이 이해할 수 있도록 만드는 데 중점을 둡니다. XAI는 모델의 작동 방식을 밝혀 잠재적인 공정성 문제를 식별하는 데 도움을 줄 수 있지만, 본질적으로 공정성을 보장하지는 않습니다. 하지만 공정성을 평가하고 보장하기 위해서는 XAI를 통한 투명성이 필수적인 경우가 많습니다.

공정성 확보

공정성을 달성하려면 AI 수명 주기 전반에 걸쳐 기술적 접근 방식과 절차적 접근 방식을 결합해야 합니다. 여기에는 신중한 데이터 수집 및 주석 달기, 다양하고 대표적인 데이터 세트 사용, 공정성을 인식하는 머신러닝 알고리즘 사용, 적절한 공정성 지표를 사용한 엄격한 테스트 및 모델 평가, 배포 후 지속적인 모니터링이 포함됩니다. Google What-If 도구와 같은 도구를 사용하면 실무자가 다양한 데이터 슬라이스에서 모델 동작을 탐색할 수 있습니다. 사용자 지정 모델 교육 및 관리를 용이하게 하는 Ultralytics HUB와 같은 플랫폼은 사용자가 데이터 보강과 같은 기술을 적용하고 다음과 같은 모델을 평가할 수 있도록 지원합니다. Ultralytics YOLO11 와 같은 기술을 적용하고 모델을 평가하여 그룹 간 성능 격차를 줄여 보다 공평한 컴퓨터 비전 솔루션을 개발할 수 있도록 지원합니다.

모두 보기