윤리적 원칙을 활용하여 헌법적 AI가 모델을 인간 가치와 어떻게 조화시키는지 탐구하세요. Ultralytics 통해 컴퓨터 비전에서 안전 점검을 구현하는 방법을 배우세요.
헌법적 인공지능(Constitutional AI)은 개별 출력에 대한 방대한 인간 피드백에만 의존하기보다, 고수준 원칙 집합—즉 "헌법"—을 제공함으로써 인공지능 시스템이 인간 가치와 부합하도록 훈련하는 방법이다. 이 접근법은 본질적으로 "도움이 되라", "해가 되지 말라", "차별을 피하라"와 같은 사전 정의된 규칙 집합에 기반해 AI 모델이 스스로의 행동을 비판하고 수정하도록 가르친다. 이러한 윤리적 지침을 훈련 과정에 직접 내재시킴으로써 개발자는 수동적 인간 피드백 기반 강화학습(RLHF)에 의존하는 시스템보다 더 안전하고 투명하며 확장성이 용이한 시스템을 구축할 수 있다. 이러한 윤리적 지침을 훈련 과정에 직접 내재화함으로써 개발자는 수동적인 인간 피드백 기반 강화 학습(RLHF)에 의존하는 시스템보다 더 안전하고 투명하며 확장성이 뛰어난 시스템을 구축할 수 있습니다.
헌법적 AI의 핵심 혁신은 모델 정렬을 자동화하는 2단계 훈련 과정에 있습니다. 기존의 감독 학습에서는 인간이 모든 정답에 라벨을 부여해야 하지만, 헌법적 AI는 모델 자체를 활용해 훈련 데이터를 생성합니다.
헌법적 인공지능은 대규모 언어 모델(LLM) 의 맥락에서 비롯되었으며, 이러한 모델은 Anthropic과 같은 기관에서 개발한 대규모 언어 모델 (LLM)의 맥락에서 비롯되었지만, 그 원칙은 컴퓨터 비전(CV)을 포함한 더 광범위한 기계 학습 작업에 점점 더 관련성이 높아지고 있습니다.
완전한 헌법적 AI 훈련에는 복잡한 피드백 루프가 수반되지만, 개발자는 추론 과정에서 "헌법적 검증" 개념을 적용하여 안전 정책에 기반해 출력을 필터링할 수 있습니다. 다음 예시는 YOLO26을 사용해 detect 신뢰도 낮은 탐지 결과를 필터링하는 안전 규칙을 적용하는 방식으로, 신뢰성 헌법을 모방한 사례를 보여줍니다.
from ultralytics import YOLO
# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
# Filter boxes with confidence > 0.5 to ensure reliability
safe_boxes = [box for box in result.boxes if box.conf > 0.5]
print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
# Further processing would only use 'safe_boxes'
헌법적 인공지능(Constitutional AI)과 표준적인 인간 피드백 기반 강화 학습(RLHF)을 구분하는 것이 중요하다.
모델이 다음과 같은 방향으로 진화함에 따라 인공 일반 지능(AGI)으로 진화함에 따라 헌법 AI와 같은 강력한 정렬 전략의 중요성이 커지고 있습니다. 이러한 방법은 다음과 같은 경우에 필수적입니다. 다음과 같은 기관의 새로운 표준을 준수하는 데 필수적입니다. NIST AI 안전 연구소.
Ultralytics 데이터 거버넌스 및 모델 모니터링 관리 도구를 제공하여 책임 있는 AI 시스템 구축을 지원합니다. 데이터 수집부터 모델 배포에이르는 AI 개발 라이프사이클 전반에 이러한 윤리적 고려 사항을 통합함으로써, 조직은 위험을 완화하고 자사 기술이 사회에 긍정적으로 기여하도록 보장할 수 있습니다.