Entdecken Sie, wie Constitutional AI Modelle anhand ethischer Grundsätze mit menschlichen Werten in Einklang bringt. Lernen Sie, wie Sie mit Ultralytics Sicherheitsprüfungen in Computer Vision implementieren.
Konstitutionelle KI ist eine Methode, um künstliche Intelligenzsysteme so zu trainieren, dass sie sich an menschlichen Werten ausrichten, indem man ihnen eine Reihe von übergeordneten Prinzipien – eine „Verfassung“ – vorgibt, anstatt sich ausschließlich auf umfangreiches menschliches Feedback zu einzelnen Ergebnissen zu verlassen. Dieser Ansatz lehrt das KI-Modell im Wesentlichen, sein eigenes Verhalten auf der Grundlage einer vordefinierten Reihe von Regeln zu kritisieren und zu überarbeiten, wie z. B. „sei hilfreich“, „sei harmlos“ und „vermeide Diskriminierung zu vermeiden“. Durch die direkte Einbettung dieser ethischen Richtlinien in den Trainingsprozess können Entwickler Systeme schaffen, die sicherer, transparenter und leichter skalierbar sind als solche, die auf manuellem Reinforcement Learning from Human Feedback (RLHF) basieren.
Die zentrale Innovation der konstitutionellen KI liegt in ihrem zweistufigen Trainingsprozess, der die Angleichung von Modellen automatisiert. Im Gegensatz zum herkömmlichen überwachten Lernen, bei dem Menschen jede richtige Antwort kennzeichnen müssen, verwendet die konstitutionelle KI das Modell selbst, um Trainingsdaten zu generieren.
Während die konstitutionelle KI ihren Ursprung im Kontext von großen Sprachmodellen (LLM) hat, die von Organisationen wie Anthropicentwickelt wurden, sind ihre Prinzipien zunehmend relevant für breitere Aufgaben des maschinellen Lernens, einschließlich Computer Vision (CV).
Während das vollständige Training einer konstitutionellen KI komplexe Feedbackschleifen umfasst, können Entwickler das Konzept der „konstitutionellen Prüfungen” während der Inferenz anwenden, um die Ergebnisse auf der Grundlage von Sicherheitsrichtlinien zu filtern . Das folgende Beispiel veranschaulicht die Verwendung von YOLO26 zur detect und die Anwendung einer Sicherheitsregel zum Filtern von Erkennungen mit geringer Zuverlässigkeit, wodurch eine Zuverlässigkeitskonstitution nachgeahmt wird.
from ultralytics import YOLO
# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
# Filter boxes with confidence > 0.5 to ensure reliability
safe_boxes = [box for box in result.boxes if box.conf > 0.5]
print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
# Further processing would only use 'safe_boxes'
Es ist wichtig, konstitutionelle KI von standardmäßigem Reinforcement Learning from Human Feedback (RLHF) zu unterscheiden.
Da sich die Modelle in Richtung Künstliche allgemeine Intelligenz (Artificial General Intelligence, AGI) entwickeln, wächst die Bedeutung von robusten Ausrichtungsstrategien wie Constitutional AI. Diese Methoden sind unerlässlich für aufkommenden Standards von Einrichtungen wie dem NIST AI Safety Institute.
Die Ultralytics bietet Tools für das Datenmanagement und die Modellüberwachung und erleichtert so die Entwicklung verantwortungsbewusster KI-Systeme. Durch die Integration dieser ethischen Überlegungen in den Lebenszyklus der KI-Entwicklung – von der Datenerfassung bis zur Modellbereitstellung– können Unternehmen Risiken mindern und sicherstellen, dass ihre Technologien einen positiven Beitrag zur Gesellschaft leisten.