Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Konstitutionelle KI

Entdecken Sie, wie Constitutional AI Modelle anhand ethischer Grundsätze mit menschlichen Werten in Einklang bringt. Lernen Sie, wie Sie mit Ultralytics Sicherheitsprüfungen in Computer Vision implementieren.

Konstitutionelle KI ist eine Methode, um künstliche Intelligenzsysteme so zu trainieren, dass sie sich an menschlichen Werten ausrichten, indem man ihnen eine Reihe von übergeordneten Prinzipien – eine „Verfassung“ – vorgibt, anstatt sich ausschließlich auf umfangreiches menschliches Feedback zu einzelnen Ergebnissen zu verlassen. Dieser Ansatz lehrt das KI-Modell im Wesentlichen, sein eigenes Verhalten auf der Grundlage einer vordefinierten Reihe von Regeln zu kritisieren und zu überarbeiten, wie z. B. „sei hilfreich“, „sei harmlos“ und „vermeide Diskriminierung zu vermeiden“. Durch die direkte Einbettung dieser ethischen Richtlinien in den Trainingsprozess können Entwickler Systeme schaffen, die sicherer, transparenter und leichter skalierbar sind als solche, die auf manuellem Reinforcement Learning from Human Feedback (RLHF) basieren.

Der Mechanismus der konstitutionellen KI

Die zentrale Innovation der konstitutionellen KI liegt in ihrem zweistufigen Trainingsprozess, der die Angleichung von Modellen automatisiert. Im Gegensatz zum herkömmlichen überwachten Lernen, bei dem Menschen jede richtige Antwort kennzeichnen müssen, verwendet die konstitutionelle KI das Modell selbst, um Trainingsdaten zu generieren.

  1. Phase des überwachten Lernens: Das Modell generiert Antworten auf Eingaben und bewertet anschließend seine eigenen Ergebnisse auf der Grundlage der Verfassungsgrundsätze. Es überarbeitet die Antwort, um sie besser an die Regeln anzupassen. Dieser verfeinerte Datensatz wird dann zur Feinabstimmung des Modells verwendet, um ihm beizubringen, die Richtlinien von Grund auf zu befolgen.
  2. Phase des verstärkenden Lernens: Diese Phase, oft als Reinforcement Learning from AI Feedback (RLAIF) bezeichnet, ersetzt den menschlichen Labeler. Die KI generiert Antwortpaare und wählt diejenige aus, die am besten mit der Verfassung übereinstimmt. Diese Präferenzdaten trainieren ein Belohnungsmodell, das dann die gewünschten Verhaltensweisen durch standardmäßige Verstärkungslerntechniken verstärkt.

Relevanz für Computer Vision

Während die konstitutionelle KI ihren Ursprung im Kontext von großen Sprachmodellen (LLM) hat, die von Organisationen wie Anthropicentwickelt wurden, sind ihre Prinzipien zunehmend relevant für breitere Aufgaben des maschinellen Lernens, einschließlich Computer Vision (CV).

  • Ethische Bilderzeugung: Generative KI-Tools zur Bilderzeugung können „konstitutionell“ darauf trainiert werden, Eingaben abzulehnen, die gewalttätige, hasserfüllte oder urheberrechtlich geschützte Bilder erzeugen würden. Dadurch wird sichergestellt, dass die Modellgewichte selbst Sicherheitsbeschränkungen kodieren und so die Erstellung schädlicher visueller Inhalte verhindern.
  • Sicherheitskritische Bildverarbeitungssysteme: In autonomen Fahrzeugen kann ein „konstitutioneller“ Ansatz hierarchische Regeln für die Entscheidungsfindung definieren. Beispielsweise kann eine Regel, die besagt, dass „die Sicherheit von Menschen Vorrang vor der Verkehrseffizienz hat“, das Modell bei der Analyse komplexer Verkehrssituationen leiten und sicherstellen, dass die Ergebnisse der Objekterkennung mit Blick auf die Sicherheit als Priorität interpretiert werden.

Implementierung von Richtlinienprüfungen in Vision AI

Während das vollständige Training einer konstitutionellen KI komplexe Feedbackschleifen umfasst, können Entwickler das Konzept der „konstitutionellen Prüfungen” während der Inferenz anwenden, um die Ergebnisse auf der Grundlage von Sicherheitsrichtlinien zu filtern . Das folgende Beispiel veranschaulicht die Verwendung von YOLO26 zur detect und die Anwendung einer Sicherheitsregel zum Filtern von Erkennungen mit geringer Zuverlässigkeit, wodurch eine Zuverlässigkeitskonstitution nachgeahmt wird.

from ultralytics import YOLO

# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")

# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
    # Filter boxes with confidence > 0.5 to ensure reliability
    safe_boxes = [box for box in result.boxes if box.conf > 0.5]

    print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
    # Further processing would only use 'safe_boxes'

Verfassungsmäßige KI vs. konventionelles RLHF

Es ist wichtig, konstitutionelle KI von standardmäßigem Reinforcement Learning from Human Feedback (RLHF) zu unterscheiden.

  • Skalierbarkeit: RLHF erfordert einen hohen Aufwand an menschlicher Arbeitskraft, um die Ergebnisse des Modells zu bewerten, was teuer und langsam ist. Constitutional AI automatisiert dies mit KI-Agenten und macht es so in hohem Maße skalierbar.
  • Transparenz: Bei RLHF lernt das Modell aus einem undurchsichtigen „Belohnungssignal“ (einer Punktzahl), sodass es schwer zu erkennen ist, warum ein bestimmtes Verhalten bevorzugt wurde. Bei der konstitutionellen KI macht die während der Kritikphase verwendete Gedankenkette die Argumentation explizit und lässt sich zu bestimmten schriftlichen Grundsätzen zurückverfolgen.
  • Konsistenz: Menschliche Bewerter können inkonsequent oder voreingenommen sein. Eine schriftliche Verfassung bietet eine stabile Grundlage für die Ethik der KI und reduziert die Subjektivität im Abstimmungsprozess.

Die Zukunft der Ausrichtung

Da sich die Modelle in Richtung Künstliche allgemeine Intelligenz (Artificial General Intelligence, AGI) entwickeln, wächst die Bedeutung von robusten Ausrichtungsstrategien wie Constitutional AI. Diese Methoden sind unerlässlich für aufkommenden Standards von Einrichtungen wie dem NIST AI Safety Institute.

Die Ultralytics bietet Tools für das Datenmanagement und die Modellüberwachung und erleichtert so die Entwicklung verantwortungsbewusster KI-Systeme. Durch die Integration dieser ethischen Überlegungen in den Lebenszyklus der KI-Entwicklung – von der Datenerfassung bis zur Modellbereitstellung– können Unternehmen Risiken mindern und sicherstellen, dass ihre Technologien einen positiven Beitrag zur Gesellschaft leisten.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten