Glossar

Stiftung Modell

Entdecke, wie Foundation Models die KI mit skalierbaren Architekturen, breitem Pretraining und Anpassungsfähigkeit für verschiedene Anwendungen revolutionieren.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Ein Basismodell ist ein groß angelegtes Modell der Künstlichen Intelligenz (KI), das mit großen Mengen an umfangreichen, unbeschrifteten Daten trainiert wurde und für eine Vielzahl nachgelagerter Aufgaben angepasst oder feinabgestimmt werden kann. Diese Modelle, die oft auf Architekturen wie dem Transformer basieren, lernen allgemeine Muster, Strukturen und Darstellungen aus den Daten und bilden so eine vielseitige Basis für verschiedene spezialisierte Anwendungen, ohne dass ein aufgabenspezifisches Training von Grund auf erforderlich ist. Die Entwicklung von Basismodellen stellt einen bedeutenden Paradigmenwechsel im Bereich des maschinellen Lernens (ML) dar, der sich auf die Entwicklung von Allzweckmodellen konzentriert, die effizient spezialisiert werden können.

Wesentliche Merkmale

Stiftungsmodelle werden durch mehrere Kernmerkmale definiert:

  • Umfang: Sie sind in der Regel sehr groß, umfassen Milliarden oder sogar Billionen von Parametern und werden auf riesigen Datensätzen trainiert, die oft aus dem Internet oder anderen umfangreichen Quellen stammen(Big Data).
  • Vor-Training: Sie durchlaufen eine intensive Pre-Training-Phase, normalerweise mit selbstüberwachtem Lernen oder unüberwachten Methoden, bei denen das Modell aus der inhärenten Struktur der Daten selbst lernt, ohne explizite Labels.
  • Anpassungsfähigkeit: Ein entscheidender Vorteil ist ihre Anpassungsfähigkeit. Wenn sie einmal trainiert sind, können sie mit relativ kleinen Mengen an gelabelten Daten für bestimmte Aufgaben wie Stimmungsanalyse, Bilderkennung oder Objekterkennung feinabgestimmt werden, indem sie das allgemeine Wissen aus dem Vortraining nutzen. Dieser Prozess ist eine Form des Transferlernens.
  • Homogenisierung: Sie führen Fähigkeiten, für die zuvor mehrere spezialisierte Modelle erforderlich waren, in einem einzigen, anpassungsfähigen Rahmen zusammen und vereinfachen so möglicherweise die MLOps.

Wie Stiftungsmodelle funktionieren

Die Erstellung und Nutzung von Stiftungsmodellen erfolgt in der Regel in zwei Phasen:

  1. Vor-Training: Das Modell wird mit einem umfangreichen, vielfältigen Datensatz trainiert. Bei Sprachmodellen wie GPT-3 geht es darum, das nächste Wort in einem Satz vorherzusagen. Bei Bildgebungsmodellen kann es darum gehen, maskierte Bildbereiche zu rekonstruieren oder Assoziationen zwischen Bildern und Text zu lernen(CLIP). Diese Phase erfordert erhebliche Rechenressourcen (GPU, TPU).
  2. Feinabstimmung/Adaption: Das trainierte Modell wird dann für eine bestimmte nachgelagerte Aufgabe angepasst, indem ein kleinerer, aufgabenspezifisch markierter Datensatz verwendet wird. Techniken wie die Feinabstimmung passen die Modellgewichte an, während Methoden wie das Prompt-Engineering die Ausgabe des Modells ohne Änderung der Gewichte steuern, was besonders für Large Language Models (LLMs) relevant ist.

Beispiele und Anwendungen

Stiftungsmodelle umfassen verschiedene Bereiche:

Stiftungsmodelle vs. andere Modelle

  • Aufgabenspezifische Modelle: Im Gegensatz zu Basismodellen werden beim traditionellen ML Modelle oft von Grund auf auf spezifischen Datensätzen für einzelne Aufgaben trainiert (z. B. das Training eines Ultralytics YOLO Modell ausschließlich für die Erkennung von Objekten in Luftbildern). Das ist zwar effektiv, erfordert aber für jede neue Aufgabe einen erheblichen Aufwand an gekennzeichneten Daten. Die Basismodelle zielen darauf ab, diesen Aufwand durch Transferlernen zu verringern.
  • Große Sprachmodelle (LLMs): LLMs sind ein bekannter Typ von Basismodellen, die speziell für Sprachaufgaben entwickelt wurden. Der Begriff "Basismodell" ist weiter gefasst und umfasst auch Modelle für Sehen, Hören und andere Modalitäten.
  • Lebenslaufmodelle: Während einige große Visionsmodelle wie ViT oder SAM als Basismodelle gelten, sind viele CV-Modelle, einschließlich bestimmter Versionen von YOLOv8 oder YOLO11 die für bestimmte Anwendungen(KI in der Landwirtschaft, KI in der Automobilindustrie) trainiert wurden, werden in der Regel speziell für diese Bildverarbeitungsaufgaben abgestimmt oder trainiert und sind nicht als Allzweck-Basismodelle zu betrachten. Der Trend zur Verwendung von vortrainierten Basismodellen beruht jedoch auf dem Grundgedanken, allgemeine Merkmale zu nutzen.

Ausbildung und Ressourcen

Das Vortraining von Basismodellen ist rechenintensiv und erfordert oft riesige GPU- oder TPU-Cluster und einen erheblichen technischen Aufwand, der normalerweise von großen Forschungslabors oder Unternehmen wie GoogleMeta AI und OpenAI. Sind diese Modelle jedoch einmal trainiert, können sie effizienter angepasst werden. Plattformen wie Ultralytics HUB bieten Tools zum Trainieren von benutzerdefinierten Modellen, zum Verwalten von DatensätzenUltralytics Datasets) und zum Bereitstellen von Lösungen(Model Deployment Options), wobei häufig bereits trainierte Gewichte verwendet werden, die grundlegendes Wissen enthalten. Eine wirksame Anpassung erfordert dennoch eine sorgfältige Abstimmung der Hyperparameter und möglicherweise eine Datenerweiterung.

Bedeutung und Zukunft

Gründungsmodelle verändern die KI-LandschaftRoboflow über Gründungsmodelle). Sie beschleunigen die Entwicklung, ermöglichen neue Anwendungen und werfen wichtige Fragen zu KI-Ethik, Voreingenommenheit und Zugang zu Computern auf. Forschungseinrichtungen wie das Center for Research on Foundation Models (CRFM) in Stanford widmen sich der Untersuchung ihrer Fähigkeiten und gesellschaftlichen Auswirkungen. In Zukunft werden wahrscheinlich leistungsfähigere, effizientere und potenziell multimodale Gründungsmodelle Innovationen in Wissenschaft, Industrie und Alltag vorantreiben(KI-Anwendungsfälle).

Alles lesen