Glossar

Generative KI

Entdecken Sie, wie generative KI originäre Inhalte wie Texte, Bilder und Audiodateien erstellt und Branchen mit innovativen Anwendungen umgestaltet.

Generative KI ist eine Kategorie von Systemen der künstlichen Intelligenz (KI), die neue und originelle Inhalte wie Text, Bilder, Audio und Video erstellen können. Im Gegensatz zu herkömmlicher KI, die vorhandene Daten analysiert oder darauf reagiert, lernen generative Modelle die zugrunde liegenden Muster und Strukturen aus einem riesigen Korpus von Trainingsdaten, um neuartige Ergebnisse zu erzeugen, die die Eigenschaften der Daten, auf denen sie trainiert wurden, nachahmen. Diese Technologie wird durch komplexe Deep-Learning-Modelle wie Large-Language-Modelle (LLM) unterstützt, die zunehmend zugänglich und leistungsfähig geworden sind.

Wie funktioniert die generative KI?

Im Kern beruht die generative KI auf neuronalen Netzen (NN), die auf umfangreichen Datensätzen trainiert werden. Während des Trainings lernt das Modell eine probabilistische Verteilung der Daten. Wenn es eine Aufforderung oder Eingabe erhält, verwendet es diese gelernte Verteilung, um das nächste wahrscheinlichste Element in einer Sequenz vorherzusagen und zu generieren, egal ob es sich um ein Wort, ein Pixel oder eine Musiknote handelt. Dieser Prozess wird wiederholt, um einen vollständigen Inhalt zu erstellen. Viele moderne generative Modelle basieren auf der Transformer-Architektur, die einen Aufmerksamkeitsmechanismus verwendet, um die Bedeutung der verschiedenen Teile der Eingabedaten abzuwägen, wodurch komplexe, weitreichende Abhängigkeiten erfasst und äußerst kohärente Ergebnisse erzeugt werden können. Diese leistungsstarken, vortrainierten Modelle werden oft als Basismodelle bezeichnet.

Generative KI vs. Diskriminierende KI

Das Gegenstück zur generativen KI ist die diskriminative KI. Der Hauptunterschied liegt in ihren Zielen:

  • Generative Modelle: Sie lernen die Verteilung von Daten, um neue Datenmuster zu erstellen. Ihr Ziel ist es, die Frage zu beantworten: "Wie sehen die Daten aus?" Beispiele sind Modelle für die Text-Bild-Synthese oder die Textgenerierung.
  • Diskriminierende Modelle: Lernen die Grenze zwischen verschiedenen Datenklassen, um eine gegebene Eingabe zu klassifizieren oder eine Bezeichnung vorherzusagen. Ihr Ziel ist es, die Frage zu beantworten: "Was ist der Unterschied zwischen diesen Gruppen?" Die meisten Aufgaben des überwachten Lernens, wie z. B. die Bildklassifizierung und Objekterkennung, die von Modellen wie Ultralytics YOLO durchgeführt werden, fallen in diese Kategorie.

Während sich diskriminative Modelle hervorragend für die Kategorisierung und Vorhersage eignen, zeichnen sich generative Modelle durch die Erstellung und Erweiterung von Daten aus.

Anwendungen in der realen Welt

Generative KI verändert zahlreiche Branchen mit einer breiten Palette von Anwendungen:

  1. Inhaltserstellung und -erweiterung: Modelle wie GPT-4 können Artikel, E-Mails und Code schreiben, während Text-zu-Bild-Modelle wie DALL-E 3 und Midjourney aus einfachen Textbeschreibungen atemberaubende Bilder erstellen. Dies revolutioniert Bereiche von Marketing und Unterhaltung bis hin zur Softwareentwicklung, wobei Tools wie GitHub Copilot die Entwickler unterstützen.
  2. Synthetische Datenerzeugung: Generative KI kann realistische, künstliche Daten erzeugen, um andere Modelle für maschinelles Lernen (ML) zu trainieren. In der KI im Automobilbereich kann sie beispielsweise seltene Fahrszenarien erzeugen, um die Robustheit von Wahrnehmungsmodellen in autonomen Fahrzeugen zu verbessern. Im Gesundheitswesen können synthetische medizinische Bilder für das Training von Diagnoseinstrumenten erzeugt werden, um die Herausforderungen im Zusammenhang mit dem Datenschutz und begrenzten Datensätzen zu bewältigen. Diese Technik ergänzt die traditionelle Datenerweiterung.

Gängige Typen von generativen Modellen

Mehrere Architekturen waren für den Fortschritt der generativen KI von entscheidender Bedeutung:

  • Generative adversarische Netzwerke (GANs): Bestehen aus zwei konkurrierenden neuronalen Netzen - einem Generator und einem Diskriminator - die zusammenarbeiten, um äußerst realistische Ergebnisse zu erzielen.
  • Diffusionsmodelle: Fügen Sie schrittweise Rauschen zu einem Bild hinzu und lernen Sie dann, den Prozess umzukehren, um naturgetreue Bilder zu erzeugen. Dies ist die Technologie hinter Modellen wie Stable Diffusion.
  • Große Sprachmodelle (LLMs): Diese auf der Transformer-Architektur basierenden Modelle werden auf großen Mengen von Textdaten trainiert, um menschenähnliche Sprache zu verstehen und zu erzeugen. Führende Forschungseinrichtungen wie Google AI und Meta AI verschieben ständig die Grenzen des Machbaren.

Herausforderungen und ethische Erwägungen

Der rasche Aufstieg der generativen KI bringt erhebliche Herausforderungen mit sich. Die Möglichkeit des Missbrauchs, z. B. die Erstellung von Deepfakes für Fehlinformationskampagnen oder die Verletzung von Rechten an geistigem Eigentum, ist ein großes Problem. Modelle können auch die in ihren Trainingsdaten vorhandenen algorithmischen Verzerrungen fortschreiben und verstärken. Die Bewältigung dieser Probleme erfordert ein starkes Engagement für die KI-Ethik und die Entwicklung robuster Governance-Rahmenwerke. Darüber hinaus ist das Training dieser großen Modelle rechenintensiv, was Bedenken hinsichtlich ihrer Auswirkungen auf die Umwelt weckt. Eine effiziente Verwaltung des Modelllebenszyklus durch MLOps-Plattformen wie Ultralytics HUB kann zur Rationalisierung von Entwicklung und Einsatz beitragen.

Werden Sie Mitglied der Ultralytics-Gemeinschaft

Beteiligen Sie sich an der Zukunft der KI. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert