Glossar

Föderiertes Lernen

Entdecke föderiertes Lernen: ein datenschutzfreundlicher KI-Ansatz, der dezentrales Modelltraining auf verschiedenen Geräten ermöglicht, ohne Rohdaten zu teilen.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Federated Learning ist eine Technik des maschinellen Lernens (ML), die es ermöglicht, Modelle auf mehreren dezentralen Geräten oder Servern mit lokalen Datenproben zu trainieren, ohne die Rohdaten selbst auszutauschen. Dieser Ansatz geht auf kritische Fragen des Datenschutzes, der Sicherheit und der Zugriffsrechte ein und ermöglicht die Zusammenarbeit bei der Modellschulung mit Daten, die nicht zentral gesammelt werden können oder sollen. Im Gegensatz zum traditionellen zentralen Training, bei dem die Daten aggregiert werden, bringt Federated Learning den Trainingsprozess an den Ort, an dem sich die Daten befinden, oft auf Edge AI-Geräten.

Kernkonzepte des föderierten Lernens

Federated Learning funktioniert über einen kooperativen, iterativen Prozess, der von einem zentralen Koordinator (Server) gesteuert wird:

  1. Modellverteilung: Der zentrale Server initialisiert ein globales Modell (wie ein Ultralytics YOLO für die Objekterkennung) und verteilt es an die teilnehmenden Client-Geräte oder Datensilos.
  2. Lokales Training: Jeder Kunde trainiert das empfangene Modell mit seinen lokalen Daten für ein paar Iterationen. Da die Daten nie den Client verlassen, bleibt die Privatsphäre gewahrt. Für dieses lokale Training werden üblicherweise Standard-Deep-Learning-Techniken (DL) verwendet.
  3. Update Aggregation: Die Clients senden nur die Modellaktualisierungen (z. B. gelernte Gewichte oder Gradienten) an den zentralen Server zurück, nicht aber die zugrunde liegenden Daten. Diese Aktualisierungen werden oft mit Techniken wie differentiellem Datenschutz oder sicherer Aggregation gesichert.
  4. Aktualisierung des globalen Modells: Der Server aggregiert die empfangenen Aktualisierungen (z. B. durch Mittelwertbildung), um das globale Modell zu verbessern.
  5. Iteration: Dieser Zyklus wiederholt sich und verbessert schrittweise das globale Modell mit dem Wissen, das von allen teilnehmenden Kunden gelernt wurde, ohne den Datenschutz der Rohdaten zu gefährden. Google AI gibt Einblicke in seine Forschung und Anwendungen im Bereich Federated Learning.

Obwohl es mit Distributed Training verwandt ist, geht Federated Learning davon aus, dass die Daten nicht identisch und unabhängig verteilt sind, dass sie dezentralisiert sind und dass die Wahrung der Privatsphäre zu den wichtigsten Grundsätzen gehört.

Anwendungen des föderierten Lernens

Federated Learning ist besonders nützlich in Szenarien mit sensiblen oder verteilten Daten:

  • Intelligente Tastaturvorhersage: Handytastaturen (wie Google Gboard) nutzen Federated Learning, um die Textvorhersage auf der Grundlage des Tippverhaltens der Nutzer/innen auf vielen Geräten zu verbessern, ohne einzelne Tastenanschläge an zentrale Server zu senden. Das verbessert das Nutzererlebnis und schützt gleichzeitig die Privatsphäre.
  • Gesundheitswesen: Krankenhäuser können zusammenarbeiten, um Diagnosemodelle, z. B. für die medizinische Bildanalyse, anhand von Patientendaten zu trainieren, die über verschiedene Einrichtungen verteilt sind. Dies ermöglicht robustere Modelle, die an verschiedenen Populationen trainiert werden, ohne dabei gegen Vorschriften zur Wahrung der Patientenvertraulichkeit wie HIPAA zu verstoßen. Lies mehr über Federated Learning für die Gesundheitsinformatik. Ultralytics erforscht ähnliche Bereiche in seinen KI-Lösungen für das Gesundheitswesen.

Vorteile von föderalem Lernen

  • Verbesserter Datenschutz: Die Rohdaten verbleiben auf den lokalen Geräten, was das Risiko von Datenschutzverletzungen oder -missbrauch deutlich verringert.
  • Geringere Kommunikationskosten: Es werden nur Modellaktualisierungen übertragen, die in der Regel kleiner sind als Rohdatensätze, was Bandbreite spart.
  • Zugang zu vielfältigen Daten: Ermöglicht das Training auf großen, heterogenen Datensätzen, die auf verschiedene Nutzer/innen oder Organisationen verteilt sind, was zu robusteren und verallgemeinerbaren Modellen führen kann, die weniger anfällig für Overfitting sind.
  • Einhaltung gesetzlicher Vorschriften: Hilft Organisationen bei der Einhaltung strenger Datenschutzbestimmungen (z. B. GDPR, CCPA).

Herausforderungen des föderierten Lernens

  • Engpässe bei der Kommunikation: Die häufige Kommunikation zwischen dem Server und zahlreichen Clients kann langsam und kostspielig sein, insbesondere bei unzuverlässigen Netzwerken.
  • Heterogenität der Systeme: Clients haben oft unterschiedliche Hardwarekapazitäten, Netzwerkverbindungen und Stromverfügbarkeit, was das synchrone Training erschwert. Frameworks wie TensorFlow Federated versuchen, dies zu bewältigen.
  • Statistische Heterogenität: Die Daten der verschiedenen Kunden sind oft nicht identisch, d.h. sie folgen nicht der gleichen Verteilung, was die Konvergenz und Leistung der Modelle beeinträchtigen kann.
  • Sicherheitsaspekte: Auch wenn das System die Privatsphäre verbessert, kann es dennoch anfällig für spezifische Angriffe auf Modellaktualisierungen oder den Aggregationsprozess sein, was robuste Datensicherheitsmaßnahmen erfordert. ML-Gemeinschaften wie OpenMined, die die Privatsphäre schützen, arbeiten an der Lösung dieser Probleme.

Trotz dieser Herausforderungen stellt Federated Learning einen bedeutenden Fortschritt in der datenschutzfreundlichen Künstlichen Intelligenz (KI) dar. Plattformen wie Ultralytics HUB können die Modellbereitstellung und die Verwaltung von Modellen erleichtern, einschließlich solcher, die möglicherweise mit föderierten Ansätzen entwickelt wurden. In der Ultralytics kannst du verschiedene Optionen für die Modellbereitstellung erkunden. Weitere Informationen über die Kombination von FL mit anderen Techniken findest du im Blogbeitrag Active Learning speeds up computer vision development.

Alles lesen