Bayesian Federated Learning (Bfl) ermöglicht die Quantifizierung der Unsicherheit und
robuste Anpassung im verteilten Lernen. Im Gegensatz zum Frequentisten
Ansatz, Es schätzt die hintere Verteilung eines globalen Modells, Angebot
Einblicke in die Modellzuverlässigkeit. Jedoch, Aktuelle BFL -Methoden vernachlässigen kontinuierlich
Lernprobleme in dynamischen Umgebungen, in denen sich Datenverteilungen verschieben
Zeit. Wir schlagen ein kontinuierliches BFL -Gerüst vor
Daten über mehrere Tage gesammelt. Verwendung der stochastischen Gradienten Langevin -Dynamik
(SGLD), Unser Ansatz aktualisiert nacheinander das Modell, Nutzung vergangener Posterioren
Um die neuen Aufgaben zu konstruieren. Wir bewerten die Genauigkeit, das erwartete
Kalibrierungsfehler (ECE) und die Konvergenzgeschwindigkeit unseres Ansatzes gegen
mehrere Baselines. Die Ergebnisse unterstreichen die Effektivität des kontinuierlichen Bayes'schen
Aktualisierungen bei der Erhaltung von Wissen und Anpassung an sich weiterentwickelnde Daten.
Dieser Artikel untersucht Zeitreisen und deren Auswirkungen.
PDF herunterladen:
2504.15328v1