Statt Daten an einen zentralen Server zu senden, bleiben sie dort, wo sie entstehen – auf Geräten oder lokalen Servern. Das Modell wird direkt vor Ort trainiert, und nur die Modell-Updates (z.B. Gewichte und Gradienten) werden geteilt. So können Unternehmen und Organisationen KI-Modelle verbessern, ohne sensible Daten offenzulegen oder Datenschutzgesetze zu verletzen. Ideal für Anwendungen wie personalisierte Sprachassistenten, medizinische Diagnosen oder smarte IoT-Geräte.

Entwicklungsstand

Erste Erprobung in der Praxis

Wissenschaftliche Fundierung

Entwicklung und Konkretisierung

Erste Erprobung in der Praxis

Evaluierung und Optimierung

Fertig für den praktischen Einsatz

Welches Problem liegt in vielen Unternehmen vor?

Oft gibt es eine räumliche Verteilung gewaltiger Datenmengen in Unternehmen. Mit diesen soll ein neuronales Netz trainiert effizient werden, ohne dass diese Daten in die falschen Hände geraten.

Wie trägt das Tool zur Lösung des Problems bei?

Federated Learning basiert auf einer kleinen Serverstruktur. Der Federated Server broadcasted das Machine Learning-Modell an verschiedene Geräte, die das Modell lokal mit den jeweils vorhandenen Daten trainieren. Danach wandern die Daten zurück in die Cloud und der Server aggregiert ein neues Modell.

Wie wird das Tool im Unternehmen angewandt?

In einem mittelständischen Unternehmen sollen Maschinen mit anomaly detection überprüft werden. Entweder kann jede Maschine ein eigenes ML-Modell besitzen, dann kann sich das Modell jedoch nicht an neue Umgebungen anpassen. Oder jede Maschine wird auf den lokalen Daten trainiert, die aber möglicherweise nicht ausreichen, um ein Modell optimal zu generieren. Hier kommt Federated Learning ins Spiel: Die Maschinen bekommen ein vortrainiertes Modell und laden dann ihre Daten in die Cloud hoch, so dass ein neues Modell generiert werden kann. So können auch neue Geräte hinzugefügt werden und die Routine ist bei Ausfällen einzelner Geräte gesichert.

Mit welchem (zeitlichem) Aufwand für das Unternehmen geht die Einwendung einher?

Die Einführung von Federated Learning (FL) erfordert 3–12 Monate für Planung, Infrastruktur, Modellentwicklung und Datenschutzkonformität. Im laufenden Betrieb entstehen regelmäßig wenige Stunden bis Tage Aufwand pro Monat für Trainingszyklen, Wartung und Optimierungen. Schulungen und effiziente Integration können den Aufwand langfristig reduzieren. Der genaue Zeitbedarf variiert je nach Anwendungsfall und Ressourcen.

Welchen Mehrwert stiftet das Tool im Unternehmen?

Federated Learning macht kollaboratives Lernen möglich. Der Datenschutz wird eingehalten, keine Daten werden an Dritte geschickt. Aufgrund seiner Einfachheit ist Federated Learning sehr effizient.

Wiss. Veröffentlichungen

  1. Glitza, L. Becker and R. Martin, „Global vs. Local Federated Learning in Heterogeneous Acoustic Environments,“ Speech Communication; 15th ITG Conference, Aachen, 2023, pp. 171-175, doi: 10.30420/456164033.
  2. Glitza, L. Becker and R. Martin, „Unsupervised Anomalous Sound Detection Using Loss-Weighted Clustered Federated Pre-Training,“ 2024 IEEE 34th International Workshop on Machine Learning for Signal Processing (MLSP), London, United Kingdom, 2024, pp. 1-6, doi: 10.1109/MLSP58920.2024.10734732.

Das Tool wurde im Kontext eines Federated Learning-Ansatzes für Anomaly Detection eingesetzt, um Anomalien in verteilten, dezentral gespeicherten Datensätzen zu erkennen, ohne die Rohdaten der einzelnen Clients offenzulegen. Jeder Client trainierte lokal ein Modell, wobei die individuellen Loss-Werte mit einem selbstentwickelten Koeffizienten gewichtet wurden, der Faktoren wie Datenqualität, Anomaliedichte und Vertrauenswürdigkeit der Clients berücksichtigte. Die gewichteten Loss-Werte wurden zentral aggregiert, um ein globales Modell zu optimieren, das anschließend auf seine Effektivität evaluiert wurde. Der Vergleich mit herkömmlichen Aggregationsmethoden zeigte, dass die gewichtete Loss-Funktion besonders in heterogenen und unbalancierten Datenszenarien eine verbesserte Anomalieerkennungsleistung erzielte.

AnsprechpartnerInnen
Luca Becker
Luca Becker
Institut für Kommunikationsakustik