S
sicherheit.ai
KI-Sicherheit & Cybersecurity
_
KI

Federated Learning

KI-Trainingsansatz, bei dem Modelle dezentral auf lokalen Geräten trainiert werden, ohne dass rohe Daten die Geräte verlassen müssen.

🧒
Einfach erklärt
Für jeden verständlich — ohne Vorkenntnisse

Stell dir vor, 1000 Handys lernen zusammen eine Sprache — aber jedes Handy benutzt nur seine eigenen Texte. Am Ende teilen sie nicht die Texte, sondern nur was sie gelernt haben. So kann eine KI verbessert werden, ohne dass persönliche Nachrichten den Server verlassen.

Ausführliche Erklärung

Federated Learning wurde von Google entwickelt um ML-Modelle auf Smartphones zu trainieren ohne private Nutzerdaten zentralisieren zu müssen. Funktionsprinzip: Lokale Modelle werden auf jedem Gerät mit lokalen Daten trainiert, nur Modell-Gradienten (nicht die Daten) werden an einen zentralen Server gesendet, aggregiert und in das globale Modell eingearbeitet. Datenschutzvorteile: Rohdaten verlassen das Gerät nie. Sicherheitsrisiken: Gradient-Inversion (Daten aus Gradienten rekonstruieren), Model Poisoning durch bösartige Teilnehmer.

>Wie funktioniert das?

1

Globales Modell wird an alle teilnehmenden Geräte verteilt

2

Jedes Gerät trainiert lokal mit seinen eigenen Daten

3

Nur die berechneten Modell-Updates (Gradienten) werden verschlüsselt an den Server gesendet

4

Server aggregiert alle Updates (Federated Averaging) zu einem neuen globalen Modell

5

Verbessertes Modell wird wieder verteilt — ohne dass Rohdaten je den Ursprungsort verlassen.

?Häufig gestellte Fragen
Antwort

Google (Tastatur-Vorhersage auf Android), Apple (Siri-Verbesserung), Gesundheitssektor (Medizinische KI ohne Datenteilung zwischen Krankenhäusern) und Finanzinstitute (Betrugserkennung).

Antwort

Angreifer können aus den gesendeten Gradienten mit mathematischen Methoden Rückschlüsse auf die ursprünglichen Trainingsdaten ziehen — damit ist der Datenschutzvorteil teilweise aufhebbar.

Antwort

Überall wo Daten sensitiv und regulatorisch nicht zentralisierbar sind: Medizin (Patientendaten), Finanzen (Transaktionsdaten), Mobile (persönliche Kommunikation) und IoT-Geräte.

Antwort

Weil Gradient Inversion, Membership Inference Attacks und Model Poisoning durch bösartige Teilnehmer Risiken darstellen — Differential Privacy und Secure Aggregation sind nötige Ergänzungen.

Antwort

Durch robuste Aggregationsmethoden (Median statt Average), Anomalie-Erkennung in Gradienten, Byzantine-Fault-tolerante Algorithmen und kryptografische Verifikation der Teilnehmeridentität.

Alle Begriffe im Glossar
APTBrute-Force-AngriffBotnetCVECredential StuffingDDoSEDRFirewallHoneypotIDSKI-Angriff (Adversarial AI)Lateral MovementLLM-SicherheitMalwareMFANetzwerksegmentierungOSINTPasskeysPatch ManagementPhishingPrompt InjectionRansomwareSIEMSocial EngineeringSQL-InjectionThreat IntelligenceTTPWAFXDRZero-DayZero TrustXSSCSRFMitMSupply-Chain-AngriffSpear-PhishingVishingSmishingWatering-Hole-AngriffDrive-by-DownloadInsider-BedrohungTyposquattingClickjackingDNS-SpoofingSession-HijackingBECCryptojackingSIM-SwappingSOCPentestThreat HuntingRed TeamBlue TeamDevSecOpsSecurity Awareness TrainingVulnerability ManagementSASTDAST3-2-1 Backup-StrategieCyber-VersicherungNIS2DSGVOISO/IEC 27001BSI IT-GrundschutzNIST CSFKRITIS — Kritische InfrastrukturenPCI-DSSCRATISAX — Automotive InformationssicherheitBCMMeldepflicht bei DatenpannenAdversarial Machine LearningModel PoisoningDeepfakeKI-HalluzinationLLM-JailbreakFederated LearningShadow AITrojanerComputerwurmSpywareRootkitKeyloggerFileless MalwareBackdoorInfostealerWiperwareAdwareOAuth 2.0SAMLSSOPAMIAMRBACPasswort-ManagerBiometrische AuthentifizierungHardware-SicherheitsschlüsselVPNDMZVLANPort-ScanningBGP-HijackingIPSNACTLSSSHHTTPS — HyperText Transfer Protocol SecureSPF, DKIM & DMARC — E-Mail-AuthentifizierungIPsec — Internet Protocol SecurityAPI-SicherheitDNSSEC