Föderales maschinelles Lernen und der Datenschutz – neue Möglichkeiten?

Föderales Lernen ist ein neuer Ansatz des maschinellen Lernens, bei dem ein Algorithmus auf lokalen Geräten (bspw. Smartphones) angewendet und trainiert wird. Der Algorithmus und die Datensätze werden lediglich dezentral auf lokalen Geräten gespeichert. Föderales Lernen ermöglicht, große Datenmengen zu analysieren und dabei die benötigten Daten lokal zu speichern und zu verarbeiten. Nur die Parameter des Trainingsmodells werden mit einem zentralen Modell ausgetauscht.

Herkömmliche Techniken des maschinellen Lernens beruhen meist auf einer zentralisierten Datenspeicherung, bei der lokale Geräte ihre Daten in eine Cloud hochladen. In vielen Beispielen hat das maschinelle Lernen Schwierigkeiten, die zunehmenden Datenschutz- und Datensicherheitsanforderungen zu erfüllen.
Die DSGVO hat beispielweise 7 Anforderungen und Grundsätze für den Betrieb von KI-Anwendungen festgelegt:

  1. KI darf Menschen nicht zum Objekt machen
  2. KI darf nur für verfassungsrechtlich legitimierte Zwecke eingesetzt werden und das Zweckbindungsgebot nicht aufheben
  3. KI muss transparent, nachvollziehbar und erklärbar sein
  4. KI muss Diskriminierungen vermeiden
  5. Für KI gilt der Grundsatz der Datenminimierung
  6. KI braucht Verantwortlichkeit
  7. KI benötigt technische und organisatorische Standards

Der Grundsatz der Datenminimierung steht im Gegensatz zum maschinellen Lernen. Das Hauptziel des maschinellen Lernens ist es, so viele Daten wie möglich zu erhalten, damit intelligente Entscheidungen getroffen werden können. Föderales Lernen speichert und trainiert personenbezogene Daten nur auf lokalen Geräten und tauscht keine personenbezogenen Daten mit einer zetralen Cloud aus.Es gibt eine Reihe von Privacy Preserving Technologies (PPTs), um die Datensicherheit für Nutzer zu gewährleisten. Zu diesen Verschlüsselungstechniken gehören Datenaggregation und erweiterte Kryptografie: data anonymization, differential privacy, secure multi-party computation (SMC), and homomorphic encryption.

Die DSGVO regelt nur die Verwendung von personenbezogenen Daten. Wenn es sich um eine rechtlich-sichere Datenanonymisierung handelt, fällt die DSGVO nicht mehr ins Gewicht. In der Praxis ist die rechtliche Anonymisierung von Daten sehr schwer zu erreichen, da die meisten Anwendungen eine ID (Identifier) benötigen.
Föderales Lernen ist eine mögliche Lösung, um das Risiko von Datenschutzverletzungen zu mindern und die Datensicherheit zu steigern. Diese Technologie ist jedoch noch recht neu und befindet sich in einem frühen Anfangsstadium.

ePrivacy ist Teil eines großen Forschungsprojekts, das vom Bundesministerium für Bildung und Forschung gefördert wird. Ziel dieses Forschungsprojektes ist es, in Zusammenarbeit mit der Universität Hamburgund der Medizinischen Universität Greifswald, Datentreuhandmodelle im Bereich der verteilten künstliche Intelligenz in der Medizin zu erforschen und zu erproben. Eine große Menge an medizinischen Daten kann, aufgrund hoher Datenschutzanforderungen, nur sehr eingeschränkt genutzt werden. Diese hochsensiblen Daten sind für die Arzneimittel- und Therapieforschung unerlässlich. Das Forschungsprojekt beschäftigt sich mit der datenschutzkonformen Verarbeitung großer medizinischer Daten in Deutschland und ist ein Beitrag zur europäischen Datenstrategie.