Klassentreffen mit KI
Die BvD-Herbstkonferenz diskutiert über Datensicherheit und EU-Datenregulierung.
Datenschutz und Datensicherheit: Beide Themen sind in Zeiten einer wachsenden Zahl von Cyberangriffen nicht mehr voneinander zu trennen. Das wurde auf der BvD-Herbstkonferenz und dem anschließenden Behördentag vom 16. bis 18. Oktober in Stuttgart einmal mehr deutlich. Auf der mittlerweile siebten Herstkonferenz ging es unter anderem um neue Tracking-Methoden, um KI und Beschäftigtendatenschutz, um TOMs für neue Bedrohungen und um praktische Erfahrungen aus einem Cyberangriff.
Es ist ein „Klassentreffen“ der besonderen Art: Zum mittlerweile siebten Mal trafen sich interne und externe Datenschutzbeauftragte zum Austausch mit den Aufsichtsbehörden von Bayern und Baden-Württemberg zur BvD-Herbstkonferenz. Das Motto der diesjährigen Ausgabe in Stuttgart: „Regularien-Tsunami: Mit Sicherheit den Durchblick behalten“. Das Motto griff gleich zwei Schwerpunktthemen der Konferenz auf: Einerseits müssen Datenschutzbeauftragte die bereits vorliegenden, aber auch die noch folgenden Regularien aus Brüssel in die Datenschutzpraxis übersetzen. Andererseits steht das Thema Datensicherheit ganz oben auf der Agenda.

Klassentreffen im Datenschutz
In seinem Grußwort regte der Landesbeauftragte für den Datenschutz und die Informationsfreiheit Baden-Württemberg (LfDI), Tobias Keber, an, einmal über eine „KI-Datenschutzverordnung“ nachzudenken. „Das würde manches erleichtern“, sagte er zur Begrüßung der rund 250 internen und externen Datenschutzbeauftragten in Stuttgart. Aber so lange es so eine Regelung nicht gebe, bleibe es beim Goldstandard und bei den zum Teil abstrakten Regeln der KI-VO. Keber hatte für seine Grußworte gleich die KI bedient: „Wie kann ich in einem Bild ausdrücken, worum es geht“, hatte er sich und eine bildgenerative KI gefragt. Das Ergebnis: Ein Klassentreffen des Datenschutzes, in dem es mit dem Abschlussformat „Die Aufsichtsbehörden beantworten Ihre Fragen“ auch Extra-Raum für Fragen gebe. „Wir wissen auch nicht alle Antworten“, sagte Keber, „aber wir denken gemeinsam“.
DREI ORGANISATIONEN, EINE KONFERENZ
Die BvD-Herbstkonferenz und der traditionell anschließende Behördentag sind eine Gemeinschaftsveranstaltung des BvD mit dem Landesbeauftragten für den Datenschutz und die Informationsfreiheit Baden-Württemberg und den beiden bayerischen Aufsichtsbehörden, dem Bayerischen Landesamt für Datenschutzaufsicht und dem für öffentliche Einrichtungen zuständigen Bayerischen Landesbeauftragten für den Datenschutz. Die Herbstkonferenz und der Behördentag alternieren zwischen einem Veranstaltungsort in Baden-Württemberg und Bayern. Die BvD-Herbstkonferenz 2025 findet vom 22. bis 24. Oktober 2025 in München statt.
Sein Amtskollege Michael Will, Präsident des Bayerischen Landesamts für Datenschutzaufsicht (BayLDA), sprach in seiner Begrüßung von einem „datenschutzrechtlichen Klimawandel“, dem sich die Datenschutzbeauftragten stellen müssten. „Das erfordert Mut, eine gewissen Hartnäckigkeit“, sagte Will. Aber diese Eigenschaften zeichneten Datenschutzbeauftragte ohnehin aus.
Dabei sind die Aufsichtsbehörden selbst durchaus für KI offen – etwa, um dem Fachkräftemangel zu begegnen, wie Keber später in der Fragerunde ausführte. „Zunächst gibt es keine Denkverbote“, sagte er. Allerdings müsste die Behörde vorher klären, wie sich KI risikoarm einsetzen lasse, wo eine KI-Anwendung funktionieren könne oder wo sie womöglich Bearbeitungszeiten verlängere, weil ihre Ergebnisse von Mitarbeitenden kontrolliert werden müssten. Auch Michael Will schließt den Einsatz für die Zukunft nicht aus. Aber natürlich müssten die gesetzlichen Bedingungen vollständig erfüllt sein, sagte er. Allerdings könnte KI womöglich dazu beitragen, Meldeverfahren „ein bisschen zu bereinigen“.
KI und Daten-Souveränität
Wie Innovation und Datenschutz Hand in Hand gehen können, zeigte der Leiter des Innovationslabors Baden-Württemberg, Björn Beck. Just am Tag zuvor hatte Beck und sein Team in Berlin einen KI-Assistenten für Behörden und Kommunen vorgestellt, der auf einen Klick weiterhelfen soll. Sein Name: F13 – benannt nach der Tastatur, die es nicht gibt. Dies sei ein erster Schritt, „ein zartes Pflänzchen“ auf dem Weg, sich unabhängig von den großen amerikanischen Cybergiganten zu machen, sagte Beck. Geplant ist F13, das seinen Namen nach der nicht vorhanden Funktionstaste auf dem Computer erhielt, als Open Source, um Anwendern und Unternehmen zu ermöglichen, eine eigene hausinterne ChatGPT-Anwendung zu entwickeln. Beck ist überzeugt: „KI ist Beschleuniger für alles.“ Deshalb sei es wichtig, dass es in Deutschland und Europa eigene souveräne Plattformen für KI-Anwendungen gebe, die die DSGVO voll umsetzten.
KI und Brüssel
Dass sich Unternehmen dringend mit dem AI Act auseinandersetzen müssen, unterstrich BvD-Vorstandsmitglied Jens Eckhardt. Er war für den ausgefallenen Rechtsprofessor Philipp Hacker aus Yale eingesprungen. Denn Kapitel I und II des AI Acts gelten bereits ab dem 2. Februar 2025. Gerade im 2. Kapitel listet das EU-Gesetz die künftig verbotenen KI-Systeme auf. Zugleich muss ab dann auch in den Unternehmen eine im AI Act verlangte KI-Kompetenz vorhanden sein. Kapitel III, Abschnitt 4 zu Hochrisiko-Systemen sowie weitere Kapitel und Artikel gelten ab dem 2. August 2025, weitere Regelungen des AI Acts ab 2027. „Machen sie sich mit dem Zeitstrahl vertraut“, riet Eckhardt. Dieser sei die Grundlage für einen Projektplan.
Ab Januar 2025 ist außerdem die DORA-Richtlinie anzuwenden, im März 2025 soll nach bisherigen Plänen die NIS-2-Richtlinie greifen, außerdem kommt voraussichtlich bis Ende 2024 der Cyber Ressilience Act, der dann 2027 umzusetzen ist. Und ab 12. September nächsten Jahres gilt zudem in großen Teilen der Data Act. „Da wird etwas auf uns zukommen, was wir lösen können“, sagte Eckhardt. „Aber dass eine Geschäftsführung ohne unsere Unterstützung das hinbekommt, wage ich zu bezweifeln.“
KI und „Bürokratieabbau“
Darauf hatte BvD-Vorstandsvorsitzender Thomas Spaeing bereits bei der Begrüßung hingewiesen. Unter dem Schlagwort „Bürokratieabbau“ plane die Bundesregierung im Entwurf zur Novelle des Bundesdatenschutzgesetzes die Bennengrenze für DSB weiter aufzuweichen: Von aktuell 20 Mitarbeitenden, die regelmäßig personenbezogene Daten verarbeiten, auf dann 50. „Das Tückische ist, dass man den Unternehmen nicht offen sagt, dass sie ohne Datenschutzbeauftragte ein höheres Risiko haben, gegen Datenschutzgesetze zu verstoßen und Opfer von Cyber-Angriffen zu werden“, kritisierte Spaeing.
KI gegen KI
Dass es mit den Cyberattacken schlimmer und kaum ein Unternehmen oder kommunale Einrichtungen davon verschont bleiben wird, davon ging Unternehmer Markus Schulte in seinem Vortrag „Gegen Cyberbedrohungen gewappnet sein – so beraten Sie Ihre Kunden oder Unternehmen“ aus. Seiner Erfahrung nach gehen die Angriffe mittlerweile von hochautomatisierten KI-Systemen aus, die unter anderem per Phishing, Ransomware oder SQL-Injection Malware in die Systeme schleusen, wo sie nach mitunter erst mehreren Monaten ihre Zerstörungskraft entfalten.
Um einen Angriff möglichst glimpflich zu überstehen rät Schulte, ein ransomsicheres Backup auf eine Festplatte zu erstellen – und zwar regelmäßig, um im Falle einer Attacke auf eine nicht infizierte Version zurückgreifen zu können. Die IT beim Start des Angriffs auszuschalten, – davon rät Schulte ab, weil ein Unternehmen auf diese Weise schnell in einen geschäftskritischen Bereich geraten kann. Zudem sollten die Unternehmen online bleiben, damit die Strafverfolgungsbehörden nach der Quelle des Angriffs recherchieren können. Schulte riet außerdem, Unternehmen sollten aktiv ihre Infrastruktur auf Sicherheitslücken durchleuchten lassen. Dies gehe auch mit KI. Eine weitere Maßnahme: Jedes neue Gerät erhält ein Zertifikat, um im Netz kommunizieren zu können. Außerdem sei die Schulung der Mitarbeitenden entscheidend, um Phishing-Mails abzuwehren.
Und wenn es dann passiert? Unternehmen sollten laut Schulte für den Fall der Fälle Notfallpläne ausgearbeitet haben, die unter anderem die Telefonnummern jener enthalten, die zuerst informiert werden müssen, darunter das BKA, das BSI und Versicherungen. „Schaffen sie Awareness bei Ihren Kunden“, sagte Schulte, der mit der Defenderbox ein automatisiertes Tool entwickelte, das IT-Schwachstellen ausfindig macht. Dazu gehöre es auch, in Abständen Notfall-Übungen zu simulieren.
KI gegen kritische Infrastruktur
Wie sich ein Angriff anfühlt und welche Schlussfolgerungen sich aus der Praxis ergeben, erläuterte Michael Georgi, Bereichsleiter IT in den Technischen Werken Ludwighafen (TWL). Bei dem Versorger war am 20. April 2020 ein Angriff gestartet worden. Eine forensische Analyse ergab, dass die Erstinfektion bereits am 13. Februar durch eine E-Mail mit Hyperlink erfolgt war. Im Nachgang erhielten die Mitarbeitenden Schulungen zur E-Mail-Sicherheit, die Nutzung von Internet und E-Mail für private Zwecke wurde verboten.
Ihre IT-Infrastruktur musste die TWL neu aufsetzen. Dazu installierte der Konzern eine Reihe von Sicherheitsmaßnahmen, darunter eine leistungsstarke Firewall, eine Netzwerksegmentierung, eine teilweise Zwei-Faktor-Authentifizierung sowie ein Privileged Access Managements (PAM). Georgis Fazit nach der Erfahrung: Eine dauerhafte Zusammenarbeit mit einem externen Profi, sofort die Sicherheitsbehörden einschalten, auch bei noch unklarer Sachlage sofort die Datenschutzaufsicht informieren und ehrliche Infos an Presse und Kunden geben. Man sollte „nichts versuchen unter den Teppich zu kehren, – es kommt sowieso raus“, sagte Georgi.
KI und Werbung
Über neue Methoden des Trackings, um Werbung gezielt auszuspielen, berichteten Carolin Loy, die beim BayLDA die Stabsstelle für europäische Zusammenarbeit leitet, sowie Referent Mike Kuketz vom LfDI unter dem Titel „Goodbye Cookies. Hello Identitätsprovider“. Sie erläuterten, wie Identitätsprovider, mobile Werbe-IDs und Browser-Fingerprinting Nutzerdaten geräteübergreifend zusammenbringen, um Werbung gezielt auszuspielen. Zugleich zeigten sie die datenrechtlichen Probleme der Techniken auf. Insbesondere verstoßen die Techniken laut Loy regelmäßig gegen die Zweckbindung, gegen die Informationspflichten, gegen den Transparenzgrundsatz sowie der gebotenen Fairness. Loy und Kuketz empfehlen zumindest bei Identitätsprovidern Werbeblocker, um das Laden von trackingbasierten Drittanbieter-Skripten zu verhindern. Außerdem sollten die User im Cookie-Einwilligungsbanner stets nur erforderliche Cookies erlauben.
Insgesamt werten die beiden Fachleute die neuen Techniken als problematisch, aber bislang wenig bekannt. Aus der aufsichtsrechtlichen Praxis gebe es überwiegend Beschwerden zu Cookies, aber in den vergangenen fünf Jahren nur zwei zu den neuen Tracking-Methoden, sagte Loy.
KI in Unternehmen
Wie Konzerne KI im Unternehmen und bei ihren Produkten einsetzen, erläuterten Inga Tanzmann, Senior Lead Privacy & AI Governance bei Zalando und Sebastian Greß, Konzernbeauftragter für den Datenschutz bei der Mercedes-Benz Group. Im Gespräch mit Tobias Keber berichtete Greß, dass KI mittlerweile in vielen Bereichen des Auto-Konzerns Einzug gehalten hat, sowohl bei den Produkten wie in verschiedenen Unternehmensbereichen. Dazu entwickelte Mercedes eine eigene ChatGPT-Version. Andreas Sachs, Vizepräsident beim BayLDA stellte zehn Prüfpunkte vor, wie Unternehmen ein KI-Projekt rechtskonform zur DSGVO und der KI-VO aufsetzen können. Gemeinsam mit seinem Chef Michael Will schaute er zudem genauer auf die Anonymisierung von Daten, von der Unternehmen und Behörden hoffen, dass sie die Nutzung der Daten ohne Datenschutz ermögliche. Das sehen beide nicht. Denn: „Es wird bei vielen anonymen Daten immer Re-Identifikationsrisiken geben“, sagte Sachs. Ihr Fazit: Anonymität bei Daten herzustellen sei technisch einer der am schwierigsten zu realisierenden Verfahren.