Orientierungshilfe für KI

Das überarbeitete Diskussionspapier des LfDI BW

Der Bereich der Künstlichen Intelligenz (KI) hat in den vergangenen Jahren enorme Fortschritte zu verzeichnen und prägt damit nachhaltig den Wandel in Wirtschaft, Wissenschaft und unserer Gesellschaft. Moderne KI-Anwendungen werden bereits heute in verschiedenen Lebens- und Arbeitsbereichen eingesetzt.¹ Gleichzeitig wirft der rasante Fortschritt eine Reihe von datenschutzrechtlichen Fragestellungen auf, da bei der Entwicklung und dem Einsatz von KI regelmäßig auch personenbezogene Daten verarbeitet werden.² Aus diesem Grund haben einige Datenschutzaufsichtsbehörden und andere europäische Akteure zur Schaffung von mehr Rechtsklarheit verschiedene Hilfestellungen und Orientierungshilfen entwickelt.³ Auch der Landesbeauftragte für den Datenschutz und die Informationsfreiheit Baden-Württemberg (LfDI BW) hat mit seinem Diskussionspapier „Rechtsgrundlagen im Datenschutz beim Einsatz von Künstlicher Intelligenz“ einen bedeutenden Beitrag für Verantwortliche im Umgang mit KI geliefert. Aktuell liegt die Version 2.0 des Diskussionspapiers vor.

I. Diskussionspapier des LfDI BW

Am 13. November 2023 hat der LfDI BW als eine der ersten deutschen Aufsichtsbehörden sein Diskussionspapier zu den Rechtsgrundlagen im Datenschutz beim Einsatz von Künstlicher Intelligenz veröffentlicht.⁴ Ziel des Diskussionspapiers ist es, neben der Förderung einer nachhaltigen digitalen Entwicklung verantwortlichen Stellen eine praxisnahe Hilfestellung für den Einsatz von KI-Systemen zu geben.⁵ Es stellt insoweit eine umfassende – nicht abschließende – Arbeitshilfe für die Praxis dar, um spezifische Einsatzszenarien innerhalb des rechtlichen Rahmens besser verorten zu können. Angesichts der kontinuierlichen technologischen Fortschritte und neuer Erkenntnisse im Bereich der KI ist das Diskussionspapier als ein dynamisches, „lebendes“ Dokument zu verstehen; die Inhalte werden regelmäßig überprüft und bei Bedarf angepasst. Dadurch kann sichergestellt werden, dass die Inhalte stets den aktuellen Standards und den wissenschaftlichen Entwicklungen entsprechen.

Die erste Version wurde auf Grundlage zahlreicher Rückmeldungen von Bürger_innen und Praktiker_innen durch die verschiedenen KI-Fachreferenten des LfDI BW umfassend überarbeitet. Dabei wurden nationale als auch europäische Entwicklungen in die Überarbeitung miteinbezogen. Seit dem 17. Oktober 2024 steht die aktualisierte Version 2.0 des Diskussionspapiers auf der Webseite des LfDI BW zum Abruf bereit.⁶

1. Inhaltlicher Überblick – Was wurde aktualisiert?

Bei der Überarbeitung hat der LfDI BW einen besonderen Fokus auf die Rechtsgrundlagen der Datenschutz-Grundverordnung (DS-GVO) sowie auf Themen gelegt, die damit in einem engen Zusammenhang stehen, um den aktuellen Entwicklungen und Herausforderungen in der Datenschutzpraxis gerecht zu werden. Andere datenschutzrechtlich relevante Themen werden, wie bereits in der ersten Version des Diskussionspapiers, ausdrücklich ausgeklammert.

Die zweite Version beinhaltet unter anderem eine tiefgehende Auseinandersetzung mit der praxisrelevanten Frage des Personenbezugs bei trainierten KI-Modellen sowie eine eingehende inhaltliche Überarbeitung der Rechtsgrundlagen, bei der ein besonderer Schwerpunkt auf Art. 6 Abs. 1 lit. f DS-GVO gelegt wurde. Übergreifend wurde bei der Darstellung der Rechtsgrundlagen teilweise eine stärkere Differenzierung zwischen den einzelnen Verarbeitungsphasen vorgenommen. Außerdem wurde die Überarbeitung zum Anlass genommen, neue Abschnitte wie das Thema „Rechtsgrundlagen in der Schule“ einzufügen und andere Bereiche inhaltlich zu erweitern. Nachfolgend werden im Überblick zwei zentrale Themenkomplexe vorgestellt, die den Schwerpunkt der Überarbeitung verdeutlichen sollen.

2. Personenbezug bei KI-Modellen

Bereits zu Beginn legt das Diskussionspapier einen inhaltlichen Schwerpunkt auf die Frage, ob und inwieweit ein vollständig trainiertes KI-Modell einen Personenbezug aufweisen kann. Im Mittelpunkt der Überarbeitung steht damit eine grundlegende und in der aufsichtsbehördlichen Praxis nicht gänzlich unumstrittene Frage, deren Ergebnis neben der Anwendbarkeit der DS-GVO (Art. 2 Abs. 1 DS-GVO) auch für die Beurteilung der Datenrichtigkeit nach Art. 5 Abs. 1 lit. d DS-GVO und die Umsetzung von Betroffenenrechten entscheidend ist.⁸ Der Europäische Datenschutzausschuss (EDSA) hat in einer Stellungnahme vom Dezember 2024 insoweit bereits klargestellt, dass der Personenbezug eines trainierten KI-Modells nicht pauschal ausgeschlossen werden kann.⁹

Die DS-GVO enthält in ihrer aktuellen Fassung keine KI-spezifischen Vorschriften, sodass sich die datenschutzrechtliche Bewertung der Personenbeziehbarkeit eines KI-Modells nach der allgemeinen Begriffsbestimmung aus Art. 4 Nr. 1 DS-GVO richtet.¹⁰ Ein Personenbezug wird demzufolge regelmäßig dann gegeben sein, wenn das KI-Modell entweder bereits selbst personenbezogene Informationen über natürliche Personen beinhaltet¹¹ oder eine Identifizierbarkeit mit Zusatzinformationen (z. B. durch Darstellung der Daten im trainierten KI-Modell)12 möglich ist. Dabei sind gem. EwGr. 26 S. 4 DS-GV zugleich sämtliche Mittel wie etwa technologische Entwicklungen und verfügbare Technologien einzubeziehen, deren Nutzung nach allgemeinem Ermessen wahrscheinlich ist.

Das Diskussionspapier stellt in diesem Zusammenhang ausdrücklich klar, dass ein KI-Modell bei der Beurteilung des Personenzugs nicht isoliert betrachtet werden kann, sondern es hierfür einer umfassenden Gesamtbetrachtung bedarf.¹³ In der Version 2.0 des Diskussionspapiers wurde neben der Möglichkeit gezielter Cyberangriffe (sogenannter Model Attacks) nun auch ein weiteres bedeutendes Argument für die Beurteilung des Personenbezugs berücksichtigt: Die grundsätzliche Möglichkeit, durch bestimmte Eingabeprompts personenbezogene Informationen von dem Sprachmodell zu erhalten. Dies kann in der Art erfolgen, dass der Nutzende das KI-Modell gezielt mit der Frage „Wer ist…?“ ansteuert, um eine personenbezogene Information (z. B. Namen einer Person des öffentlichen Lebens) zu erhalten. Eine Zurechenbarkeit zu Lasten des KI-Anbieters kann indes davon abhängen, ob und inwieweit er mit gezielten Eingabeprompts vernünftigerweise rechnen muss. In diesem Zusammenhang können die Detailliertheit der Anfrage (z. B. die Frage nach dem Vorwurf einer Straftat an einem bestimmten Ort zu einer bestimmten Zeit) sowie die implementierten technisch-organisatorischen Maßnahmen von Relevanz sein.

Die Ausführungen des LfDI BW verdeutlichen insoweit, dass das Datenschutzrecht bei der Entwicklung und dem Einsatz eines KI-Modells – auch wenn sich der Personenbezug nicht direkt aufdrängt – stets von Anfang an mitgedacht werden sollte.

3. Rechtsgrundlage nach Art. 6 Abs. 1 lit. f DS-GVO

Im Mittelpunkt des Diskussionspapiers stehen die einzelnen Rechtsgrundlagen, über die eine Verarbeitung personenbezogener Daten gerechtfertigt werden können. Dabei kommt der Rechtsgrundlage nach Art. 6 Abs. 1 lit. f DS-GVO für nicht-öffentliche Stellen regelmäßig eine besondere Bedeutung zu, da sich die Vorschrift aufgrund des offen gehaltenen Tatbestands für unterschiedliche Datenverarbeitungskonstellationen besonders eignet.¹⁴

In der überarbeiteten Fassung wurden einige Beispiele für KI-spezifische berechtigte Interessen eingefügt, die sich mit den Empfehlungen der französischen Datenschutzaufsichtsbehörde CNIL¹⁵ decken. Zudem wurden einige Anpassungen und Ergänzungen bei der Interessenabwägung vorgenommen. Im Vergleich zur ersten Auflage zählt das Diskussionspapier neben allgemeinen Punkten insbesondere KI-spezifische Abwägungskriterien auf, die einen entsprechenden Einfluss auf das Ergebnis der Interessenabwägung haben können.

Hierzu gehört neben der Erwartungshaltung der betroffenen Person (EwGr. 47 DS-GVO) vor allem der Umfang und die Art des allgemeinen Nutzens eines KI-Systems sowie der Umstand, ob das betreffende KI-Modell frei zugänglich und sicher ist.¹⁶ Gänzlich neu eingefügt wurden des Weiteren zwei Praxisbeispiele17 für eine Interessenabwägung, denen im datenschutzrechtlichen KI-Kontext eine besondere Bedeutung zukommt.

Große Sprachmodelle (Large Language Models)

Das erste Praxisbeispiel behandelt die Entwicklung und Nutzung großer Sprachmodelle.18 Das Papier nennt in diesem Zusammenhang einige Argumente zur Bewertung der berechtigten Interessen. Dabei wird betont, dass bei der Beurteilung berechtigter Interessen Faktoren wie der Nutzen des Modells, eine Open-Source-Bereitstellung und die Vermeidung gefährlicher Anwendungen eine Rolle spielen können. Zudem wird darauf hingewiesen, dass die Entwicklung von LLM in der Regel nicht auf die Verarbeitung personenbezogener Daten abzielt und daher grundsätzlich nicht mit einem intensiven Profiling im Sinne der DS-GVO zu vergleichen ist. Auch kann im Big-Data-Kontext unter Umständen die Identifizierungswahrscheinlichkeit des Einzelnen geringer sein, was mit in eine Bewertung einfließen kann. Demgegenüber kann das Trainieren eines LLM jedoch einen potenziell größeren Eingriff in die Rechte von Personen darstellen, da LLM oft weniger transparent und erklärbar sind, was zu einem möglichen Kontrollverlust der betroffenen Personen führen kann.

Entwicklung KI-basierter Fahrassistenzsysteme

Das zweite Praxisbeispiel beschäftigt sich mit der Entwicklung von KI-basierten Fahrassistenzsystemen.19 Derartige Systeme erfordern oft die Verarbeitung personenbezogener Daten insbesondere für KI-gestützte Funktionen im Straßenverkehr. Es wird betont, dass dabei die Datenschutzrechte der Verkehrsteilnehmer gewahrt bleiben müssen gewahrt bleiben müssen, vor allem wenn diese nicht aktiv am Verkehr teilnehmen. Entscheidend kann neben deren Erwartungshaltung und dem Umfang der Datenerhebung unter anderem sein, ob die Daten anonymisiert werden und ob die Erhebung dem Gemeinwohl dient, wie etwa der Verbesserung der Verkehrssicherheit. Schutzbedürftige Gruppen wie Kinder sollten besonders berücksichtigt werden.

Auch technische Maßnahmen können den Eingriff in die Privatsphäre verringern.

II. Europäische Entwicklungen: Stellungnahme des EDSA

Datenschutzbehörden auf nationaler und europäischer Ebene haben Leitlinien für den datenschutzkonformen Einsatz von Künstlicher Intelligenz veröffentlicht. Der EDSA hat auf Ersuchen der irischen Datenschutzaufsichtsbehörde (DPC) ebenfalls eine Stellungnahme veröffentlicht, die wichtige datenschutzrechtliche Fragen im Zusammenhang mit KI klärt und Rechtsklarheit schafft.20 Die Stellungnahme gibt zwar keine konkreten Aussagen zu bestehenden KI-Modellen, setzt jedoch wichtige Rahmenbedingungen für die datenschutzrechtliche Prüfung von KI-Systemen.

Der EDSA hat dabei im Wesentlichen festgehalten, dass KI-Modelle regelmäßig personenbezogene Daten enthalten und eine Verarbeitung ebendieser Daten unter bestimmten Voraussetzungen nach Art. 6 Abs. 1 lit. f DS- GVO gerechtfertigt sein kann. Auch die Auswirkungen des Einsatzes eines rechtswidrig trainierten KI-Modells werden in der Stellungnahme thematisiert. Insgesamt hat der EDSA damit einige grundlegende Datenschutzfragen im Zusammenhang mit KI beantwortet und eine europäische Orientierung vorgegeben. Aufgrund der Vielzahl noch offener Datenschutzfragen im Bereich von KI bleibt die weitere Entwicklung in Europa allerdings abzuwarten.

Daniel Maslewski, LL.M.


ist Referent, KI-Beauftragter und behördlicher Datenschutzbeauftragter beim Landesbeauftragten für den Datenschutz und die Informationsfreiheit Baden-Württemberg.

Quellen

1. Geminn, ZD 2021, 354 (355).
2. Maslewski, in: Schwartmann/Keber/Zenner, KI-VO, Leitfaden für die Praxis, 2. Auflage, S. 207 Rn. 17.
3. Eine Fundstellenübersicht bietet der Orientierungshilfen-Navigator KI & Datenschutz des LfDI BW online abrufbar unter: https://www.badenwuerttemberg.datenschutz.de/onkida/ (zuletzt aufgerufen am: 11.02.2025).
4. LfDI BW, Pressemitteilung v. 13.11.2023, online abrufbar unter: https://www.baden-wuerttemberg.datenschutz.de/diskussionspapier-rechtsgrundlagen-im-datenschutz-beim-einsatz-von-kuenstlicher-intelligenz/.
5. Hierzu und im Folgenden: LfDI BW, Diskussionspapier, Version 2.0, S. 6 f.
6. Online abrufbar unter: https://www.baden-wuerttemberg.datenschutz.de/rechtsgrundlagen-datenschutz-ki/.
8. LfDI BW, Diskussionspapier, Version 2.0, S. 9.
9. EDSA, Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models, 17.12.2024, online abrufbar unter: https://www.edpb.europa.eu/system/files/2024-12/edpb_opinion_202428_ai-models_en.pdf (zuletzt abgerufen am 03.02.2025), S. 13 Rn. 31 ff. So auch LfDI BW, Diskussionspapier, Version 2.0, S. 8. Anders hingegen der HmbBfDI, vgl. HmbBfDI, Diskussionspapier: Large Language Models und personenbezogene Daten, 15.07.2024, online abrufbar unter: https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/240715_Diskussionspapier_HmbBfDI_KI_Modelle.pdf (zuletzt abgerufen am 03.02.2025), S. 1.
10. Paal, in: Kaulartz/Braegelmann, Rechtshandbuch Artificial Intelligence und Machine Learning, 2020, S. 427 Rn. 1 f.
11. LfDI BW, Diskussionspapier, Version 2.0, S. 8.
12. Kaulartz, in: Kaulartz/Braegelmann, Rechtshandbuch Artificial Intelligence und Machine Learning, 2020, S. 463 Rn. 4; LfDI, BW, Diskussionspapier, Version 2.0, S. 7.
13. Hierzu und im Folgenden: LfDI BW, Diskussionspapier, Version 2.0, S. 8 f.
14. Keber/Maslewski, RDV 2023, 273 (278).
15. CNIL Recommendations, AI how-to sheets, Sheet 8, Relying on the legal basis of legitimate interests to develop an AI system, 02.07.2024. Online abrufbar unter: https://www.cnil.fr/fr/node/165894 (zuletzt abgerufen am: 04.02.2025).
16. Die maßgeblichen Abwägungskriterien und das Ergebnis der Interessenabwägung hängen vom konkreten Einzelfall ab.
17. LfDI BW, Diskussionspapier, Version 2.0, S. 24.
18. Hierzu und im Folgenden: LfDI BW, Diskussionspapier, Version 2.0, S. 25.
19. Hierzu und im Folgenden: LfDI BW, Diskussionspapier, Version 2.0, S. 25 f.
20. Online abrufbar unter: https://www.edpb.europa.eu/system/files/2024-12/edpb_opinion_202428_ai-models_en.pdf (zuletzt aufgerufen am: 11.02.2025).

Die neusten Datenschutztrends

Bleiben Sie stets auf dem Laufenden und verpassen Sie keine Neuigkeiten mehr! Melden Sie sich für unseren Newsletter an und erhalten Sie regelmäßig Einladungen zu unseren Events und alle aktuellen Positionspapiere und Handreichungen.

Anmeldung zum Newsletter

Um sich für den beschriebenen Newsletter anzumelden, tragen Sie bitte hier Ihre E-Mail-Adresse ein. Sie können sich jederzeit über den Abmeldelink in unseren E-Mails abmelden.