Ein tieferer Einblick in die Microsoft 365-Copiloten
Die KI-Werkzeuge aus dem Hause Microsoft bringen für Arbeitnehmer und Unternehmen im Microsoft-Kosmos viele Vorteile mit sich, aber auch Herausforderungen.
Microsoft-Copiloten im Überblick
Microsoft-Copiloten¹ sind KI-gestützte Assistenten aus dem Hause Microsoft. Am 16. Januar 2025 hat Microsoft begonnen die Struktur ihrer KI-Werkzeuge umzubauen und die Nutzungsmöglichkeiten zu erweitern. Dies führte zu einigen Verwirrungen im Speziellen bei der Bezeichnung der Produkte und Services mit dem Namen Copilot. Neben den Namensänderungen und Funktionserweiterungen wurden alle Anwendungen und mobilen Apps umbenannt.
Jede Variante des Microsoft-Copiloten ist aktuell aus Sicht des Datenschutzes, der IT-Sicherheit und des Vertragsrechts einzeln zu bewerten.


Microsoft 365 Copilot im Unternehmen
In diesem Beitrag liegt der Schwerpunkt auf dem Paket des Microsoft 365 Copilot. Dazu gehören der Microsoft 365 Copilot Chat, der Semantic Cache³, der Microsoft Graph, die AI Agents und das Copilot Control System mit Monitoring für alle Kunden. Erweitern können Kunden dies mit der kostenpflichten Copilot for Microsoft 365-Lizenz, um in allen Office-Anwendungen Copilot nutzen zu können.
Die Sicht des Datenschutzes auf das Microsoft 365 Copilot Paket
Der Copilot for Microsoft 365 und der Microsoft 365 Copilot for Chat sind durch die Anpassung der Allgemeinen Geschäftsbedingungen (AGB) im Februar 2025 mehr zusammengewachsen. Aus diesem Grund betrachten wir beide Varianten, deren Gemeinsamkeiten und Unterschiede.
Verträge
Das Paket Microsoft 365 Copilot kann über verschiedene Vertragsarten vom Direktbezug über ein Microsoft Customer Agreement bis hin zum Enterprise Agreement bezogen werden. Für das gesamte Paket gelten seit Anfang Februar 2025 die Microsoft-AGB bestehend aus Produkt Terms (PT), Service Level Agreement (SLA) und dem Data Protection Agreement (DPA). Dazu sind beide sogenannte Core-Tools – Kernfunktionen in Microsoft 365 -, für die die DPA gilt. Für Microsoft 365 Copilot gelten zusätzlich die Microsoft-Zusagen und so auch die Enterprise Data Protection⁴.
Ein signifikanter Unterschied ist jedoch, dass der Copilot for Microsoft 365 unter das EU Boundary Program⁵ fällt und der Microsoft 365 Copilot Chat aktuell nicht. Dennoch fallen die Professional Services seit Februar 2025⁶ ebenfalls unter das EU Boundary Program, die Microsoft 365 und die Copiloten unterstützen. Eine Empfehlung ist es, im Unternehmen Microsoft 365 Copilot nur über ein Enterprise Agreement zu erwerben und zu nutzen, da so auch Zusatzverträge⁷ einbezogen werden und eine optimale Vertragsgrundlage geschaffen werden kann.
Datenverarbeitung und Datenfluss
Der Microsoft 365 Copilot Chat hat zunächst keinen Zugriff auf die Daten von Microsoft 365. Inhalte müssen als Datei hochgeladen, kopiert oder durch Öffnen im Webbrowser mit Zugriffsrechten dem Copiloten hinzugefügt werden. Die Datenverarbeitungen sind einzeln konfigurierbar. Weiterhin kann dieser über die Schnittstelle Webgrounding mit Bing-Diensten verbunden und mit AI Agents erweitert werden. Die Bing-Dienste, die aus den USA stammen und bei denen Microsoft der Controller ist, verhindern, dass der Copilot for Chat dem EU Boundary Program aktuell zugeführt werden kann. Alle anderen Funktionen laufen heute schon innerhalb Europas.
Der Copilot for Microsoft 365 hat auf alle Inhalte von Microsoft 365, die per Microsoft Graph erreichbar sind, Zugriff. So wird eine Dokumenten-Datenbank angelegt und eine Art Arbeitsspeicher, genannt Semantic Cache. Hinzukommt ein persönlicher Semantic Cache für jeden Nutzer mit einer Lizenz. Weiterhin kann über Gesichts- und Spracherkennung⁸ dieser persönliche Semantic Cache angereichert werden, so dass Funktionen wie „Schreibe es in meiner Sprache“ ausgeführt werden können.
Microsoft-Zusagen – Enterprise Data Protection
Für den Microsoft 365 Copilot Chat und den Copilot for Microsoft 365 gelten die folgenden Microsoft-Zusagen, die auch vertraglich in den Enterprise-Verträgen im Zusammenhang mit den AGB vereinbart wurden:
- Prompts, Antworten und Webanfragen werden nicht zum Trainieren der Basismodelle verwendet.
- Eingabeaufforderungen, Antworten und Webabfrage werden protokolliert und stehen für Audits, eDiscovery und Aufbewahrung zur Verfügung⁹.
- DPA¹⁰ und Produktbedingungen¹¹ gelten für Copilot-Anfragen und -Antworten, die innerhalb der Grenzen des Microsoft 365-Dienstes bleiben.
- Copilot berücksichtigt das Identitätsmodell, die Benutzerberechtigungen und die Richtlinien des Unternehmens, um Datenverluste zu verhindern.
- Schutz vor der Erzeugung schädlicher Inhalte, böswilligen Akteuren und Angriffen.
Zu den Microsoft-Zusagen gehört auch jene, dass Ergebnisse, die mit den Copiloten erstellt wurden, unter die persönliche Urheberschaft des Schöpfers, also der nutzenden Person, fallen.¹²
Ein wichtiger Punkt ist, dass die Microsoft-Zusagen nicht mehr gelten, wenn Unternehmen und deren Nutzenden sich nicht an die Nutzungsbedingungen halten oder das Unternehmen sich entscheidet die Auditlogs oder das Abuse Monitoring zu deaktivieren; also das Tracking und die Schutzfunktionen.
Typische datenschutzrechtliche Risiken beim Einsatz
Im Rahmen des Einsatzes der Microsoft 365-Copiloten können die folgenden Risiken eintreten:
- Datenabflusss durch Webgrounding und fehlerhaftem Berechtigungskonzept
- Unberechtigter Zugriff Dritter
- Identitätsdiebstahl
- Verarbeitung von biometrischen Daten wie der Emotionserkennung
- Erstellung von Inhalten mit Verstößen gegen geltendes Recht (zum Beispiel gegen das Strafrecht)
Technisch und organisatorische Maßnahmen
Es ist möglich die Microsoft-Copiloten je nach Risikobewertung mit entsprechenden technischen und organisatorischen Maßnahmen zu versehen, um das Risiko zu begrenzen. Hierbei kann man die Maßnahmen unterscheiden in diejenigen, die im Bereich von Privacy by Default vom System Microsoft 365 bereitgestellt werden und jenen, die vom Unternehmen explizit konfiguriert werden müssen. Die wichtigsten Maßnahmen zum Zeitpunkt der Veröffentlichung dieses Beitrags sind:
Tracking und Reports
Beide Microsoft-Copiloten werden innerhalb der Microsoft 365 Service Boundary verarbeitet und gelten als geteilte Services, die die jeweiligen Berechtigungen respektieren. Die Prompt-Eingaben, verstanden als Copilot-Interaktionen, werden in den Auditlogs für 180 Tage¹³ gespeichert.
Diese enthalten die Information wer, wann und in welcher Anwendung¹⁴ Microsoft Copilot nutzte, jedoch nicht den Prompt selbst. Möchte man auch den Prompt und das Ergebnis sehen, dann muss man auf DSPM for AI¹⁵ zurückgreifen, welche Regeln für Data Loss Prevention, Insider Risk Management, Communication Compliance und die Installation eines Browserplugins beinhaltet.
Löschen und Aufbewahren
Im Rahmen der Nutzung der Copiloten entstehen Telemetriedaten, aber auch eine Historie der Prompts für jeden Nutzenden. So können alle Nutzenden über ihr Microsoft 365-Profil diese Historie/diesen Verlauf und damit die Prompts der Microsoft 365-Copiloten selbstständig löschen¹⁶. Dies hat jedoch keine Auswirkungen auf die Auditlogs.

Weiterhin können Administratoren seit Mitte Februar 2025 in Vorschau und ab Juni 2025 eine Retention Policy (Löschregel) nutzen, um automatisiert für Nutzende getrennt vom Teams-Chat die Copilot Interaktionen nach einem bestimmten Zeitraum zu löschen oder aufzubewahren.

Abuse Monitoring der Copiloten
Microsoft 365 Copilot unterliegt einem Abuse Monitoring von Microsoft. So gelten in Europa andere ethische Regeln und Grundsätze als in den USA.
In monatlichen Tests konnte nachgewiesen werden, dass Microsoft auf die Kritik von Aufsichtsbehörden und Datenschützern nach mangelnden Rechtsgrundlagen reagiert und den Filter verschärft hat. So sind seit Februar 2025 Abfragen und Analysen mit Hinblick auf Emotionen von Personen, Verhaltens- und oder Leistungskontrollen erschwert bis nicht möglich.
Es führt jedoch zu einer Überregulierung des KI-Systems in Deutschland. Der Autor hat versucht ein Bild zur KI-Verordnung erstellen zu lassen:

Die Verarbeitung des Abuse Monitoring erfolgt für Microsoft 365-Umgebungen mit einer europäischen Rechnungsadresse innerhalb von Europa, die 30 Tage bei Microsoft gespeichert wird. Sollte es zu übermäßigen Verstößen kommen, kann Microsoft den Nutzer sperren und damit die Nutzung von Copilot beenden. Eine genaue Grenze ist jedoch nicht definiert.
Webgrounding
Das Thema Webgrounding, also ein Webzugriff, kann ein datenschutzkritisches Thema sein. Webgrounding erlaubt es dem Copiloten auf Internetservices wie Bing-Dienste und andere vom Unternehmen angebundene Dienste zum Beispiel über AI Agents zuzugreifen.

Transkription
Damit der Copilot Zugang zu Informationen aus einer Besprechung
in Teams hat muss die Transkription aktiviert
sein. Diese wird in zwei Varianten angeboten:
- Copilot for Microsoft 365 nutzt die auch nach der Besprechung verfügbare Transkription (Transkription ein, Aufnahme und Transkription ein)
- Copilot for Microsoft 365 nur während der Besprechung sowie die Transkription verfügbar
(„nur während der Besprechung“ als Option ausgewählt)
Für die Transkription gilt das Gleiche wie für die Aufnahme, wenn die Einwilligungsoption für Besprechungen eingestellt ist. Es muss entsprechend von allen Teilnehmenden eine Einwilligung abgegeben werden, die in dem Besprechungsprotokoll und in den Auditlogs gespeichert werden.¹⁷

Datenschutzinformationen
Durch die Limitierung, nur eine URL in Microsoft 365 zu Datenschutzinformationen hinterlegen zu können, ist es ratsam eine modulare Datenschutzinformation zu erstellen. Diese sollte einen Teil zu Microsoft 365 Copilot Chat und einen zu Copilot for Microsoft 365 und den Komponenten beinhalten. Des Weiteren ist an die Einwilligung während der Teams-Besprechungen zu denken, so dass den Anforderungen der Art. 6 Abs. 1 lit. a DSGVO genüge getragen werden kann und auch §§ 13, 14 KUG.
Nutzungsbedingungen
Es ist zu empfehlen, dass für die Nutzung von Microsoft 365 Copilot entsprechend Nutzungsbedingungen erstellt und den Nutzenden vor der Nutzung zur Verfügung gestellt werden. Diese sollten neben den Inhalten der Microsoft Copilot-Nutzungsbedingungen auch die eigenen unternehmensinternen Regelungen beinhalten. Es ist möglich, einheitliche Nutzungsbedingungen für Microsoft 365 Copilot zu erstellen und auf die unternehmenseigene KI-Richtline¹⁸ zu verweisen. Die Praxis zeigt, dass einheitliche Nutzungsbedingungen für Microsoft 365 und Copiloten verteilt über die Funktion Terms of Use die beste Lösung darstellt. So können die Nutzenden in ihrem Profil unter Datenschutz jederzeit nachschauen. Sie erhalten außerdem eine dokumentierte Bestätigung, dass sie die Nutzungsbedingungen gelesen haben.
Fazit des Einsatzes von Microsoft 365
Zusammenfassend hat Microsoft insbesondere seit Februar 2025 dafür gesorgt, dass durch systemseitige Maßnahmen, Vertragsanpassungen der AGB und technische Möglichkeiten ein Einsatz ohne hohe datenschutzrechtliche Risiken möglich sein kann. Dabei ist zu beachten, dass ein bloßes Aktivieren der Lizenzen insbesondere für den Copilot for Microsoft 365 nicht ausreicht. Hier gilt es, einige Vorarbeiten durchzuführen. Der Microsoft 365 Copilot for Chat hingegen ist in wenigen Tagen einsatzbereit.
Quellen
1. https://www.microsoft.com/de-de/microsoft-copilot, abgerufen am 14.02.2025.
2. Microsoft Clipchamp ist ein browserbasierter Videoeditor von Microsoft; https://clipchamp.com/de/windows-video-editor/, abgerufen am 10.02.2025.
3. Der Semantic Cache von Microsoft verbessert die Datenbankabfragen, indem er häufig verwendete Daten intelligent speichert und kontextuelle Informationen hinzufügt. Dies führt zu schnelleren Antworten und relevanteren Ergebnissen für die Benutzer.
4. https://learn.microsoft.com/en-us/copilot/microsoft-365/enterprise-data-protection, abgerufen am 10.02.2025.
5. Das EU Boundary Program von Microsoft zielt darauf ab, die Speicherung und Verarbeitung von Daten innerhalb der EU-Grenzen zu gewährleisten. https://www.microsoft.com/de-de/trust-center/privacy/european-data-boundary-eudb, abgerufen am 10.02.2025.
6. Siehe Produkt Terms vom 01. Februar 2025.
7. z.B. Berufsgeheimnisträger.
8. Steuerbar über Microsoft Teams. Jeder Nutzer kann diese Funktionen starten, beenden und die Daten löschen. Der Administrator kann die Funktion nur deaktivieren oder zur Verfügung stellen.
9. Microsoft Purview-Kontrollmaßnahmen für KI sind aktuell in Preview. Dies bedeutet, dass eine SLA noch nicht gilt.
10. aka.ms/DPA.
11. https://www.microsoft.com/licensing/terms/product/PrivacyandSecurityTerms/all, abgerufen am 10.02.2025.
12. https://blogs.microsoft.com/on-the-issues/2023/09/07/copilot-copyright-commitment-ai-legal-concerns/, abgerufen am 10.02.2025.
13. Standard, kann auf bis zu 10 Jahre je Microsoft 365-Lizenzpaket erweitert werden.
14. aufgesplittet in 3 Kategorien: Copilot Chat, Office & Anwendungen, Copilot Studio Clients.
15. DSPM for AI ist ein Rahmenwerk, das den sicheren und verantwortungsvollen Umgang mit Daten in KI-Systemen sicherstellt.
16. Löschung möglich unter: Microsoft Teams -> Einstellungen -> Datenschutz // Benutzer Konto -> Einstellungen -> Datenschutz.
17. https://www.rakoellner.de/2024/06/update-juni-2024-einwilligung-und-microsoft-teams-meeting-aufnahme-copilot-und-transskription/, abgerufen am 10.02.2025.
18. Anforderung der KI Verordnung.