Da du den Artikel velinkt hast, gehe ich mal davon aus, dass du ihn gelesen hast. Dort steht doch klar die Funktionsweise: Alle paar Sekunden (tolle Angabe btw.) wird ein Screenshot erstellt und mittels OCR ausgewertet. Bilder und Metadaten werden auf dem PC lokal gespeichert, verschlüsselt mit dem Key des Users (erstellt durch MS Hello).
Diese Daten sind hoch sensibel, darin kann sich quasi Alles befinden. Problematisch ist hier, dass Copilot+ Zugriff auf die Inhalte hat (Copilot+ ist eine der Grundvoraussetzungen für Recall). Copilot übergibt sämtliche Prompts (Eingaben durch den User) an die MS Cloud zur Bearbeitung.
Sämtliche LLMs (Copilot, ChatGPT usw.) haben aber das Problem, dass die ihnen anvertrauten Daten auch zum weiteren Training genutzt werde. Das Entfernen bestimmter Daten aus diesen Gebilden ist technisch nicht möglich, man kann lediglich die Ausgabe filtern.
Aktuell würde ich Copilot erst recht nicht einsetzen, da MS nicht garantieren kann, dass die Prompts in europäischen Rechenzentren bearbeitet werden. Das ist aber eigentlich nur für Firmen relevant, da die Probleme bekommen, wenn sich ein "Kunde" beschwert bzw. seine personenbezogenen Daten gelöscht haben will.
Den meisten Leuten hier wird das aber eh egal sein; nutzen ja eh Alle WA, Insta und andere Clouddienste, bei welchen sie nicht die volle Schlüsselgewalt haben (iCloud z.B.). Nutzt man mehrere Systeme und will seine Daten synchronisieren, hat man aktuell aber wenig Spielraum...