Wie sich sensible Daten in Zeiten von ChatGPT und Co. schützen lassen
Anbieter wie OpenAI speichern personenbezogene Daten, um das Sprachmodell im Hintergrund zu trainieren. Unternehmen sollten sich daher bei der Verwendung von ChatGPT und anderen KI-Chatbots mit dem Datenschutz auseinandersetzen.
Sogenannte große Sprachmodelle (Large Language Models, LLMs) bieten große Risiken, auch für den Schutz vertraulicher Daten. Denn mit ChatGPT und Co. experimentieren nicht nur Entwickler, sondern Mitarbeiter aus allen möglichen Bereichen und Abteilungen. Sie brauchen dazu weder einen Grafikprozessor noch Kenntnisse in maschinellem Lernen. Jeder, der in der Lage ist, Python-Code zu kopieren und einzufügen, kann API-Anfragen an ein gehostetes LLM tätigen. Einzige Voraussetzung ist eine Kreditkarte. Es bringt daher nicht viel, die Nutzung von ChatGPT im Unternehmen zu verbieten.
Und das gilt nicht nur für OpenAI. Auch andere Anbieter, Startups ebenso wie große Technologiekonzerne, haben mittlerweile eigene LLM-Lösungen entwickelt – mit unterschiedlichen Geschäftsmodellen sowie Nutzungs- und Datenschutzrichtlinien.
Wer experimentiert, verfolgt oft gar kein klares Ziel. Viele Anwender füttern ein LLM mit Daten – einfach um zu sehen, was passiert. Und vielleicht erwarten sie aufgrund des derzeitigen Hypes ein Wunder. Wie auch immer: Durch die unkontrollierte Nutzung können Geschäftsdaten in die Hände von Dritten gelangen, die damit künftige Modelle trainieren und verbessern. Der Drittanbieter kann noch so vertrauenswürdig sein. Er ist es, der die Anforderungen an die Speicherung und den Schutz der Daten diktiert. Und die unterscheiden sich bei Daten zum Trainieren und Verbessern von Modellen deutlich von den Anforderungen, die für ein normales Cloud-Computing-Konto gelten: Die Daten müssen optimiert werden und für das Training und die Auswertung durch den Menschen zur Verfügung stehen.
Verstöße gegen gesetzliche Vorschriften
Nicht alle Mitarbeiter sind mit den rechtlichen Anforderungen an ihr Unternehmen vertraut. Es kann schnell passieren, dass sie mit der Nutzung ihrer selbst erstellten Anwendungen gegen gesetzliche Vorschriften verstoßen – zum Beispiel indem sie Patientendaten mit einem LLM zusammenfassen. Zudem sind die meisten nicht erfahren darin, Entwicklungsstandards und damit verbundene Sicherheitsrichtlinien zu befolgen. Häufig schleichen sich Fehler in den Code ein. Dies kann beim Abrufen von Daten aus dem Internet, bei Python-Evaluationen oder – noch schlimmer – autonomen Experimenten mit nicht vertrauenswürdigen Daten passieren. Interne Experimente sind zwar weniger bedenklich als eine Anwendung, die offengelegt wird. Aber je nachdem, was der Code tut und welche Berechtigungen der ihn ausführende Nutzer hat, können sie dem Unternehmen schaden.
Darüber hinaus sind die Mitarbeiter – mit Ausnahme der Entwickler – nicht damit vertraut, ihre selbst erstellte Software zu bewerten. Ein System kann die richtige Antwort geben, aber aus den falschen Gründen. Oder die Antwort ist nicht korrekt, wirkt aber vertrauenswürdig, weil sie von einer KI stammt. Die meisten Anwender sind nicht in der Lage, solche Fehler im Design zu erkennen, was wiederum zu falschen Entscheidungen führen und geschäftsschädigend sein kann. Durch den Hype um die LLMs und ihre enorme Nutzerfreundlichkeit wird die Technologie in einer Vielzahl von Bereichen eingesetzt – obwohl sich viele Probleme damit gar nicht lösen lassen.
Es ist ein relativ bekanntes Phänomen: Wer viel Zeit in die Entwicklung eines Tools investiert hat, will es auch nutzen – selbst wenn es ineffektiv ist und den jeweiligen Prozess nicht optimiert. Da es sich um ein Experiment und nicht um ein formales Entwicklungsprojekt handelt, haben die Verantwortlichen die Anforderungen möglicherweise nicht korrekt erfasst. Beim Experimentieren werden häufig Aspekte übersehen, die für die Anwendung auf ein größeres Team oder Problem notwendig wären.
Tipps von Kudelski Security für den Umgang mit LLMs im Unternehmen
KI-Risiken unternehmensweit kommunizieren: Da LLMs nicht nur von Entwicklern, sondern von vielen Mitarbeitern genutzt werden, sollten die damit verbundenen Risiken umfassend kommuniziert werden.
Keine KI-Verbote erlassen: Wie in den Anfangszeiten der Cloud besteht auch bei LLM-Verboten die Gefahr, dass die Mitarbeiter die IT-Abteilung und damit das Verbot umgehen. Lenken Sie stattdessen die allgemeine Begeisterung für die Technologie in die gewünschte Richtung. Ihre Erfolgschancen sind wesentlich größer, wenn die Menschen auf Fragen kein kategorisches „Nein“ als Antwort bekommen.
Leitlinien und Richtlinien definieren: Kommunizieren Sie klare Richtlinien für die Nutzung von KI. Verbote von bestimmten Datentypen oder LLMs für bestimmte Prozesse sollten eindeutig sein und begründet werden. Wenn die Mitarbeiter das „Warum“ verstehen, werden sie mit größerer Wahrscheinlichkeit die geltenden Richtlinien befolgen. Auch Ihren Anbieter von LLM-Diensten sollten Sie in den Richtlinien nennen. Wichtig ist zudem, alle internen Verfahren zur Kommunikation und Genehmigung von Experimenten zu dokumentieren.
Datenklassifizierung angehen: Wenn Sie sich bislang nicht mit dem Thema Datenklassifizierung beschäftigt haben, sollten Sie es spätestens jetzt angehen. Denn damit können Sie sicherstellen, dass vertrauliche Daten vor unbefugtem Zugriff geschützt sind.
Die Mitarbeiter für Risiken sensibilisieren: Um Ihre Richtlinien zu vermitteln, bieten sich Workshops an. Hier können Sie konkret aufzeigen, was schiefgehen könnte, und wie es sich vermeiden lässt. Auch die Möglichkeit des Austauschs ist wichtig.
KI-Experimente registrieren: Wenn Sie eine laufende Liste aller erfolgten Experimente in Ihrem Unternehmen führen, können Sie bei Bedarf nachfassen. Idealerweise registrieren die Mitarbeiter ihre Experimente selbständig und markieren sie nach Abschluss als „stillgelegt“. Auf jeden Fall aber sollte definiert werden, wer Eigentümer des Experiments ist, welchen Geschäftsprozess es unterstützt, welche Daten es verwendet und welchen Status es hat.
Sicherheits- und Compliance-Maßnahmen ergreifen: Behalten Sie autonome Experimente unter Kontrolle und sorgen Sie dafür, dass sensible Daten Ihr Unternehmen nicht verlassen können. Stellen Sie zudem sicher, dass die regulatorischen Anforderungen bei der LLM-Nutzung eingehalten werden.
Feedback-Strukturen einrichten: Achten Sie darauf, dass Feedback in beide Richtungen fließen kann. Sammeln Sie dieses und sorgen Sie dafür, dass die Rückmeldungen an die Verantwortlichen zurückgespielt werden. Damit stellen Sie sicher, dass alle Fehler oder Unstimmigkeiten zum jeweiligen Prozess bearbeitet werden.
-PM Kudelski Security-