ChatGPT und Datenschutz in Unternehmen
Vorsicht Bußgelder! Wie Sie den KI-Datenschutz regeln sollten

Lassen sich KI-Tools wie ChatGPT und Datenschutz in Unternehmen überhaupt vereinbaren? Wenn ja, wie? Und was droht allen, die Pflichten zum KI-Datenschutz ignorieren? Das Wichtigste im Überblick.

30. Juli 2024, 13:34 Uhr, von Kathrin Halfwassen, Redakteurin

Gesicht einer Frau mit Brille, in der sich Programmcode vom Computer-Bildschirm spiegelt
Im Fokus: Das Thema ChatGPT und Datenschutz in Unternehmen gehört Fachleuten zufolge in die Geschäftsführung.
© Westend61 / Getty Images

Seit KI-Anwendungen von allen genutzt werden können, probieren viele Unternehmen einfach mal aus, wie sie diese einsetzen können. Wichtige organisatorische Fragen, etwa die, wie sich Chat-GPT und Datenschutz in Unternehmen vereinbaren lassen, fallen da oft erst einmal hintenüber. Kein Wunder, denn wer sich damit befasst, verirrt sich schnell zwischen den Vorgaben des EU AI Act und der Datenschutzgrundverordnung (DSGVO).

Neugier versus Datensicherheit

„Ich beobachte immer wieder, dass die Neugier im Bereich KI stärker ist als die Vernunft – und viele wie wild alles ausprobieren statt einen Schritt zurückzutreten und sich erst einmal eine IT-Sicherheits- und Datenschutzstrategie zu überlegen“, sagt Carolin Desirée Töpfer, Datenschutzbeauftragte, IT Forensikerin und Inhaberin von Cyttraction, einem Unternehmen für IT-Sicherheit.

Das führe in den allermeisten Fällen zu teils massiven Datenschutz-Verstößen. „Kommen diese raus, etwa durch einen Hackerangriff, drohen Bußgelder – das kann dann richtig teuer werden. Und existenzgefährdend ist es für Unternehmen außerdem: Denn die Reputation leidet ja auch.“

Zum Einstieg in den KI-Datenschutz: die Orientierungshilfe der Datenschutzkonferenz

Das Gute: Wer sich mit KI-Datenschutz beschäftigen muss, braucht sich nicht durch Rechtstexte wühlen. Denn die Datenschutzkonferenz (DSK) – das Gremium der unabhängigen deutschen Datenschutzaufsichtsbehörden des Bundes und der Länder – hat eine „Orientierungshilfe zu Künstlicher Intelligenz und Datenschutz“ erstellt. Diese soll als Leitfaden einen Überblick geben zu „datenschutzrechtlichen Kriterien, die für die datenschutzkonforme Nutzung von KI-Anwendungen zu berücksichtigen sind“.

Welche Pflichten ergeben sich aus der Orientierungshilfe der DSK? Und wie lassen sie sich erfüllen? Die wichtigsten Fakten.

In eigener Sache
Machen ist wie wollen, nur krasser
Machen ist wie wollen, nur krasser
Die impulse-Mitgliedschaft - Rückenwind für Unternehmerinnen und Unternehmer

DSGVO, KI-Tools wie ChatGPT und Datenschutz in Unternehmen: die wichtigsten Pflichten

Beim KI-Datenschutz geht es vor allem um den Umgang mit personenbezogenen Daten. Wer etwa Namen, E-Mail-Adressen von Kunden oder Lieferanten in ChatGPT eingibt oder Namen und Arbeitszeiten von Beschäftigten, um mithilfe der KI einen Meeting-Termin zu finden, verarbeitet personenbezogene Daten. Den datenschutzrechtlich korrekten Umgang damit regelt hierzulande die DSGVO: Die darin aufgeführten Pflichten gelten auch für die geschäftlichen Einsatzmöglichkeiten von ChatGPT und anderen KI-Tools.

1. Zweck und Rechtsgrundlage für die Verarbeitung personenbezogener Daten definieren

Unternehmerinnen und Unternehmer dürfen personenbezogene Daten zunächst nur dann in KI-Anwendungen eingeben, wenn sie vorab definieren, warum sie diese Daten verarbeiten und wie die geschäftlichen Zwecke aussehen. Weiterhin benötigen sie eine Rechtsgrundlage, welche die Verarbeitung dieser Daten nach der DSGVO erlaubt. Das kann – muss aber auch nicht immer – über eine Einwilligung geschehen. Möglich ist auch, die Verarbeitung auf eine Interessenabwägung zu stützen.

2. Dritte über die Verarbeitung ihrer Daten informieren

Die DSGVO schreibt detaillierte Transparenz- und Informationspflichten fest. Wer KI-Anwendungen wie ChatGPT und Datenschutz in Unternehmen rechtskonform zusammenzubringen will, müsste laut der Orientierungshilfe der DSK alle betroffenen Personen darüber aufklären, dass deren Daten bei ChatGPT eingegeben werden – und wozu dies geschieht.

3. Gewährleisten, dass personenbezogene Daten gelöscht oder berichtigt werden können

Laut der DSGVO dürfen personenbezogene Daten nur so lange gespeichert und verarbeitet werden, wie es für den jeweiligen Zweck unbedingt erforderlich ist. Entsprechend empfiehlt die Orientierungshilfe der DSK den KI-Verantwortlichen in Unternehmen, organisatorische und technische Verfahren zu konzipieren, um Daten löschen zu können. Außerdem sollten sie dafür Sorge tragen, dass Dritte falsche Angaben berichtigen können.

ChatGPT und Datenschutz in Unternehmen: die Kernprobleme

„Wer KI im Unternehmensalltag einsetzt, kann die Pflichten, die sich aus der DSGVO ergeben, kaum in vollem Umfang umsetzen“, sagt David Oberbeck, Rechtsanwalt und Gründungspartner der Datenschutzkanzlei in Hamburg. Das gelte insbesondere für Anwendungen, die auf sogenannten Large Language Models (LLM) basieren – wie ChatGPT, Gemini, Midjourney oder Stable Assistent. Der Grund: „Die Eingabe von personenbezogenen Daten erfordert immer eine Rechtsgrundlage, die häufig nicht vorliegt“, so Oberbeck.

Hinzu kommt: Die eingegebenen Daten werden durch Unternehmen wie OpenAI standardmäßig für eigene Trainingszwecke genutzt. Eine nachträgliche Löschung oder Berichtigung ist dabei nicht möglich. Inwieweit allein die Nutzung von Anwendungen, die auf LLM basieren, aufgrund des Trainings der Modelle bereits datenschutzwidrig sein könnte, ist unter Fachleuten in der Diskussion. Die Hamburger Datenschutzbehörde hat hierzu kürzlich ein Paper veröffentlicht: In den Modellen seien keine personenbezogenen Daten enthalten, weshalb die Betroffenenrechte der DSGVO nicht das Modell selbst zum Gegenstand haben können.

In eigener Sache
Das ChatGPT-Prompt-Handbuch
Das ChatGPT-Prompt-Handbuch
17 Seiten Prompt-Tipps, Anwendungsbeispiele und über 100 Beispiel-Prompts

In ihrem Leitfaden empfiehlt die DSK daher, keine offenen Modelle mit freiem Quellcode zu verwenden, wie es etwa bei ChatGPT der Fall ist. Und stattdessen auf sogenannte geschlossene Systeme zu setzen. Damit sind Anwendungen gemeint, die Daten in einer eingegrenzten, technisch abgeschlossenen Umgebung verarbeiten und bei denen klar ist, mit welchen Daten sie trainiert wurden – und wer Zugriff auf sie hat. Zudem haben Anwender und Anwenderinnen bei solchen Systemen die Kontrolle darüber, welche Daten eingegeben werden und dass diese datenschutzkonform gespeichert werden.

„Geschlossene Systeme sind für die meisten, insbesondere die kleinen Unternehmen allerdings keine realistische Option. Denn das würde bedeuten, dass sie sich jede KI-Anwendung programmieren lassen müssten – und die Daten auf Servern von speziellen Anbietern speichern, die die Datenschutz-Vorgaben der EU erfüllen“, so Oberbeck.

Könnten Dritte überhaupt von der Verarbeitung ihrer Daten erfahren?

Kunden- und Umsatzdaten über ChatGPT analysieren lassen, mithilfe der KI einen Lebenslauf auswerten, ein Arbeitszeugnis verfassen oder ein Diagramm zur Produktivität einzelner Mitarbeiter im Verhältnis zu ihrem Gehalt erstellen: All das scheint machbar, ohne dass die Personen davon etwas mitbekommen. „Grundsätzlich lässt sich natürlich nicht so einfach nachvollziehen, dass ein Unternehmen personenbezogene Daten über KI-Anwendungen verarbeitet hat“, erklärt Oberbeck. Indirekt ableiten ließe es sich unter Umständen aber sehr wohl – etwa, wenn in einer Mail klar wird, dass der Text mit ChatGPT verfasst wurde. Oder ein Chatbot Antworten auf Kundenanfragen liefert, die nur durch die Verarbeitung personenbezogener Daten möglich sein können.

„Bis vor einigen Jahren musste man lange suchen, um zu erkennen, ob personenbezogene Daten, etwa über einen selbst, unerlaubt verbreitet oder geleakt wurden“, sagt Töpfer. „Inzwischen gibt es dafür Software-Tools – und viele IT- und Rechts-Sicherheitsexperten prüfen das gern mal.“

Hinzu kämen Sicherheitslücken: „Alle Unternehmen wissen inzwischen eigentlich, dass die Frage nicht ist, ob sie gehackt werden, sondern wann. Trotzdem haben viele bis heute nicht einmal eine IT-Notfallkarte, die das Vorgehen regelt, wenn es passiert“, erklärt Töpfer. Jetzt aus lauter Begeisterung KI-Anwendungen zu nutzen, ohne dass eine ausreichend IT-Sicherheitsstruktur bestehe, biete ein weiteres Einfalltor für derartige Angriffe. „In solch einem Fall würden natürlich auch Verstöße gegen den KI-Datenschutz auffallen – und wären ein weiteres Druckmittel für Erpressungen.“

Praxistipps: So gewährleisten Sie das Mindestmaß an KI-Datenschutz

„Die konkreten Empfehlungen der Orientierungshilfe der DSK zeigen, dass die Behörden wissen, wie schwer das Thema umzusetzen ist“, sagt Anwalt Oberbeck. „Im Grunde lassen sie sich so zusammenfassen: ‚Liebe Unternehmerinnen und Unternehmer, es ist wichtig, dass ihr euch mit dem Thema KI-Datenschutz befasst und verbindliche Regelungen in euren Betrieben dazu aufstellt.‘“

So klappt’s:

Verantwortliche für den KI-Datenschutz benennen

Als Erstes sollten Unternehmerinnen und Unternehmer klären, wer den Umgang mit KI-Anwendungen wie ChatGPT und Datenschutz im Unternehmen verantwortet. „Weil es so wichtig ist und so eng mit dem Thema Datensicherheit zusammenhängt, gehört die Verantwortung oder Beauftragung dazu immer in die Geschäftsführung“, so Töpfer. Die Personen an der Unternehmensspitze kämen nicht daran vorbei, sich für die einzelnen Anwendungen genau anzuschauen oder erklären zu lassen, welche Daten wie verarbeitet werden und ob die Unternehmen dahinter diese beispielsweise für das weitere Training der KI verwenden. „Oft ist dieses Aufschlauen viel einfacher, als die meisten denken: Die Entwickler eines Tools anzurufen hilft oft schon. Viele haben ein Whitepaper zum Datenschutz, was eine gute Grundlage wäre für die Entscheidung für oder gegen eine Anwendung – oder zur Frage, wie man das Tool nutzen will.“

Business-Versionen nutzen für mehr Datenschutz bei ChatGPT

Anbieter von KI-Anwendungen wie ChatGPT bieten meist kostenpflichtige Versionen für geschäftliche Zwecke an, die dann eine bestimmte Anzahl von Personen nutzen kann. „In dem Fall schließen Sie mit dem Anbieter einen Vertrag zur Auftragsverarbeitung ab. Dieser erklärt damit, die Daten nur gemäß Ihren Anweisungen zu verarbeiten“, erklärt Oberbeck. Der Vorteil: In entsprechenden Verträgen verpflichtet sich beispielsweise OpenAI – das Unternehmen hinter ChatGPT –, die eingegebenen Daten nicht zu Trainingszwecken zu nutzen.

Wer dagegen kostenlose Versionen etwa von ChatGPT, Gemini oder Midjourney verwendet, steht vor dem gleichen Problem wie beim Einsatz von Messengerdiensten wie WhatsApp. „Diese Programme sind nicht für den geschäftlichen Einsatz gemacht. Sobald Sie die Dienste betrieblich und mit personenbezogenen Informationen von Kunden oder Beschäftigten nutzen, verstoßen Sie gegen viele Datenschutz-Vorgaben. Einfach, weil Sie nicht beeinflussen können, welche Daten durch die Anbieter der Dienste selbst verarbeitet werden, zum Beispiel, um Nutzerprofile anzulegen“, so Oberbeck.

Funktions-E-Mail-Adressen nutzen

Um auch die Daten Ihrer Beschäftigten bestmöglich zu schützen, sollten Sie bei der Anmeldung zu KI-Anwendungen E-Mail-Adressen verwenden, die keine direkten Rückschlüsse auf Ihre Mitarbeiterinnen und Mitarbeiter erlauben – also anstelle von klaus.meier@mueller-baustoffe.de besser etwas wie vertrieb@mueller-baustoffe.de.

Datenschutz und Chatverlauf regeln

Viele Dienste wie ChatGPT werden durch Texteingaben (Prompts) gesteuert – und speichern die Eingaben, damit Nutzerinnen und Nutzer den Dialog zu einem späteren Zeitpunkt wieder aufnehmen oder Prompts optimieren können. „Eine solche Historie lässt aber Rückschlüsse auf Nutzerinnen und Nutzer zu. Daher sollten Sie Arbeitnehmerinnen und Arbeitnehmer darüber informieren. Und Ihnen außerdem die Möglichkeit bieten, selbst darüber zu entscheiden, ob sie eine solche Historie wollen oder nicht – insbesondere dann, wenn mehrere Beschäftigte einen Account nutzen“, so Oberbeck. Bei vielen Business-Versionen ist es möglich, die Historie auszuschalten.

Automatisierte Entscheidungsfindungen ausschließen

Mal fix ein GPT auf Basis interner Stellenanforderungen basteln, dann ChatGPT Bewerberdaten automatisch analysieren lassen und der KI die Entscheidung überlassen, welcher Lebenslauf an die Personalabteilung weitergeleitet wird und welcher nicht: Das klingt praktisch, verstößt aber gegen die Vorgaben zur „automatisierten Entscheidungsfindung“ in der DSGVO. „Hinter einer Entscheidung muss immer noch ein Mensch stehen“, erklärt Anwalt Oberbeck. „Das sollten Sie nachweisen können, falls es zu einer Prüfung durch die Behörden kommt.“ (Mehr dazu unter: „Wie wahrscheinlich sind Prüfungen zum KI-Datenschutz?“)

Szenarien für die Nutzung von KI im Vorfeld durchdenken

Unternehmerinnen und Unternehmer sollten systematisch und abteilungsübergreifend überlegen, wie KI zum Einsatz kommt und kommen sollte. Und dann analysieren, welche Daten dabei genutzt werden dürfen – um datenschutzkonform zu agieren. Solche Szenarien zu entwickeln und Regelungen daraus abzuleiten, ist wichtig, ehe Teammitglieder ein neues Tool einsetzen.

Geschieht das nicht, steigt das Risiko, dass Mitarbeitende Daten eingeben und hochladen. „Wenn die Leute wissen: ‚Ah, wir können jetzt etwa auch PDFs bei ChatGPT hochladen‘, dann werden sie das auch einfach tun, wenn es nicht vorab anders geregelt ist. Und Verträge und Analysen hochladen, die sensible Daten enthalten“, sagt Expertin Töpfer.

„Dabei geht es nicht nur um personenbezogene Daten, sondern auch um Geschäftsgeheimnisse“, so Oberbeck. Diese beträfen beispielsweise Patente, Kundenlisten, Einkaufspreise oder Konstruktionspläne für neue Produkte.

Daten so weit wie möglich anonymisieren

Wenn Sie Daten eingeben, sollten Sie so weit wie möglich vermeiden, dass Rückschlüsse auf Personen möglich sind. Besonders im Personalkontext passiert das laut Oberbeck und Töpfer sehr schnell. Töpfer: „Einfach keine Namen einzugeben, reicht als Anonymisierung oft nicht aus.

Denn die Datenschutzgrundverordnung reguliert nicht nur offensichtliche personenbezogene Daten, sondern auch „verschiedene Teilinformationen, die gemeinsam zur Identifizierung einer bestimmten Person führen können“.

Das Team in KI-Datenschutz schulen

Schulungen für das Team sind laut Töpfer und Oberbeck besonders wichtig. „Alle Regeln zu ChatGPT und Datenschutz in Unternehmen helfen nicht, wenn sie nur theoretisch definiert sind und Sie Ihre Beschäftigten damit allein lassen. Sie müssen viel Zeit in Weiterbildung investieren, damit alle wirklich in der Lage sind, produktiv mit KI zu arbeiten und gleichzeitig die Regeln im Alltag umzusetzen“, sagt Töpfer.

Dazu zählt auch: das Thema immer wieder ansprechen – etwa in wöchentlichen Meetings, Workshops oder Vorträgen. „Die Idee vom gesunden Menschenverstand können Sie beim KI-Datenschutz und IT-Sicherheit im Allgemeinen in die Tonne kloppen. Die funktioniert in der Realität nicht, weil bei zehn Leuten jeder einen anderen Kenntnisstand hat und anders arbeitet“, so Töpfer. Sie empfiehlt dagegen das „Prinzip Papagei“: „Wenn Sie das Gefühl haben, alle schon zu nerven mit dem Datenschutz und sich selbst nicht mehr zuhören können, dann ist es genau die richtige Frequenz. Und Sie sollten genau so weitermachen.“

Regeln offiziell festlegen

Unternehmer und Unternehmerinnen sollten die festgelegten Regeln zum KI-Datenschutz offiziell machen. Dafür eignet sich etwa eine KI-Policy oder IT-Regelung im Unternehmen. „Es genügt hierbei, wenn die Regeln aufgeschrieben und bekannt gegeben werden. Eine Unterschrift der Beschäftigten ist rechtlich nicht erforderlich“, so Anwalt Oberbeck.

Die Datenschutzerklärung aktualisieren

Um den Transparenz- und Informationspflichten bestmöglich nachzukommen, empfiehlt Oberbeck, KI-Anwendungen wie beispielsweise Chat-Bots in der Datenschutzerklärung aufzuführen und intern zu dokumentieren, welche Daten zu welchem Zweck verarbeitet werden.

Was droht bei Verstößen gegen die Vorgaben zum KI-Datenschutz?

Ignorieren KI-Verantwortliche ihre Pflichten bei Themen wie ChatGPT und Datenschutz in Unternehmen und die Verstöße werden bekannt, kommen die Bußgeld-Regeln der DSGVO zum Tragen. Laut 83 Abs. 5 der DSGVO liegen die Bußgelder – je nach Schwere der Verstöße – bei bis zu 20 Millionen Euro oder 4 Prozent des weltweit erzielten Jahresumsatzes des vorangegangenen Geschäftsjahrs – dabei gilt der höhere Wert.

Wie wahrscheinlich sind Prüfungen zum Einsatz von Tools wie ChatGPT und Datenschutz in Unternehmen?

Die Datenschutzbehörden in Deutschland dürfen prüfen, inwieweit Unternehmen die Vorgaben zum KI-Datenschutz umsetzen. „Eine Prüfung kann etwa erfolgen, weil sich jemand beschwert hat oder es ein Sicherheitsleck gab. Aber auch anlasslose Prüfungen sind möglich. Meist schicken die Behörden dann einen schriftlichen Fragenkatalog, möglich wäre aber auch, dass jemand einfach vorbeikommt“, so Oberbeck.

Unwahrscheinlich seien Prüfungen nicht – unter anderem, weil die Behörden aktuell eine Art Bestandsaufnahme zum KI-Datenschutz in Unternehmen machen wollten.

Daher sei etwa das Thema ChatGPT und Datenschutz in Unternehmen eines, das alle Unternehmerinnen und Unternehmer angehen sollten, die KI in ihren Betrieben nutzen oder nutzen wollen. Wichtig ist es laut Oberbeck, bei einer Prüfung vor allem folgende Fragen beantworten zu können:

  • Welche KI-Anwendungen werden in welchen geschäftlichen Konstellationen genutzt?
  • Welche Daten werden zu welchem Zweck verarbeitet werden?
  • Wie sehen die internen Regelungen zum KI-Datenschutz konkret aus?

„Wenn Sie zu diesen drei zentralen Punkten etwas sagen können, sind Sie schon vorne dabei und haben eigentlich nichts zu befürchten“, so Oberbecks Fazit.

Quellen:

Datenschutzkonferenz: „Orientierungshilfe Künstliche Intelligenz und Datenschutz“. https://www.datenschutzkonferenz-online.de/media/oh/20240506_DSK_Orientierungshilfe_KI_und_Datenschutz.pdf, abgerufen am 29.7.2024

Der Hamburgische Beauftragte für Datenschutz und Informationsfreiheit: „Diskussionspapier: Large Language Models“. https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/240715_Diskussionspapier_HmbBfDI_KI_Modelle.pdf, abgerufen am 29.7.2024

Die Expertin und der Experte
Carolin Desirée TöpferCarolin Desirée Töpfer ist Datenschutzbeauftragte und IT-Forensikerin. Als Inhaberin von „Cyttraction“, einem Unternehmen für IT-Sicherheit, unterstützt sie kleine und mittlere Unternehmen weltweit auf dem Weg zu sicheren Geschäftsprozessen sowie IT Sicherheits-Zertifizierungen, dazu bietet sie spezifische Trainings an.

David OberbeckDavid Oberbeck ist Rechtsanwalt mit den Schwerpunkten IT-Recht und Datenschutz, arbeitet zudem als externer Datenschutzbeauftragter und ist Gründungspartner der Datenschutzkanzlei in Hamburg.

In eigener Sache
Machen ist wie wollen, nur krasser
Machen ist wie wollen, nur krasser
Die impulse-Mitgliedschaft - Rückenwind für Unternehmerinnen und Unternehmer