©198803597 - stock.adobe.com

KI und die DSGVO

Hintergründe, Analyse und Empfehlungen

Dieser Artikel beantwortet Ihnen folgende Fragen:

Welche Risiken bestehen beim Einsatz von KI?
Wann muss beim Einsatz von KI eine Datenschutz-Folgenabschätzung (DSFA) durchgeführt werden?
Wann muss beim Einsatz von KI ein Datenschutzbeauftragter (DSB) benannt werden ?

Mit der Einführung von ChatGPT durch OpenAI am 30. November 2022 hat das Zeitalter der künstlichen Intelligenz nicht nur für Technikenthusiasten, sondern auch für die breite Öffentlichkeit begonnen. Google mag sich schon seit 2016 als “AI First Company” positioniert haben und DeepMinds AlphaGo (Heute Google DeepMind) erregte im selben Jahr Aufsehen, indem es den Go-Champion Lee Sedol in einem historischen Match besiegte. Erst mit ChatGPT öffnete sich jedoch die Tür für die Allgemeinheit zu einer Welt, in der KI alltägliche, kognitiv anspruchsvolle Aufgaben wie das Verfassen von Texten meistert. Die Bedeutung von KI-Systemen geht aber weit darüber hinaus und umfasst beinah jeden Bereich von Datenverarbeitung. Doch welche Schnittstellen zwischen KI und der DSGVO müssen bei der Nutzung von KI-Systemen beachtet werden? In diesem Artikel werden Hintergründe zu KI und auch der DSGVO betrachtet, ihre Schnittmenge analysiert und Praxisempfehlungen ausgegeben. 

Was versteht man unter KI?

Im Zentrum der KI-Systeme steht das so genannte Deep Learning, auch bekannt als künstliche neuronale Netzwerke. Von autonom fahrenden Fahrzeugen über Sprachassistenzsysteme und medizinischer Diagnostik bis hin zur Prognose von Finanzmärkten – Deep Learning ist allgegenwärtig. Besonders auffällig ist sein Einfluss ebenso im Bereich der digitalen Medienkultur, wo es unter anderem in Empfehlungsalgorithmen von Streaming-Diensten wie Netflix oder Spotify, dem automatischen Tagging in sozialen Netzwerken oder in maschinellen Übersetzungstools wie Google Translate und DeepL zum Einsatz kommt.

Wenn von KI gesprochen wird, ist also meistens vom Deep Learning die Rede. Dabei werden künstliche neuronale Netze mit vielen Zwischenschichten eingesetzt, die zwischen der Eingabe- und der Ausgabeschicht, eine komplexe innere Struktur aufweisen. Das Deep Learning ist auch die Grundlage der allgegenwärtigen Large Language Modells (LLMs) wie ChatGPT oder Google Gemini.

Der am 2. Februar 2024 durch die EU-Staaten und am 13. März 2024 durch das Europäische Parlament beschlossene AI-Act, definiert KI als ein maschinengestütztes System, das so konzipiert ist, dass es mit unterschiedlichem Grad an Autonomie arbeitet und das nach der Bereitstellung Anpassungsfähigkeit zeigen kann und das für explizite oder implizite Ziele aus den Eingaben, die es erhält, ableitet, wie es Ausgaben wie Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen generieren kann, die physische oder virtuelle Umgebungen beeinflussen können.

Wie können Unternehmen diese bahnbrechenden Technologien rechtssicher einsetzen, um Innovation zu fördern, ohne sich der Gefahr von Verstößen gegen den Datenschutz auszusetzen?

KI und personenbezogene Daten

Die DSGVO bildet dabei das regulatorische Rückgrat in der EU, das den rechtlichen Rahmen vorgibt. Dreh und Angelpunkt ist dabei der Begriff der personenbezogenen Daten, welche in Art. 4 Nr. DSGVO als alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche Person beziehen, definiert werden.

Daten können im Sinne der DSGVO auch als personenbezogen klassifiziert werden, wenn sie eine eindeutige oder mittelbare Zuordnung zu einer natürlichen Person ermöglichen. Dies bedeutet, dass nicht nur Informationen, die direkt eine Person identifizieren, sondern auch solche, die indirekt auf eine Person hinweisen können, unter den Begriff der personenbezogenen Daten fallen können.

Beispiele für personenbezogene Daten reichen von offensichtlichen Angaben wie Namen und Geburtsdaten bis hin zu subtileren Informationen wie dem Online-Surfverhalten oder Standortdaten. So kann bereits die Information, dass jemand regelmäßig einen bestimmten Park besucht, als personenbezogen gelten, wenn sie in Verbindung mit anderen Daten eine Identifizierung der Person ermöglicht.

Ebenfalls fallen darunter Angaben zu Vorlieben, beispielsweise die bevorzugte Musikrichtung oder Essgewohnheiten, wenn diese Informationen einer spezifischen Person zugeordnet werden können.

Selbst Daten, die auf den ersten Blick anonym erscheinen, wie die IP-Adresse eines Computers oder die eindeutige Identifikationsnummer eines Smartphones, können personenbezogen sein, wenn sie mit vertretbarem Aufwand einer Person zugeordnet werden können.

Somit können zahlreiche Daten, die auf den ersten Blick nicht direkt als personenbezogen wahrgenommen werden, unter den Schutz der DSGVO fallen. Diese Erkenntnis betont die Wichtigkeit für Anwender:innen, bei der Verarbeitung jeglicher Informationen stets achtsam zu sein, um den rechtlichen Anforderungen zu genügen.

Welche Möglichkeiten gibt es beim Einsatz von KI?

Zunächst ist es wichtig zu verstehen, dass es zwei Möglichkeiten gibt, KI-gestützte Programme zu nutzen: entweder über Cloud-Schnittstellen, wie es häufig bei Online-Diensten der Fall ist, oder durch eigene Hosting-Lösungen. Diese Möglichkeit gibt es überwiegend für Modelle und Algorithmen, die in Form von Open-Source bereitgestellt werden.

Während der Zugriff über die Cloud für viele Nutzer die bevorzugte Methode darstellt, verlangt das Hosting auf eigenen Servern technisches Know-how und leistungsfähige Hardware. Ein entscheidender Vorteil dieser Eigenhosting-Lösung ist die Gewährleistung der Datensouveränität, da so keine Daten an externe Anbieter übermittelt werden müssen.

Im Falle eines LLM-Basierten Chatbots zur Generierung von Texten ist dies beispielsweise mit Metas LLaMA2 möglich. Während der Cloud-Zugang wie bei ChatGPT für viele Anwender die gewohnte Wahl ist, kann das von Meta vorab trainierte Modell in verschiedenen Leistungsstufen vollständig heruntergeladen und dann auf eigener Hardware ohne Kontakt zu Metas Servern betrieben werden.

Welche Risiken bestehen beim Einsatz von KI-Systemen über Cloud Schnittstellen?

Wenn die Nutzung einer KI über eine Cloud-Schnittstelle geplant ist, birgt dies das Risiko, dass der Anbieter in seinen Geschäftsbedingungen eine Nutzung der Daten für eigene Zwecke festlegen könnte. Dies macht die Übermittlung personenbezogener Daten an die KI problematisch, da oft keine rechtssichere Grundlage für eine solche Übertragung existiert.

Einige Anbieter von Cloud-basierten Lösungen stellen sogenannte Opt-Out-Optionen zur Verfügung. Diese ermöglichen es Nutzern, die Verwendung ihrer eingegebenen Daten für das Training des Modells auszuschließen. Sofern diese Optionen angeboten werden, ist es ratsam, sie zu nutzen. Zudem sollte auch die Identität der Person, die Daten eingibt, geschützt bleiben, falls keine verlässliche rechtliche Basis für deren Verarbeitung durch den Anbieter vorliegt.

Angesichts dieser Risiken empfiehlt es sich, möglichst gänzlich auf die Eingabe personenbezogener Daten in KI-basierte Programme, die extern gehostet werden, zu verzichten. So wird das Risiko von Datenschutzverletzungen minimiert und die Sicherheit sensibler Informationen sichergestellt. Unternehmen sind angehalten, ihre Mitarbeitenden entsprechend zu instruieren und klare Richtlinien zu etablieren, damit der Datenschutz bei der Anwendung von KI-Technologien stets gewährleistet wird.

Zusätzlich zu den Bedenken hinsichtlich personenbezogener Daten birgt die Nutzung von KI-Systemen in Form von Chatbots auch das Risiko, dass Geschäftsgeheimnisse unbeabsichtigt an den Anbieter gelangen können. Ein prägnantes Beispiel bietet Samsung, das Anfang 2023 entdeckte, dass seine Entwickler internen Code in ChatGPT hochgeladen hatten. Als Reaktion darauf und nachdem Berichte über den Vorfall in der Presse aufgetaucht waren, verbot das Unternehmen seinen Mitarbeitenden umgehend die weitere Nutzung. Solche Vorfälle unterstreichen die Notwendigkeit für Unternehmen, proaktive Schritte zu unternehmen, um sicherzustellen, dass wertvolle Firmengeheimnisse nicht an die Betreiber der Chatbots weitergegeben werden.

Ein weiteres Problem, welches sowohl den Einsatz eines KI-Systems wie eines LLM im Cloud- als auch im Selfhosting-Betrieb mit sich bringt ist die Pflicht zur transparenten Datenverarbeitung aus Art. 5 Abs. 1 a) DSGVO. Dieser fordert, dass die Verarbeitung personenbezogener Daten für die betroffene Person transparent und nachvollziehbar erfolgt. Insbesondere müssen Informationen über den Verarbeitungsprozess und die verwendeten Trainingsdaten klar, verständlich und leicht zugänglich sein.

Unternehmen, die KI-Systeme einsetzen, müssen unbedingt darauf achten, die Informationspflichten gemäß Art. 12 ff. DSGVO einzuhalten. Dies betrifft insbesondere die Verpflichtungen über die eingesetzten Verfahren und Dienste sowie etwaige Drittanbieter transparent zu informieren. Zudem ist über Datenübermittlungen in Drittländer aufzuklären. Solche Informationen sollten deutlich in der Datenschutzerklärung aufgeführt sein.

KI-Basierte Datenverarbeitung und Entscheidungsfindung

Ein weiteres Problem ist, dass Datenverarbeitungsprozesse, die mithilfe von KI-Systemen erfolgen, nicht nur in Bezug auf ihre Ergebnisse, sondern auch hinsichtlich der zugrundeliegenden Prozesse und der möglicherweise daraus folgenden Entscheidungen transparent sein müssen. Es gibt zudem ein Verbot der automatisierten Entscheidungsfindung in Art. 22 Abs. 1 DSGVO, wenn die Entscheidung gegenüber der betroffenen Person rechtliche Wirkung entfaltet.

Die DSGVO verlangt in Art. 12 außerdem eine ausreichende Aufklärung über die involvierte Logik hinter den Entscheidungen. Diese Anforderungen an Transparenz und Erklärbarkeit sind kontinuierlich zu erfüllen, sobald KI-Systeme zur Verarbeitung personenbezogener Daten herangezogen werden, wobei die Verantwortlichen eine Rechenschaftspflicht gemäß Artikel 5 Absatz 2 DSGVO tragen.

Diese Verantwortung steht allerdings in einem Konflikt mit der Funktionsweise von LLMs und anderen KI-Systemen, die auf Deep Learning basieren. Ihre charakteristischen Eigenschaften bedingen eine sogenannte Blackbox-Natur, die auch zukünftig wahrscheinlich unverändert bleibt. Daraus ergibt sich die kritische Frage, ob der Einsatz solcher Systeme, deren Arbeitsweise eine inhärente Undurchsichtigkeit aufweist, in sensiblen Bereichen den Anforderungen der DSGVO gerecht werden kann.

Wann muss eine Datenschutz-Folgenabschätzung (DSFA) gemäß Art. 35 DSGVO beim Einsatz von KI erfolgen?

Eine DSFA im Sinne Art. 35 DSGVO ist ein wichtiges Instrument zur Identifizierung, Bewertung und Minimierung von Risiken, die sich aus der Verarbeitung personenbezogener Daten für die Rechte und Freiheiten natürlicher Personen ergeben. Dieses Verfahren wird insbesondere dann notwendig, wenn die Art, der Umfang, die Umstände und die Zwecke der Datenverarbeitung – insbesondere im Kontext neuer Technologien wie zum Beispiel LLMs – ein hohes Risiko für die Betroffenen darstellen könnten. Die DSFA zielt darauf ab, effektive Abhilfemaßnahmen zu erarbeiten, um den Schutz personenbezogener Daten zu garantieren und die Einhaltung der DSGVO zu gewährleisten.

Im Speziellen erfordert die Art. 35 Abs. 3 DSGVO eine DSFA für Datenverarbeitungsvorgänge, die ein hohes Risiko bergen. Dazu gehören insbesondere:

  • Die systematische Bewertung persönlicher Aspekte mittels automatisierter Verarbeitung, einschließlich Profiling, die als Grundlage für Entscheidungen dient, welche Rechtswirkung gegenüber Personen entfalten oder sie in ähnlich erheblicher Weise beeinflussen.
  • Die großangelegte Verarbeitung besonderer Kategorien personenbezogener Daten gemäß Artikel 9 Absatz 1 DSGVO oder von Daten über strafrechtliche Verurteilungen und Straftaten gemäß Artikel 10 DSGVO.
  • Die systematische umfangreiche Überwachung öffentlich zugänglicher Bereiche.

Für den Fall, dass das KI-System eines der drei genannten Regelbeispiele betrifft, ist also in jedem Fall eine DSFA durchzuführen.

Ob über diese Regelbeispiele hinaus eine DSFA durchgeführt werden muss, ergibt sich aus einer Risikoabschätzung der Verarbeitungsvorgänge, bekannt als Schwellwertanalyse. Führt diese Analyse zu dem Schluss, dass ein hohes Risiko besteht, ist eine DSFA erforderlich. Stellt sich heraus, dass kein hohes Risiko vorliegt, ist die DSFA nicht obligatorisch. Die Entscheidung, ob eine DSFA durchgeführt wird oder nicht, muss für jeden Verarbeitungsvorgang schriftlich dokumentiert und begründet werden.

Eine DSFA ist ein fortlaufender Prozess, der regelmäßige Überprüfungen und Anpassungen erfordert, insbesondere wenn neue Risiken auftauchen, sich die Bewertung bekannter Risiken ändert oder signifikante Verfahrensänderungen stattfinden, die bisher in der DSFA nicht berücksichtigt wurden. Um die Aktualität und Relevanz der DSFA sicherzustellen, wird ein kontinuierlicher, iterativer Prozess der Überprüfung und Anpassung empfohlen.

Eine detaillierte Beschreibung der Durchführung ist auf der Homepage der Datenschutzkonferenz zu finden.

Die Bewertung, ob bei der Nutzung von KI-Systemen ein Datenschutzrisiko vorliegt und ob dieses Risiko nach Artikel 35 Absatz 1 DSGVO als „hoch“ zu bewerten ist, obliegt stets dem Anwender dieser Systeme. Als datenschutzrechtlich verantwortliche Stelle ist es Aufgabe desjenigen, der die Entscheidung über die Mittel und Zwecke der Datenverarbeitung trifft, diese Einschätzung vorzunehmen.

Abseits von den in Art. 35 Abs. 1 und 3 DSGVO festgelegten Bewertungskriterien ist vor der Einführung einer neuen Verarbeitungstätigkeit jeweils zu prüfen, ob der Vorgang von der Muss-Liste der Datenschutz-Konferenz (DSK) erfasst wird. Hierbei handelt es sich um eine auf Grundlage von Art. 35 Abs. 4 DSGVO erstellte Liste, die konkrete Verarbeitungstätigkeiten bestimmt, für die eine DSFA zwingend durchzuführen ist. Im Hinblick auf KI kann hierbei insbesondere Nr. 11 der Muss-Liste einschlägig sein. Demnach ist immer dann eine DSFA durchzuführen, wenn KI für die Verarbeitung von personenbezogenen Daten eingesetzt wird, um Interaktionen mit Betroffenen zu steuern oder die persönlichen Aspekte der betroffenen Personen zu bewerten. Hiervon erfasst werden beispielsweise KI-Systeme, die mit den Kund:innen eines Unternehmens interagieren. Wird KI zur automatisierten Auswertung von Callcenter-Telefonaten eingesetzt, kann darüber hinaus Nr. 13 der Positivliste der DSK einschlägig sein (Automatisierte Auswertung von Video- oder Audioaufnahmen zur Bewertung der Persönlichkeit von Betroffenen).

KI-Systeme haben das Potenzial, tiefgreifend auf die Rechte und Freiheiten von Personen einzuwirken. Angesichts dessen erfordern generative KI-Systeme, die personenbezogene Daten nutzen und nicht zumindest pseudonymisieren, eine besondere Vorsicht. Eine DSFA ist hier grundsätzlich zu empfehlen.

Ist in diesem Kontext die Berufung eines Datenschutzbeauftragten zwingend erforderlich?

Die Einbindung eines Datenschutzbeauftragten in den Ablauf der DSFA ist gemäß Artikel 35 Absatz 2 DSGVO zwingend, sofern bereits ein solcher im Unternehmen ernannt wurde. Dies wirft die Frage auf, ob Unternehmen ohne Datenschutzbeauftragten, die eine DSFA benötigen, nun zur Ernennung verpflichtet sind.

In Deutschland schafft § 38 des Bundesdatenschutzgesetzes Klarheit, indem es die Benennung eines Datenschutzbeauftragten für solche Fälle vorschreibt. Gemäß Artikel 35 Absatz 2 und Artikel 39 Absatz 1 lit. c DSGVO muss die verantwortliche Stelle den Rat des Datenschutzbeauftragten einholen und diesen rechtzeitig in den Prozess der DSFA einbeziehen.

Fazit

KI-basierte Systeme werden zukünftig eine zentrale Rolle in nahezu allen Wirtschaftsbereichen spielen und maßgeblich zur Wertschöpfung beitragen. Eine rechtskonforme Implementierung solcher Systeme ist für Unternehmen daher von größter Bedeutung. Wo immer möglich, sollte der Einsatz selbstgehosteter Systeme bevorzugt werden, um die Kontrolle über die Daten zu wahren. Wo dies nicht möglich ist, sollten die Einstellungen bei der Nutzung von Cloud-Schnittstellen so gewählt werden, dass nach Möglichkeit keine Verarbeitung der eingegebenen Daten für das Training des Modells verwendet werden. Besonders wichtig ist, dass keine personenbezogenen Daten – insbesondere solche, die unter besondere Kategorien der DSGVO fallen – ohne vorherige Klärung der rechtlichen Zulässigkeit verarbeitet werden. Unternehmen müssen zudem intern klare Nutzungsvorgaben etablieren und deren Einhaltung sorgfältig überwachen. Die umfassende Schulung der Mitarbeitenden sowie die frühzeitige Einbindung der Datenschutzbeauftragten sind essenziell, um Datenschutzbestimmungen effektiv umzusetzen und Risiken zu minimieren.

Hier finden Sie in Kürze einen Beitrag zu dem Thema:
BayLDA veröffentlicht Checkliste: Ein KI-Compliance-Wegweiser für Unternehmen

Total
0
Shares
Prev
Datenschutzprüfungen in Bayern: BayLDA überprüft Sicherheitsniveau nach Ransomware-Angriffen
© Foto von Markus Spiske auf unsplash.com

Datenschutzprüfungen in Bayern: BayLDA überprüft Sicherheitsniveau nach Ransomware-Angriffen

Das Bayerische Landesamt für Datenschutzaufsicht (BayLDA) überprüft derzeit über

Next
OpenAI im Datenschutz-Fragenhagel
© Foto von Markus Winkler auf unsplash.com

OpenAI im Datenschutz-Fragenhagel

Datenschützer:innen nehmen das Unternehmen unter die Lupe

You May Also Like