© Foto von Growtika auf unsplash.com

Rechtliche Auseinandersetzungen bezüglich KI-Entwicklung

Ist eine Klage wie im Fall “New York Times gegen OpenAI” auch in Deutschland möglich?

Dieser Artikel beantwortet Ihnen folgende Fragen:

Mit welchen rechtlichen Herausforderungen sieht sich OpenAI konfrontiert?
Sind Klagen wie diejenige der New York Times auch in Deutschland möglich?
Was regelt die neue KI-Verordnung?

Die jüngste Klage der New York Times gegen OpenAI aufgrund der Verwendung ihrer redaktionellen Inhalte für das Training von Künstlicher Intelligenz (KI) hat nicht nur in den USA, sondern weltweit großes Interesse geweckt. Das Blatt wirft OpenAI vor, Wissen aus Millionen von Artikeln der Zeitung benutzt zu haben, um ChatGPT zu füttern und damit auf Kosten der New York Times ein Geschäft aufbauen.

In Deutschland stellt sich die Frage, ob ähnliche rechtliche Schritte hinsichtlich des Schutzes von geistigem Eigentum und Urheberrechten gegen KI-Entwickler wie OpenAI denkbar sind.

Gut zu wissen: Wie funktioniert OpenAI?

OpenAI trainiert seine Modelle durch maschinelles Lernen auf großen Mengen an Daten aus verschiedenen Quellen. Der genaue Trainingsprozess ist intern und es gibt keine detaillierte öffentliche Dokumentation darüber. OpenAI verwendet jedoch eine Mischung aus lizenzierten Daten, Daten, die für das Training erstellt wurden, und öffentlich verfügbaren Textdaten, um die Modelle zu trainieren.

Die Beiträge öffentlicher Artikel oder Textdaten spielen also eine wichtige Rolle. Die Textdaten können dabei aus einer Vielzahl von Quellen stammen, darunter Bücher, Artikel, Websites, und mehr.

Was ist in den USA passiert?

Die New York Times hat vor Kurzem rechtliche Schritte gegen OpenAI eingeleitet, was eine Kontroverse in der Welt der künstlichen Intelligenz und des Journalismus auslöste.

Der Kern der Klage liegt in der Verwendung von Texten durch OpenAI für das Training seiner Sprachmodelle, insbesondere des GPT-3.5-Modells. Die New York Times behauptet, dass OpenAI ohne angemessene Erlaubnis oder Lizenzierung auf eine beträchtliche Menge an redaktionellen Inhalten zugegriffen und diese für die Entwicklung seiner KI-Modelle genutzt hat.

OpenAI hat bisher darauf abgezielt, fortschrittliche KI-Technologien zu entwickeln, die in der Lage sind, menschenähnlichen Text zu generieren. Die Verwendung großer Datensätze, einschließlich Nachrichtenartikeln, war ein entscheidender Bestandteil des Trainingsprozesses. Die New York Times argumentiert jetzt, dass dies eine Verletzung des Urheberrechts und anderer geistiger Eigentumsrechte darstellt.

Ein zentraler Aspekt der Kontroverse betrifft die Frage, ob OpenAI verpflichtet ist, Lizenzen für die Nutzung von Inhalten von Nachrichtenorganisationen zu erwerben oder spezifische Vereinbarungen mit diesen einzugehen. Die Klage verdeutlicht die wachsenden Spannungen zwischen Tech-Unternehmen, die auf maschinelles Lernen setzen, und etablierten Medienhäusern, die ihre Inhalte schützen möchten.

Ist das die erste Klage dieser Art?

Nein. Bereits Mitte des Jahres 2023 hat eine Gruppe von 17 Autorinnen und Autoren, darunter bekannte Schriftsteller wie John Grisham, Jodi Picoult und der Game-of-Thrones-Schöpfer George R. R. Martin Klage gegen OpenAI eingereicht.

Auch sie werfen der Firma vor, ihren auf künstlicher Intelligenz basierenden Chatbot ChatGPT unerlaubt mit ihren urheberrechtlich geschützten Werken trainiert zu haben.

Sind solche Klagen auch in Deutschland denkbar?

Ja! Ein ähnliches Szenario wie zwischen der New York Times und OpenAI wäre auch in Deutschland möglich.

Das deutsche Urheberrecht sieht vor, dass der Urheber das alleinige Recht hat, über die Nutzung seiner Werke zu entscheiden. In diesem Zusammenhang wäre die unbefugte Verwendung von Inhalten durch KI-Entwickler ohne entsprechende Genehmigung oder Lizenzierung potenziell rechtlich problematisch. In Deutschland gibt es ähnlich wie in den USA Gesetze zum Schutz von geistigem Eigentum. Sie sollen sicherstellen, dass Urheber fair für die Verwendung ihrer Werke entschädigt werden. Daher ist es zumindest denkbar, dass eine Klage wie die der New York Times gegen OpenAI auch in Deutschland aufgrund von Verletzungen des Urheberrechts eingereicht werden könnte.

Auch in Deutschland besteht bislang allerdings eine erhebliche Unsicherheit in Bezug darauf, ob Urheber akzeptieren müssen, dass künstliche Intelligenz zur Schulung mit ihren geschützten Werken verwendet wird. Die aktuelle Gesetzgebung bietet keine klaren Regelungen zu dieser spezifischen Thematik. Bis dato gibt es auch keine einschlägige Rechtsprechung, die die rechtlichen Aspekte dieser Problematik konkret klärt.

Das Fehlen klarer gesetzlicher Vorschriften zu der Verwendung geschützter Werke durch KI-Systeme hinterlässt eine rechtliche Grauzone. Urheber haben bisher keine klaren Leitlinien oder Garantien dafür, wie ihre Werke von KI-Entwicklern genutzt werden können. Die bestehende Unsicherheit erstreckt sich einerseits auf die Pflichten der Urheber hinsichtlich der Zustimmung zur Nutzung ihrer Werke durch KI-Systeme. Zum anderen erstreckt sie sich auf die Rechte der KI-Entwickler im Hinblick auf den Zugang zu geschützten Inhalten.

Da es bisher keine etablierten rechtlichen Präzedenzfälle in Deutschland zu dieser Thematik gibt, bleibt die Frage nach der Rechtmäßigkeit und den genauen Bedingungen für die Nutzung geschützter Werke durch KI-Systeme offen.

Datenschutzverstöße als möglicher Klagegrund?

OpenAI nutzt die Daten von Nutzern und Nutzerinnen, um seine KI-Modelle zu optimieren. Die zentrale Frage lautet dabei: Erfüllt OpenAI die Anforderungen der Datenschutz-Grundverordnung (DSGVO) und des Bundesdatenschutzgesetzes (BDSG)? Sind die Datenschutzerklärungen transparent, und erfolgt die Datenverarbeitung mit ausreichender Zustimmung der Nutzer und Nutzerinnen?

Besonders brisant wird diese Thematik vor dem Hintergrund, dass die Bundesregierung erst im letzten Jahr aufgrund einer Anfrage der AfD (Drucksache 20/6835 vom 17.05.2023) feststellte, dass personenbezogene Daten, die OpenAI durch das KI-Chatsystem ChatGPT sammelt und verarbeitet, den Vorgaben der DSGVO und des BDSG unterliegen.

Die Antwort der Bundesregierung hierauf (Drucksache 20/7262 vom 14.06.2023) war knapp, aber deutlich: „Die Verarbeitung personenbezogener Daten durch das ChatGPT betreibende Unternehmen OpenAI unterliegt den Vorgaben der Datenschutzgrundverordnung und des Bundesdatenschutzgesetzes. Die Entscheidung darüber, ob und welche Maßnahmen gegenüber dem ChatGPT betreibenden Unternehmen OpenAI ergriffen werden, obliegt den zuständigen unabhängigen Datenschutzaufsichtsbehörden. Ihnen sind in der Datenschutzgrundverordnung entsprechende Befugnisse eingeräumt.“

Die Klärung, ob ChatGPT tatsächlich gegen Datenschutzbestimmungen verstößt, steht noch aus. Die deutschen Landesdatenschutzbehörden haben im April 2022 ein Verwaltungsverfahren gegen OpenAI eingeleitet. Mithilfe eines umfangreichen Fragekatalogs prüfen sie, ob die Algorithmen der KI-Software den Vorgaben der europäischen Datenschutzregeln der DSGVO entsprechen.

Bei einem Verneinen könnten Klagen gegen OpenAI nicht nur wegen Urheberrechtsverletzungen, sondern auch wegen Verstößen gegen das Datenschutzrecht durchaus realistisch werden.

Die europäischen KI-Verordnung (AI Act)

Bisher gab es in der EU für Künstliche Intelligenz keine spezifischen Vorschriften, abgesehen von allgemeinen Regelungen aus anderen Rechtsbereichen wie dem Datenschutz- und Strafrecht. Das wird sich jedoch bald ändern: Die Europäische Kommission hat als Teil ihrer digitalen Strategie einen Vorschlag für eine KI-Verordnung, den sogenannten AI Act, erarbeitet. Im Dezember 2023 erzielten die Europäische Kommission, das Europäische Parlament und der Europäische Rat eine politische Einigung über diese Verordnung.

Der Zweck der Europäischen KI-Verordnung besteht darin, einen rechtlichen Rahmen für den Umgang mit KI in der Europäischen Union zu schaffen. Der Vorschlag umfasst Bestimmungen zur Regulierung von Hochrisiko-KI-Anwendungen, zur Förderung von Innovationen und zur Sicherstellung von Grundrechten und ethischen Prinzipien.

Allerdings sagt die europäische KI-Verordnung (AI Act) nichts Konkretes zur Nutzung von Werken zu Schulungszwecken durch KI. Als erstes umfassendes KI-Gesetz weltweit zwingt es jedoch Anbieter dazu, die geltenden Urheberrechtsbestimmungen nachzuweisen. Zusätzlich wird eine Transparenzpflicht eingeführt: Organisationen wie Open AI müssen eine Liste der für das Training verwendeten Inhalte veröffentlichen. Es wird jedoch kein spezifisches Auskunftsrecht bezüglich einzelner Werke geben. Die genauen Details sind noch unbekannt, da der endgültige Text des AI Act noch nicht veröffentlicht wurde.

Möchten Sie mehr über den AI Act erfahren? Dann laden wir Sie ein, in unsere 35. Podcast-Folge reinzuhören. Unsere Experten diskutieren darin die geplante KI-Verordnung, ihre potenziellen Auswirkungen und erläutern bereits bestehende Vorschriften im Bereich der KI.

Fazit

Die aktuellen rechtlichen Kontroversen um die Nutzung von redaktionellen Inhalten durch KI-Entwickler werfen weltweit wichtige Fragen auf. Auch in Deutschland könnten in naher Zukunft ähnliche Klage wie gegen OpenAI erfolgen, da die bestehenden Gesetze zum Schutz des geistigen Eigentums auch für KI-Entwickler gelten.

Die europäische KI-Verordnung (AI Act) könnte zukünftig zwar zusätzliche Klarheit und Regulierung in diesem Bereich bringen. Es bleibt aber abzuwarten, wie diese Entwicklungen die Beziehung zwischen Tech-Unternehmen und Medienorganisationen beeinflussen werden und welche Auswirkungen dies auf die Nutzung von geschützten Inhalten für KI-Entwicklungen haben wird.

Total
0
Shares
Prev
Datenschutzverstöße bei Meta
Podcast Folge 43

Datenschutzverstöße bei Meta

Ein trauriger Spitzenreiter

Next
EuGH-Entscheidung zur Schufa: Das Urteil ist da!
Markenparfüm Discounter

EuGH-Entscheidung zur Schufa: Das Urteil ist da!

Urteil der Woche

You May Also Like