© Foto von Howard Bouchevereau auf unsplash.com

Nightshade und Glaze

News-Beitrag

Dieser Artikel beantwortet Ihnen folgende Fragen:

Welche Risiken birgt die Verwendung von generativer KI für Künstler und Unternehmen?
Wie können Inhalte und künstlerische Stile vor unbefugter Nutzung und Kopie geschützt werden?
Was sind die Hauptmerkmale der von der Universität Chicago entwickelten Programme Nightshade und Glaze, und wie können sie den Schutz von persönlichen Stilen und Bildinhalten verbessern?

Ein neues Bild von van Gogh oder doch lieber eine Comic-Zeichnung im Stil von Micky Maus? Das Haustier im Disney-Stil oder ein Paarporträt im bekannten gelben Simpsons-Design? Mit Tools wie Stable Diffusion oder MidJourney ist heutzutage fast alles möglich. Was zunächst ganz lustig klingt, birgt für Künstler und Unternehmen jedoch immer auch das Risiko von ungewollter Vervielfältigung oder sogar „Deepfakes“, die täuschend echt aussehen.

Vor allem mit dem Aufkommen von generativer KI, die auch Bilder und Videos erstellen kann, stellt sich immer mehr die Frage, wie Bilder, Grafiken, Fotografien oder einfach nur der eigene künstlerischen Stil vor unbefugter Nutzung und Kopie geschützt werden können. Auch Unternehmen, die ihr Corporate Design oder Marken sorgfältig entwickelt haben, stehen immer mehr vor der Herausforderung, dass diese kopiert oder missbraucht werden kann – z. B. in Deepfake Videos oder Bildern mit vom Unternehmen ungewollten Aussagen. In Zeiten der allumfassenden Vernetzung können Falschmeldungen so in rasanter Geschwindigkeit verbreitet und oft nur unter großen Anstrengungen korrigiert werden.

Wer bislang seinen Content bzw. dessen Design vor Scraping (also das Sammeln von Daten für Trainingszwecke von KI, insbesondere für Large Language Models (LLMs)) schützen wollte, hatte hierfür kaum Möglichkeiten. Zwar kann man in der robots.txt für Webseiten hinterlegen, dass diese von sogenannten Scrapern nicht ausgelesen bzw. weitergenutzt werden darf – ob diese sich allerdings hieran halten, wird nicht abschließend überprüfbar sein. Für Content, beispielsweise auf Blogs, gibt es auch die Möglichkeit, einen sogenannten TDM-Vorbehalt (mehr dazu in dem Beitrag: Der TDM-Vorbehalt ) ins Impressum zu schreiben. Dieser beruht auf § 44b des Urheberrechts und bedeutet vereinfacht, dass nur der tatsächliche Inhaber der Texte bzw. des Contents, diese vervielfältigen und für die weitere Nutzung (z. B. zum Training einer KI) freigeben darf. Auch hier bleibt die Frage offen, ob sich die Scraper, die die Trainingsdaten aus dem Netz sammeln, wirklich hieran halten. Beide Möglichkeiten sind nämlich erstmal „nur“ Hinweise für die Scraper – praktisch gesehen können sich diese dennoch einfach darüber hinwegsetzen.

Übrigens:
Ob beim Scrapen das Urheberrecht übergangen wird, klären wir in dem Beitrag:
Rechtliche Auseinandersetzungen bezüglich KI-Entwicklung

Nun haben Forscher der Universität Chicago zwei Programme entwickelt, die sich als echte GameChanger entwickeln könnten. Ganze Bilder können mit Nightshade so verändert werden, dass die KI darin falsche oder andere Dinge erkennt. Zum Beispiel wird aus einer Tomate plötzlich eine Gurke oder aus einer Sonne ein Mond.
Wer speziell seinen persönlichen Stil schützen möchte, kann dies mit Glaze tun. Ähnlich zu Nightshade wird hier im speziellen der künstlerische Stil verändert: aus dem Surrealismus wird beispielsweise Pop Art. Die Programme fügen dabei wie eine zusätzliche Ebene zum Bild hinzu, die für Menschen unsichtbar, für Maschinen aber sichtbar ist. Jede unsichtbare Ebene ist zufällig konzipiert, weshalb es schwierig sein wird, die fehlerhaften Bilder zwischen den korrekten zu erkennen. Werden nun Bilder, die so verändert worden sind, dennoch zu Trainingszwecken genutzt, kann bereits eine kleine Menge ausreichen, um den gesamten Datensatz zu „vergiften“. So wird im schlechtesten Fall die KI-Anwendung, die die vergifteten Daten genutzt hat, unbrauchbar, da keine vernünftigen Ergebnisse mehr geliefert werden.

Interessant wird es vor allem in Hinblick auf den neuen AI Act der EU. Hier werden in Artikel 10 Anforderungen an die Trainings- Validierungs- und Testdaten gestellt. Diese unterliegen in Zukunft „angemessenen” Data Governance und Management Praktiken. Explizit genannt ist unter Absatz 2 b) auch die Datensammlung.

Die Entwicklung solcher Schutzprogramme könnte für KI-Entwickler also hinsichtlich der geänderten Rechtslage perspektivisch Anreize setzen, verstärkt auf die Beschaffung der Trainingsdaten zu achten. Denn zukünftig wird es leichter sein, herauszufinden, ob Bilder oder bestimmte Design-Stile gegen den Willen des Künstlers oder Unternehmens genutzt worden sind. Das bedeutet im Gegenzug auch, dass Unternehmen, die ihre KI mit Daten aus korrekten und „kontrollierten Datenlieferketten” trainieren, sich hier möglicherweise einen Wettbewerbsvorteil schaffen können.

Total
0
Shares
Prev
Der TDM-Vorbehalt: Schutz von Urheberrechten im digitalen Zeitalter: Ein Blick auf § 44b UrhG
©270961762 - stock.adobe.com

Der TDM-Vorbehalt: Schutz von Urheberrechten im digitalen Zeitalter: Ein Blick auf § 44b UrhG

Rechtliche Grundlagen und Wirksamkeit

Next
BAG: Die Rechtsstellung des Geschäftsführers – Kündigungsschutz und Betriebsübergang | 20.07.2023 (Az. 6 AZR 228/2)
© Foto von Scott Graham auf unsplash.com

BAG: Die Rechtsstellung des Geschäftsführers – Kündigungsschutz und Betriebsübergang | 20.07.2023 (Az. 6 AZR 228/2)

Urteil der Woche

You May Also Like