Kodex vs. Code

OpenAI, Microsoft und Meta sind in Klagen über mehrere Milliarden Dollar wegen Verletzungen der Privatsphäre verwickelt. Wir diskutieren die Auswirkungen auf Generative KI, Datenethik und unternehmerische Verantwortung bzw. Haftung.

English version

Wie es begann

Die Klagen, von verschiedenen Gruppen von Autoren eingereicht, werfen OpenAI, Meta und Microsoft vor, Bücher sowie persönliche Daten und Informationen in Datensätze zum Training ihrer KI Modelle ohne ordnungsgemäße Genehmigung integriert zu haben.

Seit Ende Juni 2023 sind OpenAI und Microsoft in einen bedeutenden Rechtsstreit verwickelt. Sammelklagen, bei denen es um mehrere Milliarden Dollar an Schadensersatz geht, behaupten, dass die Technologiegiganten unrechtmäßig riesige Mengen an privaten Daten von Internetnutzern ohne deren Zustimmung gesammelt haben, um ihre KI-Modelle zu trainieren. Während die Fälle derzeit vor einem Bundesgericht in Kalifornien verhandelt werden, zeigen sie kritische Aspekte der Privatsphäre, der Ethik künstlicher Intelligenz und unternehmerischer Verantwortung auf, die Auswirkungen auf das breitere Feld der Generativen KI haben werden.

Die Vorwürfe und ihre Auswirkungen

Die Ende Juni eingereichten Klagen stellen darauf ab, dass beispielsweise OpenAI heimlich etwa 300 Milliarden Wörter aus dem Internet gesammelt hat, ohne sich als Datenbroker zu registrieren oder ordnungsgemäße Zustimmung einzuholen. Diese umfangreichen Daten umfassten angeblich Namen, Kontaktdaten, E-Mail-Adressen, Zahlungsinformationen, soziale Medieninhalte, Chat-Protokolle, Nutzungsdaten, Analysen und Cookies. Ein Hauptanliegen, das von den Klägern hervorgehoben wird, ist, dass OpenAIs KI-Produkte, einschließlich ChatGPT, unter Verwendung gestohlener Daten entwickelt wurden, was zu einer aus ihrer Sicht ungerechtfertigten Bereicherung führte. Über die finanziellen Ansprüche hinaus betont die Klage die Notwendigkeit von Transparenz, Datenethik und den Rechten der Nutzer zur Kontrolle ihrer persönlichen Informationen.

Der aktuelle Stand

OpenAI hat die Kernvorwürfe in Bezug auf Urheberrechtsverletzungen wie erwartet bestritten. Die rechtliche Argumentation von OpenAI dreht sich um die Behauptung, dass der von ChatGPT erzeugte Text nicht ausreichend ähnlich zu den Originalwerken der Autoren ist, um eine Verletzung des Urheberrechts darzustellen. Das Unternehmen argumentiert, dass die Ergebnisse von ChatGPT Veränderungen und Umnutzungen unterliegen und somit unter das US-Urheberrecht als “fair use” fallen. Während OpenAI versucht, bestimmte Ansprüche abzuwehren, hat es seine Bereitschaft signalisiert, sich in Gerichtsverhandlungen mit dem ersten Anspruch der direkten Urheberrechtsverletzung auseinanderzusetzen, um seine rechtliche Position in der Angelegenheit zu klären.

Der Rechtsstreit verdeutlicht das komplexe Zusammenspiel zwischen KI-Technologie und Urheberrecht, sowie die weitreichenden Implikationen von KI-generierten Inhalten und deren Beziehung zu bestehenden geistigen Eigentumsrahmen. Während der Prozess noch andauert, trägt er zur laufenden Diskussion über die rechtlichen Grenzen und Verantwortlichkeiten von KI-Entwicklern bei der Verwendung urheberrechtlich geschützten Materials für das Training von KI-Modellen bei.

Zusätzlich hat das US-Urheberrechtsamt kürzlich öffentliche Kommentare zur Schnittstelle von KI und Urheberrecht eingeholt, was den wachsenden Bedarf verdeutlicht, rechtliche Unklarheiten in diesem sich entwickelnden Bereich anzugehen.

Universalität der Datenschutzbedenken

Die Bedeutung dieser Klage geht über finanzielle Entschädigungen hinaus. Carissa Véliz, Associate Professor an der University of Oxford und Autorin von “Privacy is Power,” betont, dass die Klage die universelle Natur von Datenschutzbedenken verdeutlicht. Véliz verweist auch auf das Verbot von ChatGPT in Italien. Der aktuelle Fall unterstreicht die weit verbreitete globale Besorgnis hinsichtlich ungeprüfter Datenerhebung und möglicher Missbrauchsgefahr durch Technologiegiganten.

KI-Ethik und unternehmerische Verantwortlichkeit

Der Rechtsstreit lenkt den Blick auf die ethischen Dimensionen von KI-Entwicklung und -Einsatz. OpenAI und Microsoft sind Pioniere in der Generativen KI, und ihre Praktiken prägen die Branche. Die Vorwürfe unterstreichen die Notwendigkeit für Technologieunternehmen, die Einhaltung ethischer Datenerfassungspraktiken sicherzustellen, die Zustimmung der Nutzer zu priorisieren und für die genutzten Daten verantwortlich zu sein, sagte Véliz. Die Klage zieht Parallelen zu Clearview AI, die wegen Datensammelpraktiken für Gesichtserkennungszwecke rechtlich belangt wurden. Sie verdeutlicht, dass Unternehmen wie OpenAI personenbezogene Daten nicht als uneingeschränkte Quelle für Innovation und Gewinn betrachten können. Nathan Freed Wessler, stellvertretender Direktor des ACLU Speech, Privacy, and Technology Project, sagte: “Clearview darf einzigartige biometrische Identifikatoren nicht mehr uneingeschränkt als Quelle für Gewinne behandeln.” Dieser Gedanke resoniert mit der aktuellen Klage und spiegelt die wachsende Nachfrage nach ethischen Grenzen in der KI-Entwicklung wider.

Wie es weitergeht

Die Auswirkungen dieser Klage sind vielschichtig. Wenn die Kläger Recht bekommen, könnten OpenAI und Microsoft verpflichtet sein, Nutzer zu entschädigen, ihre Datensammelpraktiken offenzulegen und die Möglichkeit zum Opt-out der Datenerfassung anzubieten. Darüber hinaus könnte der Fall zu einem breiteren Diskurs über den ethischen Einsatz von KI führen und die Notwendigkeit für Technologieunternehmen verdeutlichen, sich an gesellschaftliche Normen und Gesetze anzupassen, anstatt von der Gesellschaft zu erwarten, sich an ihre Praktiken anzupassen (Kodex vs. Code). Eine weitere mögliche Konsequenz könnte sein, dass OpenAI, Meta, Microsoft und andere ihre aktuellen Modelle möglicherweise aufgeben und diese von Grund auf neu trainieren müssen.

Die immerwährende Herausforderung: Balance von Innovation und Ethik

Kritiker könnten argumentieren, dass Rechtsstreitigkeiten wie diese Innovationen bremsen könnten. Die Klagen widersprechen dieser Perspektive und betonen, dass technologische Fortschritte nicht auf Kosten von Privatsphäre und Demokratie gehen können. KI könne auch gedeihen, ohne individuelle Rechte oder demokratische Prinzipien zu beeinträchtigen. Während die Rechtsstreitigkeiten fortschreiten, etablieren sie gleichzeitig einen entscheidenden Moment für die Tech-Branche. Das Ergebnis wird wahrscheinlich ein Präzedenzfall dafür sein, wie KI-Entwicklung und Datenverwendung künftig gehandhabt oder geregelt werden. Letztendlich ist es ein Aufruf an Technologieunternehmen, ihre Praktiken an die Werte und Rechte der Gesellschaft anzupassen.

Möglicher Anspruch auf Gewinnabschöpfung im Persönlichkeitsrecht

In seinem neuen Buch “Anspruch auf Gewinnabschöpfung im Persönlichkeitsrecht” behandelt Joachim Pierer die rechtlichen Aspekte des Persönlichkeitsrechts in Österreich, wie Rechtsanwalt Wilhelm Milchrahm in seinem MS Legal Blog (siehe Link unten) erläutert. Pierer erörtert sowohl die Pflicht zur Erstattung eingesparter Aufwendungen als auch die Pflicht zur Herausgabe der erzielten Gewinne. Pierer nimmt auch zur übergeordneten Frage Stellung, ob Geschädigte nur einen Teil der Gewinne erhalten können, wenn der Schädiger durch eigene Anstrengungen zur Gewinnentstehung beigetragen hat. Nach einer klaren Darstellung der aktuellen Meinungen in der Literatur und der aktuellen Rechtsprechung entwickelt der Autor ein neues Rechtskonzept, um dieses Verteilungsproblem zu lösen (“redliches Alternativverhalten”).

Die Frage, ob ein unrechtmäßiger Schädiger einen Teil der Gewinne behalten darf, weil er durch eigene Anstrengungen zur Gewinnentstehung beigetragen hat, wirft ein interessantes ethisches und rechtliches Dilemma auf. Dieser Aspekt von Pierers Analyse könnte tatsächlich breitere Diskussionen in rechtlichen Kreisen auch in anderen Rechtsordnungen anregen. Die Idee des “redlichen Alternativverhaltens” als vorgeschlagene Lösung könnte eine neue Perspektive bieten, um Verteilungsfragen in Fällen der Persönlichkeitsrechtsverletzung anzugehen. Innovative Ansätze wie dieser haben oft das Potenzial, rechtliches Denken und Praxis über ihren Ursprungsort hinaus zu inspirieren, da andere Rechtssysteme ähnliche Herausforderungen bewältigen müssen.


Quellen:
Reuters, 29. August 2023: OpenAI asks court to trim authors’ copyright lawsuits
Reuters, 29. June 2023: Lawsuit says OpenAI violated US authors’ copyrights to train AI chatbot
Carissa Véliz, Associate Professor, University of Oxford and author of “Privacy is Power” (The Economist Book of the Year), 1. Juli 2023, analysis thread on Twitter
Vice, 29. June 2023: OpenAI and Microsoft Sued for $3 Billion Over Alleged ChatGPT ‘Privacy Violations’
Class Action Lawsuit against OpenAI and Microsoft, 28 June 2023, Case 3:23-cv-03199-JCS (157 pages)
OpenAI motion to dismiss claims, 28. August 2023, Case 3:23-cv-03223-AMO (36 pages)
Case Updates LLMlitigation https://llmlitigation.com/case-updates.html
The New York Times, 9. May 2022, Clearview AI settles suit and agrees to limit sales of facial recognition database.
Ars Technica, 17. August 2023, Potential NYT lawsuit could force OpenAI to wipe ChatGPT and start over.
MS Legal Blog von RA Wilhelm Milchrahm Kann der Gewinn abgeschöpft werden, wenn das Persönlichkeitsrecht verletzt wird? zum Buch von Joachim Pierer

Upcoming events