Der falsche Olaf Scholz – eine anwaltliche Einordnung von Deepfakes

29. Mai 2024

Inhaltsverzeichnis

Geschrieben von Rechtsanwältin Dr. Lea Schwob (geb. Lorbach) und Clara Schmittgen

Ende November 2023 sorgte ein Video von Bundeskanzler Olaf Scholz für Aufsehen: In einer Rede an die Nation forderte er, die Partei Alternative für Deutschland (AfD) zu verbieten. Nachdem das Video zunächst für Irritation gesorgt hatte, stellte sich heraus, dass es sich um eine Fälschung der Satiregruppe „Zentrum für politische Schönheit“ handelte, ein sog. Deepfake. Das Landgericht Berlin untersagte die Verbreitung des Videos (zu den Hintergründen: https://www.lto.de/recht/nachrichten/n/lg-berlin-ii-15o579-23-olaf-scholz-bundeskanzler-deep-fake-afd-verbot-zentrum-politische-schoenheit/).

Deepfakes sind aus dem digitalen Zeitalter nicht mehr wegzudenken. Sie stehen exemplarisch für die Gefahren der modernen Technologien und bezeichnen eine Methode, bei der mittels Künstlicher Intelligenz (KI) multimediale Elemente wie Audio-, Video- oder Bilddateien manipuliert werden. Hierbei kommen häufig Algorithmen zum Einsatz, die Gesichts- und Spracherkennungstechnologien kombinieren und täuschend echte Fälschungen erzeugen. Die daraus resultierenden Endprodukte sind oft kaum von authentischem Material zu unterscheiden.

Neben den Herausforderungen, die Deepfakes für die öffentliche Meinungsbildung und die Gefahr gezielter Informationsverzerrung darstellen, stehen aus rechtlicher Sicht auch die Persönlichkeitsrechte betroffener Personen im Fokus der Debatte. Das Schädigungspotenzial ist dabei enorm. Nachfolgend zeigen wir auf, welche Rechtsbereiche betroffen sind und welche rechtlichen Instrumente sowohl repressiv als auch präventiv zur Verfügung stehen.

Allgemeines Persönlichkeitsrecht

Das Allgemeine Persönlichkeitsrecht dient dem Betroffenen vor allem zur Abwehr und zum Schutz gegen ihn betreffende Berichte in den Medien. Die Veröffentlichung manipulierter Bilder, die den Anschein erwecken, authentisch zu sein, fällt daher unter den Schutz des Allgemeinen Persönlichkeitsrechts, indem sie den unzutreffenden Eindruck der Authentizität erwecken.

Bei der Verwendung oder Veränderung von Fotos und Videos kommt dabei eine Verletzung des Rechts am eigenen Bild nach §§ 22, 23 KUG als besondere Ausgestaltung des Allgemeinen Persönlichkeitsrechts in Betracht. Gemäß § 22 S. 1 KUG dürfen Bildnisse grundsätzlich nur mit Einwilligung des Abgebildeten verbreitet und öffentlich zur Schau gestellt werden. Eine Rechtfertigung kann allerdings auch über die Ausnahmetatbestände des § 23 KUG erfolgen. Besonders relevant ist § 23 Nr. 1 KUG, wenn es sich um Bildnisse aus dem Bereich der Zeitgeschichte handelt. Gerade bei Deepfakes handelt es sich oft um Manipulationen von Personen, die in der Öffentlichkeit präsent sind. Ein solches öffentliches Interesse an der Person allein rechtfertigt jedoch nicht die Veröffentlichung von Darstellungen insbesondere aus der Privat- oder Intimsphäre oder anderweitig unangemessenen Inhalten, an denen der Abgebildete ein überwiegendes berechtigtes Interesse hat. Auch bei dem grundsätzlichen Vorliegen einer Einwilligung zu Bildmaterial, das dann aber nachträglich bearbeitet und veröffentlicht wird, kann eine Verletzung des Rechts am eigenen Bild nach § 22 KUG vorliegen. Denn dadurch findet eine Veränderung des Aussagegehalts des Bildnisses statt. Sofern solche Veränderungen nicht als unbedeutend einzuordnen sind, kann es sich um eine unzutreffende und damit unwahre Bildaussage handeln.

Neben der visuellen Darstellung kann zudem auch die menschliche Stimme in Video- oder Tonaufnahmen betroffen sein. Diese ist ebenso integraler Bestandteil des Persönlichkeitsrechts. Vom Allgemeinen Persönlichkeitsrecht umfasst ist also auch der Schutz vor einer Verfälschung der eigenen Stimme oder der Wiedergabe unrichtiger Zitate. Vor diesem Hintergrund ist die rechtswidrige Verwendung manipulierter Tonaufnahmen ebenso untersagt.

Da Deepfakes in der Regel einen falschen Eindruck der Authentizität vermitteln und damit unwahre Tatsachenbehauptungen darstellen, können sie nicht durch die in Art. 5 Abs. 1 GG geschützte Meinungs- und Pressefreiheit gerechtfertigt werden. Denn unrichtige Informationen werden von der Meinungsfreiheit gerade nicht geschützt.

In der Praxis eröffnet sich durch persönlichkeitsrechtsverletzende Deepfakes insgesamt ein hohes Missbrauchspotenzial. So können Personen durch manipulierte Aufnahmen in einen diskreditierenden, sie bloßstellenden Kontext gesetzt werden. Die Verbreitung in den sozialen Medien ist geeignet, sie in ihrem sozialen und/oder beruflichen Ansehen erheblich zu schädigen. Auch im Bereich der Politik besteht die Gefahr, dass Deepfakes aufgrund der hohen Authentizität sowohl im allgemeinen politischen Betrieb wie etwa im Wahlkampf, aber auch im beruflichen und privaten Kontext einzelner Politiker das gesellschaftliche Vertrauen schmälern.

Personen, die von einer solchen Persönlichkeitsrechtsverletzung betroffen sind, steht in der Regel ein Unterlassungs- und Beseitigungsanspruch nach § 1004 Abs. 1 BGB analog i.V.m. Art. 1 Abs. 1, Art. 2 Abs. 1 GG zu. Bei schwerwiegenden Verletzungen kann in Ausnahmefällen außerdem eine Geldentschädigung geltend gemacht werden.

Urheberrecht

Beim Einsatz von Deepfakes können außerdem Urheberrechte verletzt werden. Denn in den meisten Fällen greift KI bei der Erstellung und maschinellen Verarbeitung von multimedialen Materialien auf bereits bestehendes, urheberrechtlich geschütztes Material zurück. Die rechtliche Problematik liegt vor allem in der Verarbeitung des urheberrechtlich geschützten Materials, da dieses ohne Einwilligung des Urhebers verändert werden.

Bei einem Verstoß gegen das Urheberrecht haben Betroffene einen Anspruch auf Unterlassung, Beseitigung und Schadensersatz gemäß § 97 UrhG. Auch ein Anspruch auf Vernichtung und Rückruf des verbreiteten Werkes nach § 98 UrhG kommt in Betracht. Der Anspruch auf Rückruf gestaltet sich in der Praxis allerdings schwierig, da die Vermeidung von Vervielfältigungen im Internet eine große Herausforderung darstellt.

Markenrecht

Möglich ist auch, dass durch Deepfakes Markenrechte verletzt werden. So hat sich beispielsweise die Bundesregierung in einem KI-generierten Video mit Olaf Scholz auf markenrechtliche Bedenken berufen. Dabei wurde auf die eingetragene Wort-Bild-Marke des Bundesadlers und des Flaggenstabs abgestellt, die als markenrechtlich geschützte Elemente im Hintergrund des Videos erkennbar waren. Grundsätzlich kann eine solche Verwendung von markenrechtlich geschützten Zeichen in Deepfakes auch markenrechtliche Unterlassungsansprüche begründen. Es sollte daher auch immer eine mögliche Verletzung von bestehenden Markenrechten berücksichtigt und geprüft werden.

Auch im Falle von Markenrechtsverletzungen haben Betroffene einen Anspruch auf Unterlassung, Beseitigung sowie Schadensersatz gemäß § 14 MarkenG sowie auf Vernichtung und Rückruf der verletzenden Produkte gemäß § 18 MarkenG.

Datenschutzrecht

Die Herstellung und Verbreitung von Bildnissen natürlicher Personen stellt zudem regelmäßig eine Verarbeitung personenbezogener Daten im Sinne der DSGVO dar. Eine Verarbeitung solcher Daten wie etwa dem Bildnis einer Person ist ohne Einwilligung der betroffenen Person oder einer anderen Rechtsgrundlage der Art. 6, Art. 9 DSGVO nicht erlaubt. Kongruent zu den Regelungen des KUG bezieht sich auch hier eine einmal erteilte Einwilligung nur auf die ursprüngliche Verarbeitungsform; die nachträgliche Bearbeitung und Verwendung als Deepfake sind von der ursprünglichen Einwilligung gerade nicht mehr umfasst.

Im Fall von unrechtmäßiger Datenverarbeitung steht dem Betroffenen regelmäßig ein Löschungsanspruch nach Art. 17 DSGVO zu. Außerdem kann unter bestimmten Voraussetzungen Schadensersatz gemäß Art. 82 DSGVO verlangt werden.

Reaktiver Schutz

Um veröffentlichte Inhalte nachträglich unzugänglich zu machen, sollten Betroffene Maßnahmen ergreifen, um die weitere Verbreitung durch gezieltes Vorgehen gegen den Verbreiter und/oder die Plattformen stoppen.

Ein Vorgehen gegen den unmittelbaren Ersteller ist oftmals nur schwer durchzusetzen, da dessen Identität in der Regel unbekannt ist, wenn dieser z.B. ein Pseudonym verwendet. Die schnellste und einfachste Möglichkeit ist daher, die jeweiligen Plattformbetreiber zu verpflichten, die rechtsverletzenden Inhalte zu überprüfen und im weiteren Verlauf zu löschen. Die Plattformen sind zwar nicht die Ersteller des Deepfakes. Eine entsprechende Pflicht zur Prüfung und ggfs. auch zu Vorkehrungen gegen erneute Verletzungen tritt aber dann ein, wenn die Plattform konkret auf eine mögliche Persönlichkeitsrechtsverletzung hingewiesen wurde.

Dies erfolgt durch zunächst regelmäßig durch eine Aufforderung zur Löschung des rechtsverletzenden Inhalts. Verweigert das Portal eine Löschung, ist es in der Verantwortung und kann kostenpflichtig abgemahnt werden. Bleibt auch die Abmahnung ohne Erfolg, kann angesichts durch Beantragung einer einstweiligen Verfügung schnell und gezielt gegen die Rechtsverletzung vorgegangen werden.

Präventive Kennzeichnungspflichten bei KI-generierten Inhalten

Obwohl die Verbreitung von Deepfakes in der Regel die oben genannten Rechtsbereiche tangiert, ist die Verbreitungsgeschwindigkeit von Deepfakes in der Praxis extrem hoch. Dies führt dazu, dass es oftmals zu einer Zerstreuung auf verschiedenen Plattformen kommt und eine Rückverfolgbarkeit nur schwer möglich ist.  Aus diesen Gründen ist grundsätzlich ein effektiver Rechtsschutz über einen rein reaktiven Zivilprozess hinaus auch präventiv zu gewährleisten.

Die im März 2024 vom EU-Parlament verabschiedete KI-Verordnung sieht in Bezug auf weniger risikobehaftete KI-Systeme eine Transparenzpflicht vor. Gemäß Art. 52 der KI-Verordnung sollen Nutzer von KI-Systemen bei der Erzeugung oder Manipulation von Bild-, Ton- oder Videoinhalten offenlegen, dass Verarbeitungen durch KI-Systeme vorgenommen wurden. Darunter fallen nach Art. 52 Abs. 3 auch explizit Deepfakes. Eine Hinweispflicht soll allerdings entfallen, wenn die Nutzung „offensichtlich“ ist. Außerdem wird die Transparenzpflicht bei der Arbeit der Presse eingeschränkt. In Fällen, in denen eine Veröffentlichung zur Wahrung der Rechten auf freie Meinungsäußerung oder der Kunst- und Wissenschaftsfreiheit erforderlich ist, soll gerade keine Kennzeichnung erfolgen müssen.

Trotz der normierten Kennzeichnungspflichten weist die Vorschrift einige Schwächen auf. Die konkreten Formulierungen bezüglich des Umfangs einer Kennzeichnungspflicht bleiben vage. Die Verordnung beschreibt keine konkreten Maßnahmen zur Gewährleistung der Transparenz. Es bleibt zudem unklar, warum gerade die Presse mit ihrer öffentlichkeitswirksamen Berichterstattung von Kennzeichnungspflichten ausgenommen werden soll. Es bleibt daher abzuwarten, inwiefern in der Praxis durch die KI-Verordnung eine Transparenz in Bezug auf Deepfakes geschaffen werden kann.

Ausblick: Prävention und effektiver Rechtschutz

Die rasante Entwicklung von Deepfake-Technologien führt zu zahlreichen Herausforderungen. Eine ausschließliche Betonung reaktiver rechtlicher Maßnahmen reicht aufgrund der enorm schnellen Verbreitung von Deepfakes in sozialen Netzwerken möglicherweise nicht aus. Es ist daher entscheidend, auch präventive Maßnahmen, insbesondere in Form von Kennzeichnungspflichten für KI-generierte Inhalte, einzuführen. Gerade vor dem Hintergrund potenzieller Rechtsverletzungen und der Einflussnahme auf den öffentlichen Meinungsbildungsprozess ist zukünftig ein präventiver Rechtsschutz von entscheidender Bedeutung, um angemessen auf die Entwicklungen durch manipulative KI-generierte Inhalte zu reagieren.

Die KI-Verordnung könnte hierbei zwar einen ersten Ansatz darstellen, um die Regulierung nicht gekennzeichneter KI-Inhalte zu stärken. Dennoch bleibt aufgrund der aufgezeigten Schwächen ungeklärt, wie geeignete Schutzvorkehrungen im Einzelnen ausgestaltet werden. Eine besondere Bedeutung kommt den Gerichten zu, die für einen effektiven Rechtschutz Sorge tragen müssen.

Kontakt