{"id":6620,"date":"2026-04-27T17:22:57","date_gmt":"2026-04-27T15:22:57","guid":{"rendered":"https:\/\/brostclassen.de\/?post_type=medialawblog&#038;p=6620"},"modified":"2026-04-27T17:29:25","modified_gmt":"2026-04-27T15:29:25","slug":"deepfakes-und-identitatsdiebstahl","status":"publish","type":"medialawblog","link":"https:\/\/brostclassen.de\/en\/medialawblog\/deepfakes-und-identitatsdiebstahl\/","title":{"rendered":"Deepfakes und Identit\u00e4tsdiebstahl: Rechtlicher Schutz und anwaltliches Vorgehen"},"content":{"rendered":"\n<p><em>Geschrieben von Rechtsreferendar Fabian Kurti und Rechtsanwalt Yannick Hoppe LL.M. (Stellenbosch)<\/em><\/p>\n\n\n\n<p>Die \u00f6ffentliche Debatte \u00fcber den ausreichenden Schutz bei Deepfakes ist seit den j\u00fcngsten Vorw\u00fcrfen der Schauspielerin Collien Fernandes gegen Christian Ulmen neu entfacht. Fernandes wirft Ulmen vor, er habe fake-Profile unter ihrem Namen erstellt und Bildmaterial verschickt, das den Anschein erwecken sollte, Fernandes werde bei sexuellen Handlungen gezeigt. Ulmen bestreitet die Vorw\u00fcrfe. Bundesjustizministerin Stefanie Hubig (SPD) hat den Fall zum Anlass genommen, der \u00d6ffentlichkeit ihren Gesetzesentwurf zum Schutz vor digitaler Gewalt zu pr\u00e4sentieren.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Deepfakes in der Mitte der Gesellschaft<\/strong><\/h2>\n\n\n\n<p>Die sog. \u201e<a href=\"https:\/\/www.ndr.de\/nachrichten\/info\/deepfakes-wie-sie-entstehen-und-wie-wir-uns-schuetzen-koennen,deepfake-100.html\" target=\"_blank\" rel=\"noreferrer noopener\">Deepfake-Pornografie<\/a>\u201c, bei der mittels KI-Tools eine der betroffenen Person t\u00e4uschend \u00e4hnlich aussehende Darstellung erzeugt wird, die explizite sexuelle Handlungen zeigt, ist eine der krassesten Auspr\u00e4gungen von \u201edigitaler Gewalt\u201c im Zusammenhang mit Deepfakes. Dennoch tauchen Deepfakes im multimedialen Zeitalter auch in anderen Erscheinungsformen auf. Selbst dem fr\u00fcheren Bundeskanzler Olaf Scholz blieben die Gefahren der k\u00fcnstlichen Intelligenz (KI) nicht unbekannt, als Dritte eine gef\u00e4lschte Rede ver\u00f6ffentlichten, in der sich Scholz f\u00fcr ein Verbotsverfahren der Partei Alternative f\u00fcr Deutschland (AfD) aussprach. Der europ\u00e4ische Gesetzgeber definiert \u201eDeepfakes\u201c als einen \u201edurch KI erzeugten oder manipulierten Bild-, Ton- oder Videoinhalt, der wirklichen Personen, Gegenst\u00e4nden, Orten, Einrichtungen oder Ereignissen \u00e4hnelt und einer Person f\u00e4lschlicherweise als echt oder wahrheitsgem\u00e4\u00df erscheinen w\u00fcrde\u201c (Art. 3 Nr. 60 KI-VO). Es geht also um Inhalte abseits von \u00dcberspitzung und Satire, bei dem der Durchschnittsbetrachter nicht mehr unterscheiden kann, ob es sich um einen tats\u00e4chlichen oder einen KI-fantasierten Vorgang handelt. Besonders gef\u00e4hrlich werden diese M\u00f6glichkeiten f\u00fcr Betroffene, wenn sie, zur Erstellung pornografischer Inhalte genutzt werden.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Das Allgemeine Pers\u00f6nlichkeitsrecht und seine Durchsetzung&nbsp;<\/strong><\/h2>\n\n\n\n<p>Auf der zivilrechtlichen Ebene begr\u00fcnden (pornografische) Deepfakes regelm\u00e4\u00dfig einen schweren Eingriff in die Privat- und Intimsph\u00e4re. Ist die reale Person erkennbar, liegt au\u00dferdem eine Verletzung des Rechts am eigenen Bild gem. \u00a7\u00a7 22, 23 Abs. 2 KUG vor. Bei einem Eingriff in die Intimsph\u00e4re entf\u00e4llt die sonst im Bereich des Pers\u00f6nlichkeitsrechts erforderliche Abw\u00e4gung der widerstreitenden Interessen. Im Grundsatz sind die Rechtsfolgen in zivilrechtlicher Hinsicht damit eindeutig. Betroffenen steht bei Verletzung des Allgemeinen Pers\u00f6nlichkeitsrechts (Art. 2 Abs. 1, Art. 1 Abs. 1 GG) ein Beseitigungs- und Unterlassungsanspruch zu. Da es sich bei der Verbreitung von Deepfake-Pornografie um eine besonders schwerwiegende Pers\u00f6nlichkeitsrechtsverletzung handelt, d\u00fcrfte dar\u00fcber hinaus auch ein Anspruch auf Zahlung einer Geldentsch\u00e4digung bestehen.<\/p>\n\n\n\n<p>Die Herausforderung liegt jedoch an anderer Stelle: Den T\u00e4tern gelingt es oftmals durch unterschiedliche Techniken ihre Identit\u00e4t zu verschleiern, w\u00e4hrend Inhalte sich auf den einschl\u00e4gigen Plattformen verselbst\u00e4ndigen. Betroffene k\u00f6nnen sich daher h\u00e4ufig nur mit L\u00f6schungsaufforderungen an die Plattformbetreiber wenden und sind auf deren Kooperation angewiesen. Die Erfahrungen zeigen, dass sich gerade diese aber regelm\u00e4\u00dfig nicht in der Verantwortung sehen. Abhilfe schafft der \u201eDigital-Service-Act\u201c (DSA), wonach Plattformbetreiber bei Kenntnis von Rechtsverletzungen zur L\u00f6schung entsprechender Inhalte verpflichtet sind. In der Praxis gestaltet sich ein Vorgehen gegen die Plattformbetreiber trotz gesetzlicher Regelungen jedoch schwierig, da die Betreiber oft nicht erreichbar sind, Meldungen \u00fcber rechtswidrige Inhalte h\u00e4ufig unzureichend bearbeitet werden oder aus Sicht der Plattform die Anforderung einer \u201eoffensichtliche Rechtsverletzung\u201c nicht erf\u00fcllt ist. Denn bisher sind soziale Netzwerke nach der etablierten Rechtsprechung des Europ\u00e4ischen Gerichtshofs im Rahmen des sogenannten &#8220;Notice &amp; take down-Verfahrens&#8221; privilegiert. Eine Verpflichtung zur Entfernung von Inhalten setzt erst bei konkreter Kenntnisnahme durch eine substantiierte Meldung des Betroffenen ein. Diese Meldung muss so pr\u00e4zise sein, dass der Rechtsversto\u00df f\u00fcr den Betreiber ohne detaillierte juristische Untersuchung erkennbar ist. Da der Europ\u00e4ische Gerichtshof (EuGH) hierbei die Voraussetzung der Offensichtlichkeit betont, sind Plattformen bei komplexen Abw\u00e4gungen derzeit nicht zur sofortigen L\u00f6schung gezwungen.&nbsp;An diesem Haftungsregime der Plattformen hat auch der DSA nichts ge\u00e4ndert. &nbsp;<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Ans\u00e4tze zur Regulierung KI-generierter Deepfakes<\/strong><\/h2>\n\n\n\n<p>Zentrales Regelungswerk zur Regulierung von KI im Allgemeinen und Deepfakes im Speziellen ist die europ\u00e4ische Verordnung \u00fcber k\u00fcnstliche Intelligenz (KI-VO), die zu gro\u00dfen Teilen heute schon unmittelbare Anwendung findet. Nach ihren Regelungen m\u00fcssen Deepfakes k\u00fcnftig als solche gekennzeichnet werden (Art. 50 Abs. 4 Satz 1 KI-VO). Bei Verst\u00f6\u00dfen soll es im Ermessen der Mitgliedsstaaten stehen, welche verh\u00e4ltnism\u00e4\u00dfigen Sanktionen sie als zweckm\u00e4\u00dfig erachten (Art. 99 Abs. 1 KI-VO). Mit der Durchsetzung der<br>KI-VO und ihren Kennzeichnungspflichten von Deepfakes ist es aber nicht getan, denn eine Pers\u00f6nlichkeitsverletzung tritt im Fall von pornografischen Deepfakes ungeachtet einer m\u00f6glichen Kennzeichnung ein. Wer in sozialen Medien pl\u00f6tzlich mit k\u00fcnstlich erzeugten Nacktaufnahmen der eigenen Person konfrontiert wird, d\u00fcrfte in deren Kennzeichnung nur einen schwachen Trost finden. Bei Deepfakes mit pornografischem Inhalt bietet die KI-Verordnung somit keinen ausreichenden Schutz f\u00fcr Betroffene.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\"><strong>Mit den Mitteln des Strafrechts<\/strong><\/h2>\n\n\n\n<p>Gerade weil sich die zivilrechtliche Durchsetzung von Anspr\u00fcchen des allgemeinen Pers\u00f6nlichkeitsrechts h\u00e4ufig als schwierig darstellt, kann die Verfolgung solcher Darstellungen nicht allein den Betroffenen \u00fcberlassen werden. Vielmehr ist es auch Aufgabe des Strafrechts, den Betroffenen Schutz zu gew\u00e4hren und pr\u00e4ventiv auf T\u00e4ter einzuwirken. Hierbei ist es grunds\u00e4tzlich vertretbar, von Strafbarkeitsl\u00fccken im aktuellen Strafgesetzbuch auszugehen.<\/p>\n\n\n\n<p>Eine Verletzung der pers\u00f6nlichen Ehre des Einzelnen steht bereits jetzt unter Strafandrohung. In Bezug auf Deepfakes werden dabei regelm\u00e4\u00dfig die Straftaten der \u00fcblen Nachrede nach<br>\u00a7 186 StGB oder die Verleumdung nach \u00a7 187 StGB relevant. Voraussetzung ist jeweils die Behauptung einer ehrverletzenden Tatsache, die geeignet ist, den Ruf einer Person zu sch\u00e4digen. Die Ver\u00f6ffentlichung von Deepfake-Pornografie wird dabei h\u00e4ufig zumindest die implizite Behauptung enthalten, dass die betroffene Person an solchen Handlungen teilgenommen habe, was grunds\u00e4tzlich zu einer Rufsch\u00e4digung geeignet ist. Soweit der T\u00e4ter \u2013 wovon in diesem Zusammenhang regelm\u00e4\u00dfig auszugehen ist \u2013 positive Unkenntnis der Unwahrheit seiner Behauptung hat, kommt eine Strafbarkeit wegen Verleumdung in Betracht, anderenfalls kann die \u00fcble Nachrede einschl\u00e4gig sein. Auch an eine Strafbarkeit wegen Beleidigung nach \u00a7 185 StGB ist zu denken. Eine Beleidigung liegt bei der Kundgabe von Missachtung oder Nichtachtung gegen\u00fcber der betroffenen Person vor. In der Rechtswissenschaft existieren jedoch auch kritische Stimmen dahingehend, ob implizite Behauptungen \u00fcberhaupt als \u00c4u\u00dferungen im Sinne dieser Vorschrift gewertet werden k\u00f6nnen. Diese sogenannten \u201eEhrschutzdelikte\u201c sch\u00fctzen betroffene Personen damit im Zweifelsfall nicht ersch\u00f6pfend. Die Strafverfolgungsbeh\u00f6rden werden bei diesen Delikten, bis auf wenige Ausnahmen, nach \u00a7 194 StGB nur auf Antrag t\u00e4tig, was zun\u00e4chst erstmal die Kenntnis der betroffenen Personen voraussetzt. Im \u00dcbrigen stellen diese Delikte Pers\u00f6nlichkeitsrechtsverletzungen unterhalb der Grenze einer ehrenr\u00fchrigen und rufsch\u00e4digenden Behauptung von vornherein nicht unter Strafe. &nbsp;&nbsp;<\/p>\n\n\n\n<p>Jedenfalls hinsichtlich der blo\u00dfen Herstellung von (pornografischen) Deepfakes kann von Strafbarkeitsl\u00fccken ausgegangen. Die \u201eEhrschutzdelikte\u201c sch\u00fctzen den sozialen Geltungsanspruch und setzen damit die Verbreitung der Deepfakes voraus. Dies gilt gleicherma\u00dfen f\u00fcr eine Strafbarkeit nach \u00a7 33 KUG, wonach das \u00f6ffentliche zur Schaustellen von Bildnissen einer Person ohne deren Einwilligung grunds\u00e4tzlich strafbar ist. Das Herstellen von pornografischen Deepfakes erwachsener Personen &#8211; z.B. am heimischen Computer &#8211; bleibt nach derzeitiger Rechtslage jedoch straffrei.<\/p>\n\n\n\n<p>In der analogen Welt stellt \u00a7 201a StGB die Verletzung des h\u00f6chstpers\u00f6nlichen Lebensbereichs und von Pers\u00f6nlichkeitsrechten durch Bildaufnahmen unter Strafe. Nach<br>\u00a7 201a Abs. 1 Nr. 1 StGB macht sich beispielsweise strafbar, wer unbefugt von einer anderen Person in der Wohnung oder einem gegen Einblick besonders gesch\u00fctzten Raum eine Bildaufnahme herstellt und dadurch den h\u00f6chstpers\u00f6nlichen Lebensbereich der abgebildeten Person verletzt oder eine solche Aufnahme nach \u00a7 201a Abs. 2 StGB anderen Personen zug\u00e4nglich macht. Bereits der Wortlaut dieser Vorschrift setzt&nbsp; das Herstellen einer \u201eBildaufnahme\u201c voraus, d.h. das Fotografieren oder Filmen einer realen Person in einer bestimmten Situation. Da es sich bei (pornografischen) Deepfakes aber um k\u00fcnstlich hergestellte und damit gerade keine realen Bildaufnahmen handelt, muss davon ausgegangen werden, dass eine Strafbarkeit nach dieser Vorschrift nicht in Betracht kommt. Aus diesem Grund d\u00fcrfte auch eine Strafbarkeit nach \u00a7 184k StGB wegen Verletzung des Intimbereichs durch Bildaufnahmen ausscheiden.<\/p>\n\n\n\n<p>Nicht ohne Grund ist daher die dahingehende Versch\u00e4rfung des Strafrechts Gegenstand des politischen Diskurses. Es erschlie\u00dft sich nicht, warum das Anfertigen heimlicher Bildaufnahmen nach \u00a7 201a StGB strafbar ist, die heimliche Anfertigung von pornografischen und t\u00e4uschend echten Deepfakes aber allenfalls durch Auffangtatbest\u00e4nden im Falle ihrer Ver\u00f6ffentlichung sanktioniert werden soll. Um der Flut an digitalen Manipulationen Herr zu werden, muss die Debatte \u00fcber \u00c4nderungen im Strafrecht auch ber\u00fccksichtigen, dass nicht erst die Verbreitung, sondern auch das Herstellen sexualisierter Deepfakes eine Rechtsverletzung darstellt.<\/p>\n\n\n\n<p>Insofern ist zu begr\u00fc\u00dfen, dass Bundesjustizministerin Hubig angek\u00fcndigt hat, die Strafbarkeit von Deepfakes insgesamt zu regeln sowie die Herstellung und die Verbreitung pornografischer Deepfakes unter Strafe zu stellen. Geplant ist eine \u00dcberarbeitung des \u00a7 184k StGB dahingehend, dass bereits die Herstellung von pornografischen Deepfakes erfasst sein soll, soweit die betroffene Person darin identifizierbar ist. Hinsichtlich der Verbreitung ist die Einf\u00fchrung eines neuen \u00a7 201b StGB geplant, der die Verletzung von Pers\u00f6nlichkeitsrechten durch den Anschein eines t\u00e4uschend echten Inhalts sanktioniert, soweit dies dazu geeignet ist, dem Ansehen der Person erheblich zu schaden.<\/p>\n\n\n\n<p>Diese Reformbestrebungen sind jedoch nicht neu. Ein \u00e4hnlicher Entwurf wurde bereits in der vergangenen Legislaturperiode diskutiert und aus unterschiedlichen Gr\u00fcnden teilweise scharf kritisiert. So bestehen Bedenken hinsichtlich der Zweckm\u00e4\u00dfigkeit und der verfassungsrechtlichen Umsetzbarkeit. Auch scheint es paradox, dass der Anschein eines t\u00e4uschend echten Inhalts in Bezug auf \u00a7 201b StGB-E wom\u00f6glich durch eine<br>\u201eKI-Kennzeichnung\u201c ausger\u00e4umt werden k\u00f6nnte und insofern die Strafbarkeit nach<br>\u00a7 201b StGB-E entfallen l\u00e4sst. Gleichzeitig wird kritisiert, dass eine Strafbarkeit der Herstellung von pornografischen Deepfakes zu weit gehe. Dabei ist zu ber\u00fccksichtigen, dass unter Umst\u00e4nden bereits bei einem Anfangsverdacht des Herstellens weitreichende Ermittlungsma\u00dfnahmen gegen mutma\u00dfliche T\u00e4ter durchgef\u00fchrt werden k\u00f6nnten.<\/p>\n\n\n\n<p>Es gilt daher abzuwarten, inwieweit ihre finale Fassung die bislang thematisierten Vorschl\u00e4ge und Bedenken aufgreift. Jedenfalls muss trotz berechtigter Bedenken der Reformbestrebungen die zentrale Frage eines effektiven Opferschutzes bestehen bleiben.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\">Versch\u00e4rfung n\u00fctzt nur bei konsequenter Rechtsdurchsetzung<\/h2>\n\n\n\n<p>Im Zuge der berechtigten Diskussion \u00fcber \u00c4nderungen im Strafrecht darf nicht au\u00dfer Acht gelassen werden, dass Betroffenen nur dann geholfen werden kann, wenn gleichzeitig auch die effektive Rechtsdurchsetzung gegen Plattformbetreiber als Beschleuniger der Pers\u00f6nlichkeitsverletzungen gew\u00e4hrleistet wird.<\/p>\n\n\n\n<p>Nach derzeitiger Rechtslage ist es ausreichend, wenn eine Zustellung an die gro\u00dfen US-Plattformen wie Meta, Google und X an deren EU-Sitz in Irland erfolgen kann. Die Rechtsdurchsetzung eines in Deutschland erwirkten Urteils ist in Irland jedoch nur mit erheblichem Zeitaufwand m\u00f6glich. Zwingend erforderlich w\u00e4re daher ein inl\u00e4ndischer Zustellungsbevollm\u00e4chtigter in jedem EU-Mitgliedsstaat, sodass Klageschriften, gerichtliche Anordnungen oder beh\u00f6rdliche Bu\u00dfgeldbescheide unmittelbar im eigenen Land rechtssicher zugestellt werden k\u00f6nnen.<\/p>\n\n\n\n<p>Zudem muss der Gesetzgeber gew\u00e4hrleisten, dass Verantwortliche von Rechtsverletzungen sich nicht weiter hinter der Anonymit\u00e4t des Internets verstecken k\u00f6nnen. Es gilt hier einen angemessenen Ausgleich zwischen dem Recht auf anonyme Meinungs\u00e4u\u00dferung und den Rechten von Betroffenen zu schaffen. Dies kann etwa dadurch erreicht werden, dass der Gesetzgeber die Plattformanbieter dazu verpflichtet, die Identit\u00e4t ihrer Nutzer im Hintergrund zu verifizieren. Nur dadurch erlangt die Justiz eine reale Handhabe gegen T\u00e4ter, w\u00e4hrend das Recht auf anonyme Meinungs\u00e4u\u00dferung als hohes demokratisches Gut nach au\u00dfen hin unangetastet bleibt.<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<p>Dr. Lucas Brost und Yannick Hoppe sind Rechtsanw\u00e4lte der K\u00f6lner Medienkanzlei BROST CLA\u1e9eEN, die auf den presserechtlichen Schutz von Unternehmen und Personen spezialisiert ist.\u00a0Fabian Kurti ist Referendar in der Wahlstation.<\/p>\n\n\n\n<p><em>Weitere Hintergr\u00fcnde zu der rechtlichen Einordnung von Deepfakes:<\/em><\/p>\n\n\n\n<figure class=\"wp-block-embed is-type-wp-embed is-provider-brost-cla-en wp-block-embed-brost-cla-en\"><div class=\"wp-block-embed__wrapper\">\n<blockquote class=\"wp-embedded-content\" data-secret=\"k0LI5mvVSe\"><a href=\"https:\/\/brostclassen.de\/medialawblog\/der-falsche-olaf-scholz-eine-rechtliche-einordnung-von-deepfakes\/\">Der falsche Olaf Scholz \u2013 eine anwaltliche Einordnung von Deepfakes<\/a><\/blockquote><iframe class=\"wp-embedded-content\" sandbox=\"allow-scripts\" security=\"restricted\" style=\"position: absolute; visibility: hidden;\" title=\"&#8222;Der falsche Olaf Scholz \u2013 eine anwaltliche Einordnung von Deepfakes&#8220; &#8211; BROST CLA\u1e9eEN\" src=\"https:\/\/brostclassen.de\/medialawblog\/der-falsche-olaf-scholz-eine-rechtliche-einordnung-von-deepfakes\/embed\/#?secret=wEKIasUWdr#?secret=k0LI5mvVSe\" data-secret=\"k0LI5mvVSe\" width=\"600\" height=\"338\" frameborder=\"0\" marginwidth=\"0\" marginheight=\"0\" scrolling=\"no\"><\/iframe>\n<\/div><\/figure>\n","protected":false},"excerpt":{"rendered":"<p>Die \u00f6ffentliche Debatte \u00fcber den ausreichenden Schutz bei Deepfakes ist seit den j\u00fcngsten Vorw\u00fcrfen der Schauspielerin Collien Fernandes gegen Christian Ulmen neu entfacht. Fernandes wirft Ulmen vor, er habe fake-Profile unter ihrem Namen erstellt und Bildmaterial verschickt, das den Anschein erwecken sollte, Fernandes werde bei sexuellen Handlungen gezeigt. Ulmen bestreitet die Vorw\u00fcrfe. Bundesjustizministerin Stefanie Hubig (SPD) hat den Fall zum Anlass genommen, der \u00d6ffentlichkeit ihren Gesetzesentwurf zum Schutz vor digitaler Gewalt zu pr\u00e4sentieren.<\/p>\n","protected":false},"featured_media":3685,"template":"","format":"standard","meta":{"footnotes":""},"medialawblog-kategorie":[],"class_list":["post-6620","medialawblog","type-medialawblog","status-publish","format-standard","has-post-thumbnail","hentry"],"_links":{"self":[{"href":"https:\/\/brostclassen.de\/en\/wp-json\/wp\/v2\/medialawblog\/6620","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/brostclassen.de\/en\/wp-json\/wp\/v2\/medialawblog"}],"about":[{"href":"https:\/\/brostclassen.de\/en\/wp-json\/wp\/v2\/types\/medialawblog"}],"version-history":[{"count":3,"href":"https:\/\/brostclassen.de\/en\/wp-json\/wp\/v2\/medialawblog\/6620\/revisions"}],"predecessor-version":[{"id":6624,"href":"https:\/\/brostclassen.de\/en\/wp-json\/wp\/v2\/medialawblog\/6620\/revisions\/6624"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/brostclassen.de\/en\/wp-json\/wp\/v2\/media\/3685"}],"wp:attachment":[{"href":"https:\/\/brostclassen.de\/en\/wp-json\/wp\/v2\/media?parent=6620"}],"wp:term":[{"taxonomy":"medialawblog-kategorie","embeddable":true,"href":"https:\/\/brostclassen.de\/en\/wp-json\/wp\/v2\/medialawblog-kategorie?post=6620"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}