Der rechtliche Rahmen des Online-Bundestagswahlkampfs: Ein Überblick über die rechtlichen Verpflichtungen von Parteien und Plattformen
Der Normenkatalog für den Online-Wahlkampf nimmt auch die Betreiber*innen der großen Online-Plattformen in die Pflicht. Dieser Text gibt einen Überblick über die rechtlichen Verpflichtungen von Parteien und Plattformen.
Von Matthias C. Kettemann, Vincent Hofmann, Mara Barthelmes, Nicolas Koerrenz und Lena Marie Hinrichs
1. Einführung
Der Wahlkampf zur Bundestagswahl 2021 wird, vor allem bedingt durch die Corona-Pandemie, in besonders hohem Maße im Internet stattfinden, insbesondere auf den Seiten großer Online-Plattformen wie Facebook, Twitter, YouTube oder Telegram. Dieser Online-Wahlkampf ist durch Normen verschiedener Rechtsquellen geregelt, die sowohl für die Online-Plattformen als auch für die Verfasser*innen von Inhalten im Allgemeinen und für Parteien im Besonderen verschiedene Rechte und Pflichten festlegen.
Auf Seiten der Rechtsquellen sind Normen privater und staatlicher Ordnungen zu unterscheiden. Letztere regeln die Online-Kommunikation auf verschiedenen rechtlichen Ebenen:
Völkerrechtlich gewährt u. a. die Europäische Menschenrechtskonvention die freie Meinungsäußerung, in welche bei der Löschung von Inhalten oder Profilen eingegriffen werden könnte. Nach den UN-Leitprinzipien für Wirtschaft und Menschenrechte (Ruggie-Prinzipien) haben auch Unternehmen die Menschenrechte zu achten.
Europarechtlich wurden einige gesetzgeberische Vorhaben gestartet, welche die Regulierung großer Online-Plattformen zum Ziel haben. Besonders umfangreiche Pflichten sieht der Entwurf des Digital Services Act vor.[1]
Das deutsche Grundgesetz schützt in Art. 5 Abs. 1 ebenso wie die EMRK in Art. 10 Abs. 1 die Meinungsfreiheit der Verfasser*innen von Inhalten, aber auch Eigentum (Art. 14 Abs. 1 GG, Artikel 1 des 1. Zusatzprotokolls zur EMRK) und die unternehmerische Freiheit (Art. 12 Abs. 1 GG; Art. 16 EMRK) der Plattformen.
Einfachgesetzlich sind für den Online-Wahlkampf von Bedeutung u. a. das Strafgesetzbuch, das beleidigende oder zu Straftaten auffordernde Inhalte unter Strafe stellt, der Medienstaatsvertrag (MStV), dder die Plattformen insbesondere durch Transparenzpflichten zur Wahrung einer diversen öffentlichen Debatte in die Pflicht nimmt, und das Netzwerkdurchsetzungsgesetz (NetzDG), das Regelungen für eine konsequente Löschung rechtswidriger Inhalte vorsieht.
Neben diese Normen staatlicher Ordnungen treten die Normen privater Ordnungen. Dies sind insbesondere die Nutzungsbedingungen der Online-Plattformen, aber auch Selbstverpflichtungen der Parteien zum Verhalten im Online-Wahlkampf. Die Nutzungsbedingungen der großen Online Plattformen haben mit zunehmender Relevanz der Plattformen für die öffentliche Meinungsbildung stark an Bedeutung für den Online-Wahlkampf gewonnen. Wird beispielsweise einer Kandidat*in oder Mandatsträger*in wegen Verstößen gegen die Nutzungsbedingungen die Möglichkeit genommen, ihre Ansichten und Ziele durch das Soziale Netzwerk zu verbreiten, kann dies gravierende Folgen für den Wahlerfolg der gesperrten Person haben. Unter anderem Facebook und Twitter haben ihre Verantwortung im Rahmen von Wahlen erkannt und spezielle Regeln für politische Inhalte festgelegt.
In diesem Zusammenspiel von Normen staatlicher und privater Ordnungen zeigen sich sowohl demokratietheoretische Probleme, beispielsweise bei der Löschung von Profilen (Stichwort: Donald Trump) durch die Sozialen Netzwerke, als auch praktische Defizite, beispielsweise bei der Eindämmung von Falschmeldungen.
2. Normen staatlicher Ordnung
2.1. Rechtlicher Rahmen der Online-Parteienkommunikation im Wahlkampf
2.1.1. Kommunikation durch Regierungsstellen
Politische Kommunikation durch die Kanäle von Regierungsstellen ist stark eingeschränkt. Früher wurde sogar von einem vollends staatsfreien öffentlichen Meinungsbildungsprozess ausgegangen, in dem der Staat und seine Vertreter*innen keine aktiv Beteiligten des Diskurses waren. Als Mittler zwischen Staat und Volk dienten nur die nach Art. 5 Abs. 1 S. 2 GG geschützten Medien und die gem. Art. 21 Abs. 1 GG privilegierten Parteien.
Mittlerweile hat sich die Annahme verfestigt, dass auch staatliche Kommunikation fester Bestandteil des öffentlichen Diskurses (in Form von Öffentlichkeitsarbeit, Pressearbeit, Warnungen etc.) ist und teilweise sogar explizit in öffentlich-rechtlichen Normen vorgesehen ist. Die von staatlichen Stellen betriebene Kommunikation genießt als hoheitliche Vertreter*in sowohl besondere Reichweiten als auch ein erhöhtes Maß an Vertrauen.[2] Die staatliche Kommunikation darf daher nicht zu jedem Zwecke verwendet werden und ist in Fragen bzgl. des „Was“ und „Wie“ der Kommunikation begrenzt: Die Äußerung der staatlichen Stelle muss Bezug zur jeweiligen Aufgabenzuweisung und Zuständigkeit aufweisen, was je nach Institution ein weites (z. B. Regierung mit Staatsleitungsbefugnis) oder enges (z. B. Fachbehörde) Feld von Themen und Inhalten umfassen kann.
Staatliche Kommunikation muss sachlich, inhaltlich korrekt und zurückhaltend verbreitet werden (Sachlichkeits- und Richtigkeitsgebot). Zudem müssen staatliche Stellen klar und vollständig kommunizieren, und der Staat muss stets als Urheber einer Äußerung erkennbar sein (Kommunikatorklarheit). Diese Gebote sind Ausdruck des Demokratie- und Rechtsstaatsprinzips. Bei Informationen staatlicher Stellen, die in Grundrechte eingreifen (etwa die Warnung vor Produkten wie z. B. E-Zigaretten), ist ebenfalls das Gebot der Verhältnismäßigkeit zu beachten. Weiterhin gilt für staatliche Informationstätigkeit das Gebot parteipolitischer Neutralität, welches insbesondere im Rahmen von Gerichtsverfahren bezüglich öffentlicher Kritik an AfD und NPD ausgearbeitet wurde. Staatliche Akteure müssen jedoch nicht vollständig neutral agieren, da auch die jeweiligen Amtsträger*innen ihr Amt politisch verteidigen und für freiheitlich demokratische Grundwerte eintreten können.[3]
Diese Beschränkungen der Kommunikation gelten nur für staatliche Stellen, wenn diese auch als Staatsorgane kommunizieren.[4] Daher gibt es für Oppositionsparteien keine klaren rechtlichen Einschränkungen mit Blick auf die Nutzung von Kommunikationskanälen, da es sich bei ihren Äußerungen nicht um staatliche Kommunikation handelt. Für Amtsträger*innen ist mittels einer Betrachtung der Gesamtumstände der Kommunikation zu bewerten, ob diese als staatliche oder private Aussage einzustufen ist. Dafür sind insbesondere Inhalt, Ort und Kontext der Botschaft relevant. Nicht bereits ausreichend ist lediglich ein privater Account eines/r Amtsträger*in auf einer Plattform. Ergibt sich aus der Betrachtung der Gesamtumstände, dass der/die Amtsträger*in sich in ihrer parteipolitischen Funktion äußert, wird dies durch die weitgehende Freiheit der Art. 5, Art. 21 GG geschützt. Ergibt sich andererseits, dass die Äußerung in staatlicher Funktion getätigt wurde, ist die Person durch die Art. 20 III, Art. 1 III GG rechtsstaatlich gebunden.
Insgesamt ist die Kommunikation von Amtsträger*innen über die Kanäle des Amtes stark begrenzt und daher zu Zwecken des Wahlkampfes nur wenig tauglich.
2.1.2. Kommunikation durch Parteien
Der rechtliche Rahmen für die Durchführung des Online-Wahlkampfs ergibt sich für die Parteien aus unterschiedlichen Normen, die sowohl Rechte als auch Pflichten der Parteien begründen.
2.1.2.1. Grundgesetz
Aus Art. 5 Abs. 1 Grundgesetz ergibt sich auch für Parteien das Recht der freien Meinungsäußerung. Dieses schützt grundsätzlich sowohl den Online-Auftritt der Parteien als auch deren Wahlwerbung. Dieser Schutz ergibt sich daneben auch aus Art. 21 GG, der das Recht der Mitwirkung der Parteien an der politischen Willensbildung konstituiert. Der im Medienstaatsvertrag (§ 68 Abs. 2 MStV) konkretisierte Anspruch auf Schaltung von Wahlwerbung bezieht sich jedoch nach derzeitiger Interpretation von Art. 21 GG nur auf die Rundfunkanstalten.[5] Andere Plattformen sind inhaltlich frei; hier ergibt sich kein Anspruch der Parteien auf Wahlwerbung oder Präsenz.
Begrenzt wird die Meinungsfreiheit der Parteien gem. Art. 5 Abs. 1 GG u. a. durch die Wahlrechtsgrundsätze aus Art. 38 I GG. Alle Wähler*innen müssen ihre freie Wahl einer politischen Idee auf einer informierten Grundlage treffen können.[6] Dies ist dann nicht gewährleistet, wenn eine Partei falsche Informationen verbreitet. Dieses Verhalten ist dann in der Regel wegen der Kollision mit Art. 38 Abs. 1 GG nicht mehr von der Meinungsfreiheit aus Art. 5 Abs. 1 GG gedeckt. Gleiches könnte beim Einsatz von Social Bots vorliegen, denn hier geht es um die Täuschung über den Rückhalt bezüglich einer politischen Ansicht, was ab einem erhöhten Umfang des Einsatzes solcher Social Bots ebenfalls die informative Grundlage des Wählers stören könnte.[7]
Ebenfalls regelmäßig nicht mehr von der Meinungsfreiheit gedeckt ist die Verbreitung unwahrer Inhalte über andere Politiker*innen: Auch im politischen Kontext tritt die Meinungsfreiheit der die Äußerung verbreitenden Person bei unwahren Inhalten hinter dem Ehrschutz der betroffenen Person zurück.[8]
2.1.2.2. Einfachgesetzliche Regelungen
Auf Ebene einfachgesetzlicher Regelungen (Gesetze im Rang unter der Verfassung) zieht das Strafgesetzbuch dem Online-Wahlkampf Grenzen. Im Rahmen von Online-Kommunikation sind insbesondere Straftatbestände wie die Beleidigung (§§ 185 ff. StGB) oder Volksverhetzung (§ 130 StGB) von Relevanz. Speziell im Online-Wahlkampf könnten die Tatbestände der Wählernötigung (§ 108 StGB) oder Wählertäuschung erfüllt werden.
Bezüglich der Finanzierung der Partei allgemein und insbesondere des Wahlkampfes schreibt das Parteiengesetz (PartG) bestimmte Transparenzpflichten vor, wie beispielsweise das Ablegen eines Rechenschaftsberichts (§ 23 PartG), der auch die Ausgaben rund um den Wahlkampf enthalten muss (§ 24 Abs. 5 Nr. 2 lit. c PartG).
Durch die europäische Datenschutzgrundverordnung (DSGVO) und das Bundesdatenschutzgesetz (BDSG) werden die Befugnisse und Pflichten rund um das Sammeln von Daten von Nutzer*innen begrenzt. So ist die Verarbeitung (Definition in Art. 4 Nr. 2 DSGVO) von Daten, die politische Meinungen der Person enthalten, nur in seltenen Ausnahmefällen erlaubt (Art. 9 DSGVO). Eine solche Ausnahme kann jedoch bereits die Einwilligung der betroffenen Person sein. Auch die Erstellung eines politischen Persönlichkeitsprofils wird durch besagten Normen begrenzt.[9]
2.2. Rechtlicher Rahmen für Plattformen im Online-Wahlkampf
2.2.1. NetzDG
Am 1. Oktober 2017 ist das Netzwerkdurchsetzungsgesetz (NetzDG) in Kraft getreten. Das Gesetz soll die Rechtsdurchsetzung in sozialen Netzwerken verbessern und zur konsequenten Löschung strafbarer Inhalte führen. Hintergrund waren auch die zunehmende Verbreitung solcher Inhalte im digitalen Raum und die Erfahrungen aus dem US-Wahlkampf 2016.[10]
Kernelement des NetzDG ist die Pflicht für Betreiber*innen von sozialen Netzwerken, „offensichtlich rechtswidrige Inhalte“ nach Meldung durch Nutzer*innen binnen 24 Stunden und rechtswidrige Inhalte nach 7 Tagen von der Plattform zu entfernen. Für die Moderationspraxis wichtig sind die Verpflichtung der Einrichtung von Beschwerdemöglichkeiten und die regelmäßige Berichterstattung über die Löschpraxis nach dem NetzDG. Allerdings greift diese Pflicht nur, wenn der gemeldete Inhalt den Tatbestand einer in § 1 Abs. 3 genannten Strafnorm erfüllt. § 1 Abs. 3 nennt unter anderem die Aufforderung zur Straftat, die Beleidigung oder das Verbreiten von Zeichen verfassungsfeindlicher Organisationen. Insbesondere Desinformationen erfüllen selten den Tatbestand solcher Straftatbestände.
Zudem ist das NetzDG nur auf Plattformen anwendbar, die mit Gewinnerzielungsabsicht betrieben werden (§ 1 Abs. 1 S. 1 NetzDG) und grundsätzlich nicht auf Dienste, die der Individualkommunikation dienen (§ 1 Abs. 1 S. 3 Alt. 1 NetzDG). Mit Verweis auf diese beiden Ausnahmen entzieht sich beispielsweise Telegram den Regeln des NetzDG. Ob sich Telegram mit Gruppen von bis zu 200.000 Mitgliedern und öffentlichen Kanälen mit unbegrenzt vielen möglichen Abonnenten[11] tatsächlich so von anderen Plattformen wie Facebook unterscheidet, dass eine Nichtanwendung des NetzDG gerechtfertigt ist, erscheint fraglich. Auch strebt Telegram nach eigenen Aussagen nicht an, Gewinn zu erzielen.[12] Andererseits plant das Netzwerk nach ebenfalls eigenen Aussagen die Monetarisierung von Inhalten, allerdings ohne dabei Gewinn erwirtschaften zu wollen.[13]
2.2.2. Medienstaatsvertrag
An die Stelle des Rundfunkstaatsvertrages (RStV) trat am 7. November 2020 der Medienstaatsvertrag (MStV). Dieser soll in Reaktion auf die fortschreitende Digitalisierung der Medienlandschaft den rechtlichen Rahmen an die veränderten Bedingungen anpassen.[14] Dazu ist der auf den Rundfunk fokussierte Medienbegriff des RStV durch den Begriff Medienplattform (§ 2 Nr. 14 MStV) ersetzt worden, der unabhängig von der verwendeten Technologie zur Verbreitung der Inhalte alle Dienste umfasst, die mediale Inhalte zu einem Gesamtangebot aufarbeiten.
Daneben umfasst der MStV auch sog. Medienintermediäre (§ 2 Nr. 16 MStV), welche ohne Zusammenfassung zu einem Gesamtangebot auch journalistisch-redaktionelle Inhalte sortieren und allgemein zugänglich präsentieren. Darunter fallen bspw. Suchmaschinen oder soziale Netzwerke, die, wie oben dargestellt, einen stark wachsenden Einfluss auf die öffentliche Meinungsbildung haben.[15]
Ein Ziel des MStV ist es, Meinungsvielfalt und kommunikative Chancengleichheit in der Medienlandschaft sicherzustellen.[16] Erreicht werden soll dieses Ziel durch umfassende Pflichten für Medienintermediäre, soweit sie einen Einfluss auf die öffentliche Meinungsbildung haben.[17] In diesem Fall sind sie u. a. zur Offenlegung der Funktionsweise ihrer Algorithmen verpflichtet und dürfen diese nicht so festlegen, dass einzelne journalistisch-redaktionelle Inhalte systematisch und ohne Rechtfertigung benachteiligt werden (§§ 93 Abs. 1, 94 Abs. 1). Auch müssen Social Bots als solche gekennzeichnet werden (§ 18 Abs. 3). Die Landesmedienanstalten können zur Konkretisierung der Vorgaben für Medienintermediäre Satzungen erlassen. Diese werden für die weitere Entwicklung der Wirksamkeit des MstV von großer Bedeutung sein.
Auch die Verantwortlichkeit für die Prüfung von Verstößen liegt bei den Landesmedienanstalten. Diese können Anzeigen über vermutliche Verstöße von Medienanbietern erhalten. Wie viele solcher Anzeigen die Landesmedienanstalten im Rahmen der Bundestagswahl 2021 erhalten werden und wie schnell sie diese bearbeiten können, wird maßgeblich den Erfolg des MStV zur Sicherung der Meinungsvielfalt in sozialen Netzwerken bestimmen.
2.2.3. Europäische Gesetzesvorhaben
2.2.3.1. Digital Services Act (DSA)
Am 15. Dezember 2020 stellte die EU-Kommission ihren Entwurf des Digital Services Act (DSA) vor. Der DSA soll als Nachfolger der E-Commerce Richtlinie einen Beitrag zu einer sicheren und vertrauenswürdigen Online-Kommunikation in Form einer EU-Verordnung leisten (Art. 1 Abs. 2 lit. b).[18]
Intermediäre haften dem Entwurf nach unverändert für illegale Inhalte, sobald sie von diesen Kenntnis erlangen. Um eine solche Kenntniserlangung zu ermöglichen, muss ein effizientes Beschwerdemanagement gewährleisten, dass Meldungen über mutmaßlich illegale Inhalte schnell und zuverlässig bearbeitet werden. Hier lassen sich Ähnlichkeiten zum deutschen NetzDG erkennen.[19] Auch sollen die Transparenzpflichten für Intermediäre ausgeweitet werden: Diese müssen u. a. ihre Vorgaben zur Moderation und Beschränkung von Inhalten öffentlich zugänglich machen.
Art. 24 des Entwurfs enthält die Verpflichtung der Online-Plattformen, Informationen über die angezeigte Online-Werbung transparent zu gestalten. Für den Nutzer soll bei jeder einzelnen Werbung klar, eindeutig und in Echtzeit erkennbar sein, ob und wessen Werbung angezeigt wird. Zudem müssen die wichtigsten Parameter für die Bestimmung der Zielgruppe einsehbar sein. Damit soll personalisierte Werbung und insbesondere das zu Wahlkampfzwecken genutzte, kontrovers diskutierte Microtargeting transparenter werden.[20]
Außerdem sind die Plattformanbieter zur Vorlage jährlicher Transparenzberichte verpflichtet, die Informationen über gelöschte Inhalte sowie über Empfehlungsalgorithmen beinhalten müssen.
Ein weiterer wichtiger Regelungsgegenstand des DSA sind die „Very Large Online Platforms” (VLOPs). Darunter werden „systemrelevante” Plattformen mit mind. 45 Mio. monatlich aktiven Nutzern in Europa verstanden. Die Kommission misst solchen Plattformen einen besonderen Einfluss auf öffentliche Debatten zu und sieht in ihnen wichtige Informationsquellen im Rahmen öffentlicher Meinungsbildung. Ebenfalls sieht die Kommission Risiken in der Reichweite dieser Plattformen, wie die Verbreitung illegaler Inhalte, Manipulationen oder Einschränkungen bei der Grundrechtsausübung, insbesondere der freien Meinungsäußerung.[21] Der DSA sieht mögliche Maßnahmen zur Minimierung dieser Risiken vor, z. B. die öffentlich zugängliche Archivierung aller geschalteten Werbeanzeigen (Art. 30), eine verstärkte Inhaltemoderation (Art. 27) sowie die Pflicht zur jährlichen Durchführung einer unabhängigen Prüfung, ob die Vorgaben aus dem DSA eingehalten wurden (Art. 28).[22]
Die Themen Fake News und Desinformation, sofern sie nicht ohnehin unter illegale Inhalte fallen, sind im DSA hingegen kaum geregelt.[23]
2.2.3.2. Digital Markets Act (DMA)
Der gleichzeitig mit dem DSA vorgestellte Entwurf des Digital Markets Act (DMA) richtet sich gegen die Geschäftspraktiken sog. Gatekeeper. Dies sind Unternehmen, die eine große Zahl von Kund*innen mit einer großen Zahl von Unternehmen zusammenbringen und einen signifikanten Einfluss auf den EU-Binnenmarkt über eine gewisse Dauer ausüben (Art. 3 Abs. 1 DMA-E). Dazu zählen auch die im Rahmen der Meinungsbildung zur Bundestagswahl besonders relevanten sozialen Netzwerke. Die großen Netzwerke genießen ihre Vormachtstellung insbesondere durch die enormen Datenmengen ihrer Nutzer*innen, welche ihnen ein optimales Produktangebot ermöglichen.
Um diese datenbasierte Vormachtstellung aufzulösen, sollen Gatekeeper in der Verwendung der Daten beschränkt und zur Weitergabe der Daten verpflichtet werden. So dürfen u. a. die von gewerblichen Nutzer*innen gewonnenen Daten nicht im Wettbewerb mit diesen Nutzer*innen verwendet werden. Auch ist die Pflicht vorgesehen, Daten zum Verhalten von Kund*innen und mit Werbeanzeigen konfrontierten Personen an die Unternehmen weiterzureichen, welche die Werbung geschaltet bzw. das Produkt verkauft haben.
2.2.3.3. Data Governance Act (DGA)
Der seit 2018 durch die Datenschutzgrundverordnung (DSGVO) gestärkte Datenschutz brachte neben seinen Vorteilen für Verbraucher*innen auch bedeutende Hemmnisse für Unternehmen. So gaben 2020 in einer Umfrage des Branchenverbandes Bitkom gut die Hälfte der befragten Unternehmen an, durch die DSGVO in ihrer Innovationskraft beschränkt zu sein.[24]
Die mit der DSGVO einhergehenden Erschwernisse sollen durch den Data Governance Act (DGA), dessen Entwurf am 25. November 2020 vorgestellt wurde, in Form einer Europäischen Verordnung vermindert werden. Unter Wahrung der Standards der DSGVO soll insbesondere das Vertrauen der Nutzer*innen in die Sicherheit der Verarbeitungsprozesse personenbezogener Daten gestärkt und so die Möglichkeit zur Datenverwendung durch Unternehmen und Forschungseinrichtungen erhöht werden.[25]
Kernelement des Entwurfs ist die Vorgabe, dass personenbezogene Daten nicht durch die Internetkonzerne selbst, sondern durch eine neutrale Stelle anonymisiert und treuhänderisch verwaltet werden sollen. Die Aufsicht dieser intermediären Stelle obliegt jeweils einer vom Mitgliedstaat geschaffenen Aufsichtsbehörde im Hauptsitz des Intermediären.[26]
Auch schafft der DGA die rechtliche Grundlage für den so genannten Datenaltruismus. Durch eine für die gesamte EU gültige Freigabe können alle Nutzer*innen freiwillig ihre Daten für Zwecke von allgemeinem Interesse zur Verfügung stellen. Die Überwachung der Datennutzung liegt hier ebenfalls bei den nationalen Aufsichtsbehörden.[27] Durch den mit dem DGA erhofften Ausgleich von Datenschutz einerseits und Interesse von Forschung und Industrie an der Nutzung der Daten andererseits soll Europa zum „most data empowered continent“ werden, wie EU-Kommissar Thierry Breton bei der Vorstellung des Entwurfs sagte.[28]
3. Regelungen privater Ordnungen
3.1. Facebook
Die Plattform Facebook hat Gemeinschaftsstandards formuliert, um demokratische und freiheitliche Werte zu schützen. Diese verbieten grundsätzlich[1] die Manipulation von Wahlen. Auch die Verbreitung der Unterstützung von Gewalt rund um Wahlen und Wählerregistrierung sind untersagt.[29] Zudem ist die Falschdarstellung von Wahldaten, insbesondere bzgl. Kandidat*innen, Standorten und Wahlberechtigung untersagt. Auch die Beeinflussung von Wahlen, vor allem in Form von Einschüchterung und Machtdemonstration verbietet Facebook seinen Nutzer*innen.[30] Facebook erlaubt keine politische Ausgrenzung, die jemandem das Recht auf politische Teilhabe verwehrt.[31] Außerdem gestattet Facebook keine politische Einflussnahme durch koordiniertes, nicht-authentisches Verhalten im Auftrag eines ausländischen Akteurs oder einer Regierungsstelle.[32]
Darüber hinaus sind Videos, die durch künstliche Intelligenz oder Deep Learning-Technik entstanden sind oder durch solche Technik manipuliert wurden (sogenannte „Deep Fakes”), unzulässig, wenn sie zu einer falschen Annahme über das von einer Person Gesagte verleitet. Hiervon ausgenommen sind Parodien und Satire.[33]
Im Hilfebereich für Unternehmen unterrichtet Facebook über die Voraussetzungen von Wahlwerbung. Die Werbetreibenden müssen ein Autorisierungsverfahren für Werbung abschließen und die Werbung muss einen Disclaimer enthalten, aus dem hervorgeht, wer für die Anzeige bezahlt. Auch soll leichter erkennbar sein, wer Inhaber*in einer Facebook-Seite ist und wie bestimmte Medien ggf. von staatlicher Stelle politisch beeinflusst sein könnten.[34] Außerdem werden die Werbeanzeigen in einer Werbe-Bibliothek gespeichert, um mehr Transparenz zu schaffen.[35]
Allgemein dürfen Werbeanzeigen keine reißerischen oder diskriminierenden Inhalte aufweisen. Zudem sollen keine Falschinformationen angezeigt oder kontroverse gesellschaftliche und politische Themen für kommerzielle Zwecke genutzt werden.[36]
Facebook schafft selbst das Problem, dass den Nutzer*innen aufgrund von Empfehlungslogiken primär Informationen angezeigt werden, die nahe an den eigenen Interessen liegen. In den Facebook-Nutzungsbedingungen wird erklärt, dass alle zur Verfügung stehenden Daten auf Facebook-Produkten und außerhalb für die Personalisierung genutzt werden.[37] Aufgrund der Überzeugung, dass durch stärkere Bindungen bessere Gemeinschaften entstehen, nutzt Facebook diese Daten, um gezielt Personen, Veranstaltungen und andere Inhalte anzuzeigen, die in Verbindung mit den eigenen Inhalten und Interessen stehen.[38]
Werbeanzeigen zu Diensten und Produkten von Unternehmen und Organisationen werden gesteuert, indem personenbezogene Daten über die Interessen und Aktivitäten der Nutzer*innen mit der von dem jeweiligen Unternehmen angegebenen Zielgruppe abgeglichen werden.[39] Durch diese Steuerung der präsentierten Inhalte kann der Diskurs weniger vielfältig erscheinen.[40]
3.2. Twitter
Twitter hat eigens eine Richtlinie zur Integrität staatsbürgerlicher Prozesse erlassen. Diese verbietet die Manipulation und Beeinträchtigung von Wahlen. Darunter fallen insbesondere irreführende Informationen über die Möglichkeiten der Wahlteilnahme und Wahlergebnisse sowie Versuche der Unterdrückung und Einschüchterung von Wähler*innen.
Twitter aktiviert im Vorfeld von Wahlen in dem entsprechenden Land eine besondere Meldefunktion, über die Tweets von allen Nutzer*innen mit dem Verdacht des Verstoßes gegen diese speziellen Regeln gemeldet werden können. Gemeldete Tweets können bei festgestellten Verstößen gekennzeichnet oder gelöscht werden. Bei schwerwiegenden oder wiederholten Verstößen kann der gesamte Account des Nutzers gesperrt werden. Ausdrücklich keinen Verstoß stellen polarisierende oder kontroverse Standpunkte sowie ungenaue Aussagen über Parteien, Volksvertreter*innen oder Kandidat*innen dar.[41]
Accounts von Regierungen oder staatsnahen Medienunternehmen werden auf Twitter einheitlich mittels eines kleinen Flaggensymbols im Status des Accounts gekennzeichnet. Twitter fördert oder empfiehlt so gekennzeichnete Accounts oder Tweets nicht.[42]
Zudem können synthetische oder manipulierte Inhalte als solche gekennzeichnet und in ihrer Sichtbarkeit eingeschränkt werden, um eine Irreführung der Nutzer*innen zu vermeiden.[43]
Unabhängig von Wahlen sind Belästigungs- und Einschüchterungsversuche auf Twitter verboten. Bei Verstößen kann die Plattform die Nutzer*innen auffordern, den entsprechenden Inhalt zu löschen und den Account vorübergehend in den schreibgeschützten Modus versetzen oder dauerhaft sperren.[44] Noch strengere Maßnahmen sieht Twitter gegen die Androhung und Verherrlichung von Gewalt vor. Potenzielle Verstöße können nicht nur von Nutzer*innen, sondern von jedermann gemeldet werden. „Jeder Account, der Gewaltandrohungen postet, wird sofort und dauerhaft gesperrt.”[45]
3.3. YouTube
Ähnlich wie auf Facebook und Twitter sind Falschinformationen zu Wahlen und technisch manipulierte Inhalte, die Nutzer*innen in die Irre führen, verboten. Zudem untersagt YouTube unrichtige Aussagen zur Wählbarkeit politischer Kandidat*innen oder zur Legitimität amtierender Regierungsvertreter*innen. Auch Versuche, eine Wahl zu stören oder zu behindern, sind untersagt.[46] Um die Beeinflussung von Wahlen durch Betrüger*innen zu verhindern, arbeitet YouTube mit der Threat Analysis Group von Google, anderen Technologieunternehmen und Strafverfolgungsbehörden zusammen.[47]
Zur Unterstützung politisch seriöser Quellen zeigt die Plattform bei Nachrichten und Infothemen unter „Nächste Videos” vorrangig vertrauenswürdige Inhalte an. Zusätzlich können journalistisch hochwertige Inhalte hervorgehoben werden.[48]
Ähnlich wie bei Twitter und seinen Flaggensymbolen, werden unter den Videos öffentlicher oder staatlich geförderter Seiten Details zu den Finanzierungsquellen angezeigt.[49] Für Wahlwerbung muss die Finanzierung der Anzeige in dem öffentlichen Transparenzbericht angegeben werden.[50] Alle von YouTube aufgestellten Regeln gelten ausdrücklich unabhängig von der politischen Ausrichtung von Inhalt oder Nutzer*in.[51]
3.4. Telegram
Telegram legt großen Wert auf die Privatsphäre seiner Nutzer*innen. Die Bearbeitung von Anfragen bezüglich (illegaler) nicht-öffentlicher Inhalte lehnt Telegram kategorisch ab. Der Inhalt von (Gruppen-)Chats sei „Privatsache der jeweiligen Nutzer”.[52] Nur öffentlich zugängliche Inhalte können per Mail oder direkt über das Nutzer*innenprofil gemeldet werden.[53] Zwar sind laut Telegram die Gruppenchats für Familien, Freunde und kleine Teams gedacht. Die erlaubte Gruppengröße von bis zu 200.000 Mitgliedern und die Möglichkeit, Gruppen öffentlich zu schalten,[54] spricht jedoch für eine auf große Reichweite angelegte Nutzung. Dabei macht die Plattform deutlich, dass politische Zensur nicht unterstützt wird und auch regierungskritische Aussagen auf Telegram verbreitet werden dürfen. Zwar sollen urheberrechtsverletzende, terroristische und pornographische Inhalte blockiert werden, die Plattform möchte aber Raum für die Verbreitung „alternative[r] Meinungen” geben.[55]
Um eine Verpflichtung zur Herausgabe von Daten zu erschweren, nutzt Telegram für seine Cloud-Chats verschiedene Rechenzentren weltweit. Aufgrund der unterschiedlichen Gerichtsbarkeiten seien mehrere Gerichtsbeschlüsse aus verschiedenen Ländern erforderlich, um Telegram zur Herausgabe von Daten zu verpflichten.[56]
Zudem bietet die Plattform die Möglichkeit, über sog. geheime Chats zu kommunizieren. Aufgrund der nur in diesem Bereich eingesetzten Ende-zu-Ende-Verschlüsselung hat Telegram nach eigenen Angaben selbst keinen Zugriff auf die verbreiteten Inhalte. In diesen Chats gibt es die Möglichkeit, einen sog. „Selbstzerstörungstimer” einzustellen, nach dessen Ablaufen die Nachrichten von dem Gerät des Senders und des Empfängers gelöscht werden.[57] Telegram empfiehlt den zusätzlichen Schutz von (nicht Ende-zu-Ende verschlüsselten) Cloud-Chats mittels eines Passwortes, wenn der Nutzer Gründe hat, „[s]einem Mobilfunkanbieter oder offiziellen Stellen (z. B. [s]einer Regierung) zu misstrauen”.[58]
Zum Umgang mit diskriminierenden, diffamierenden oder hetzerischen Inhalten nimmt Telegram weder in seinen Nutzungsbedingungen noch in den Datenschutzbestimmungen oder FAQs Stellung. Ausnahme dazu ist das nach den veröffentlichten Nutzungsbedingungen verbotene Propagieren von Gewalt, allerdings nur für die öffentlichen Teile der Plattform. Konsequenzen bei Zuwiderhandlungen werden jedoch nicht angedroht.[59] Erhält Telegram Informationen über Konten von Terrorverdächtigen, können die IP-Adresse und Telefonnummer an Behörden weitergegeben werden.[60] Eine dahingehende Verpflichtung – beispielsweise mit der Begründung des Schutzes der Allgemeinheit – erlegt sich Telegram aber nicht auf. Bisher ist es nach Aussage von Telegram auch noch zu keiner solchen Maßnahme gekommen.[61]
Zu möglicherweise falschen Wahlinformationen trifft Telegram ebenfalls keine Aussage.[62] Bei gemeldeten Phishing, Spam oder anderem Missbrauch kann Telegram die verantwortlichen Profile sperren oder deren Möglichkeit einschränken, mit Fremden Kontakt aufzunehmen. Telegram behält sich zudem vor, Cloud-Chat-Daten zu diesem Zweck mittels Algorithmen zu analysieren.[63] Einen Transparenzbericht nach Vorbild des NetzDG sehen die Bedingungen von Telegram nicht vor.
3.5. Sonstige Ordnungen
Die Parteien können sich selbst zu einem bestimmten Verhalten im Online-Wahlkampf verpflichten, um neben den gesetzlichen Regelungen und Bedingungen der Plattformen spezielle Verhaltensgrundsätze zu garantieren.[64] So taten es u.a. Die Grünen 2017, die sich unter anderem dazu verpflichteten, keine Social Bots zu verwenden und weitergehende Angaben zu Parteispenden zu veröffentlichten, als es das Parteiengesetz vorsieht. Auch Desinformationskampagnen wurden in den selbst auferlegten Wahlkampfregeln verboten.[65]6
3.6. Übersicht und Vergleich
Die meisten großen Plattformen geben sich Nutzungsbedingungen, die Wahlmanipulation verhindern sollen. In Details unterscheiden sie sich zwar, in der generellen Stoßrichtung agieren sie ähnlich. Einzig Telegram fällt aus dem Raster und lässt auch potenziell illegale, mindestens aber problematische Inhalte in öffentlichen Kanälen zu. Hier eine zusammenfassende Übersicht der Plattformregeln von Facebook, YouTube, Twitter und Telegram.
Plattform |
|
YouTube |
|
Telegram |
Verbot terroristischer Inhalte |
✅ |
✅ |
✅ |
✅ |
Keine Aufrufe zur Gewalt |
✅ |
✅ |
✅ |
⛔ |
Keine falschen Wahldaten |
✅ |
✅ |
✅ |
⛔ |
Keine „social bots” oder „Deep Fakes”/Markierung und Sichtbarkeits-Einschränkung |
✅ |
✅ |
✅ |
⛔ |
Kennzeichnung und Transparenz von Wahlwerbung |
✅ |
⛔ |
⛔ |
⛔ |
Markierung von Regierungsorganisationen |
⛔ |
✅ |
✅ |
⛔ |
Meldestelle zu Wahlzeiten |
⛔ |
⛔ |
✅ |
⛔ |
4. Problemfälle
Im Vorfeld der Wahl wurden bereits einige Problemfelder identifiziert, die es während des Wahlkampfes zu beobachten gilt. Mit Blick auf den Medienstaatsvertrag sind insbesondere Erlass, Nutzung und Wirksamkeit der Satzungen zur Regulierung von Medienintermediären durch die Landesmedienanstalten (§ 96 MStV) von Interesse. Werden Inhalte oder ganze Profile gelöscht, ist zu analysieren, auf Grundlage welcher Norm dies geschieht. Das könnten sowohl die privaten Nutzungsbedingungen der Netzwerke, staatliche Normen wie das NetzDG oder ein Zusammenspiel solcher Normen sein.
Dies geht mit der Frage einher, ob die Netzwerke in vergleichbaren Situationen auch die gleichen Maßnahmen wie Löschung, Kommentierung oder Profilsperren ergreifen, oder ob es selbst in ideologisch vergleichbaren Gruppen zu unterschiedlichen Entscheidungen und Maßnahmen kommt. Dabei könnte insbesondere von Relevanz sein, ob sich die Maßnahme gegen das Profil eines/r Kandidat*in richtet.
Von besonderer Bedeutung für die Verbreitung rechtswidriger Inhalte könnten insbesondere Messenger Dienste wie Telegram sein. Dass diese Dienste als private Kommunikationsräume starteten und auch einen (Groß-)Teil ihrer Plattform zu diesem Zwecke genutzt wird, erschwert mit Blick auf das NetzDG und den Entwurf des DSA das Vorgehen gegen rechtswidrige Inhalte auf diesen Diensten.
Die Summe der Maßnahmen gegen veröffentliche Inhalte könnte ebenfalls Aufschluss darüber geben, ob die Meinungsfreiheit online andere, tatsächliche Grenzen findet als offline. Auch stellt sich die Frage, ob Desinformationskampagnen im Rahmen der bestehenden rechtlichen Regelungen wirksam unterbunden werden können, oder ob es hier neuer Regelungen bedarf.
5. Zusammenfassung
Der Normenkatalog für den Online-Wahlkampf hat sich stark erweitert. Es wurden nicht nur neue Normen staatlicher Ordnung erlassen, die insbesondere die Betreiber*innen der großen Online-Plattformen in die Pflicht nehmen. Durch die enorme Reichweite dieser Netzwerke haben auch deren private Normen in Form von Nutzungsbedingen, Privatsphäreeinstellungen oder Verhaltensregeln eine Bedeutung erhalten, die von ihrer faktischen Auswirkung die Bedeutung staatlicher Normen übersteigen könnte. Im deutschen Superwahljahr 2021 regulieren all diese Normen einen wesentlichen Teil des Wahlkampfes und mithin einen essenziellen demokratischen Prozess. Viele der besprochenen Normen sind noch jung (NetzDG aus dem Jahr 2017, MStV aus dem Jahr 2020) oder harren noch ihrer Annahme (DSA, DMA, DGA). Die Neuheit der Normen und der Umstand, dass die Kommunikation im Internet zum Wahlkampf in Corona-Zeiten enorm an Bedeutung gewonnen hat, fordern eine Analyse der Auswirkungen besagter Normen, um auf dieser Basis Alternativen zu den bestehenden Regelungen entwickeln zu können. Diese Auswirkungen auf den demokratischen Prozess der Meinungsbildung werden sich im deutschen Superwahljahr 2021 in besonders deutlicher Form zeigen.
Foto: Suad Kamardeen / unsplash
[1] Europäische Kommission, „Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on a Single Market For Digital Services (Digital Services Act) and amending Directive 2000/31/EC”, COM/2020/825 final.
[2] Wissenschaftlicher Dienst des Deutschen Bundestages, „Politische Äußerungen von Hoheitsträgern”, 19. März 2018, https://www.bundestag.de/resource/blob/556768/776c7bb3e6cd1fd9ed85e539cca79b59/wd-3-074-18-pdf-data.pdf , S. 3.
[3] BVerfGE 44, 125.
[4] Wissenschaftlicher Dienst des Deutschen Bundestages, „Politische Äußerungen von Hoheitsträgern”, 19.03.2018, https://www.bundestag.de/resource/blob/556768/776c7bb3e6cd1fd9ed85e539cca79b59/wd-3-074-18-pdf-data.pdf , S. 3.
[5] Vgl. Wissenschaftlicher Dienst des Deutschen Bundestages, „Parteienwerbung in privaten Medien” , https://www.bundestag.de/resource/blob/651780/3fe16363e541588a2dcbdb3d8b851375/WD-10-044-19-pdf-data.pdf , 05.07.2019, S. 7.
[6] Klaas, Arne, „Demokratieprinzip im Spannungsfeld mit künstlicher Intelligenz”, MMR 2019, 84, S. 88.
[7] Ibid.
[8] BVerfG, NJW 2000, 3485.
[9] Klaas, Arne, „Demokratieprinzip im Spannungsfeld mit künstlicher Intelligenz”, MMR 2019, 84, S. 90.
[10] Vgl. BT-Drs. 18/12356, S. 1, http://dipbt.bundestag.de/dip21/btd/18/123/1812356.pdf.
[11] Telegram, Fragen und Antworten, „Was ist der Unterschied zwischen Gruppen und Kanälen?”, https://telegram.org/faq/de#f-was-ist-der-unterschied-zwischen-gruppen-und-kanalen.
[12] Telegram, Fragen und Antworten, „Warum sollte ich euch vertrauen?”, https://telegram.org/faq/de#f-warum-sollte-ich-euch-vertrauen.
[13] Telegram, Fragen und Antworten, „Wie wird Telegram Geld verdienen?”, https://telegram.org/faq/de#f-wie-wird-telegram-geld-verdienen.
[14] Martini, BeckOK Informations- und Medienrecht, MStV Präambel, Rn. 43.
[15] Vgl. Die Medienanstalten, „Intermediäre”, https://www.die-medienanstalten.de/themen/intermediaere.
[16] Vgl. Begründung. zum MStV, LT-Drs. N 18/6414, 89, https://www.landtag-niedersachsen.de/drucksachen/drucksachen_18_07500/06001-06500/18-06414.pdf.
[17] Martini, BeckOK Informations- und Medienrecht, MStV Präambel, Rn. 45.
[18] Europäische Kommission, 2020/0361 (COD), S. 49, https://eur-lex.europa.eu/legal-content/DE/TXT/PDF/?uri=CELEX:52020PC0825&from=de.
[19] Berberich/Seip, „Der Entwurf des Digital Service Act”, GRUR-Prax 2021, 4 (5), https://beck-online.beck.de/Bcid/Y-300-Z-GRURPRAX-B-2021-S-4-N-1.
[20] Berberich/Seip, „Der Entwurf des Digital Service Act”, GRUR-Prax 2021, 4 (5), s. FN 7.
[21] Ibid.
[22] Europäische Kommission, 2020/0361 (COD), S. 68, https://eur-lex.europa.eu/legal-content/DE/TXT/PDF/?uri=CELEX:52020PC0825&from=de.
[23] Berberich/Seip, Der Entwurf des Digital Service Act, GRUR-Prax 2021, 4 (7), https://beck-online.beck.de/Bcid/Y-300-Z-GRURPRAX-B-2021-S-4-N-1.
[24] Bitkom, „Jedes 2. Unternehmen verzichtet aus Datenschutzgründen auf Innovationen”, https://www.bitkom.org/Presse/Presseinformation/Jedes-2-Unternehmen-verzichtet-aus-Datenschutzgruenden-auf-Innovationen.
[25] Europäische Kommission, „Proposal for a Regulation on European Data Governance (Data Governance) Act”, https://digital-strategy.ec.europa.eu/en/library/proposal-regulation-european-data-governance-data-governance-act.
[26] Rieke, EU-Data Governance Act, bvdw.org, https://www.bvdw.org/der-bvdw/news/detail/artikel/eu-data-governance-act/.
[27] Ibid.
[28] Ibid.
[29] Facebook (Hrsg.), Gemeinschaftsstandards, I.1., https://de-de.facebook.com/communitystandards/credible_violence.
[30] Facebook, „Gemeinschaftsstandards”, I.3.
[31] Facebook, „Gemeinschaftsstandards”, III.12.
[32] Facebook, „Gemeinschaftsstandards”, IV. 20.
[33] Facebook, „Gemeinschaftsstandards”, IV.22.
[34] Kühl, Eike, „Wie groß ist Facebooks Macht im Wahlkampf”, 22.09.2020, ZeitOnline, https://www.zeit.de/digital/internet/2020-09/facebook-manipulation-waehler-us-wahl-regeln-soziale-medien, S. 2.
[35] Facebook, „Infos zu Wahlwerbung bzw. Werbung zu politisch oder gesellschaftlich relevanten Themen”, https://de-de.facebook.com/business/help/167836590566506?id=288762101909005.
[36] Facebook, „Werberichtlinie Verbotene Inhalte”, 3., 11., 13., 14., https://www.facebook.com/policies/ads/prohibited_content.
[37] Facebook, „Nutzungsbedingungen”, 1. Von uns angebotene Dienste, Wir stellen dir ein personalisiertes Erlebnis bereit, https://de-de.facebook.com/terms.
[38] Facebook, „Nutzungsbedingungen”, 1. Von uns angebotene Dienste, Wir verbinden sich mit Personen und Organisationen, die dir wichtig sind.
[39] Facebook, „Nutzungsbedingungen”, 1. Von uns angebotene Dienste: Wir helfen dir, Inhalte, Produkte und Dienste zu entdecken, die dich möglicherweise interessieren; 2. Wie unsere Dienste finanziert werden.
[40] Bundestag Drucksache 19/24200, 11.11.2020, S. 58 f.; Schmidt, „Soziale Medien. Eine Gefahr für die Demokratie?”, 11.05.2019, https://www.bmbf.de/de/soziale-medien-eine-gefahr-fuer-die-demokratie-8606.html.
[41] Twitter, „Richtlinie zur Integrität staatsbürgerlicher Prozesse”, Stand: 01.2021, https://help.twitter.com/de/rules-and-policies/election-integrity-policy.
[42] Twitter, „Informationen zu Labels auf Twitteraccounts von Regierungsvertretern und Labels von staatlichen Medien”, https://help.twitter.com/de/rules-and-policies/state-affiliated.
[43] Twitter, „Richtlinie zu synthetischen und manipulierten Medien”, https://help.twitter.com/de/rules-and-policies/manipulated-media.
[44] Twitter, „Missbräuchliches Verhalten”, https://help.twitter.com/de/rules-and-policies/abusive-behavior.
[45] Twitter, „Richtlinie zu Gewaltandrohung”, https://help.twitter.com/de/rules-and-policies/violent-threats-glorification.
[46] YouTube, „Richtlinie zu Spam, irreführenden Praktiken und Betrug”, https://support.google.com/youtube/answer/2801973.
[47] YouTube, „Sicherheits- und Wahlrichtlinien, Einflussnahme aus dem Ausland”, https://www.youtube.com/intl/ALL_de/howyoutubeworks/our-commitments/supporting-political-integrity/#foreign-interference.
[48] YouTube, „Sicherheits- und Wahlrichtlinien, Nachrichten und Informationen zu Wahlen”, https://www.youtube.com/intl/ALL_de/howyoutubeworks/our-commitments/supporting-political-integrity/#election-news-and-information.
[49] Ibid.
[50] YouTube, „Sicherheits- und Wahlrichtlinien, Politische Werbung”, https://www.youtube.com/intl/ALL_de/howyoutubeworks/our-commitments/supporting-political-integrity/#political-advertising.
[51] YouTube, „Sicherheits- und Wahlrichtlinien, Inhalte entfernen”, https://www.youtube.com/intl/ALL_de/howyoutubeworks/our-commitments/supporting-political-integrity/#removing-content.
[52] Telegram, „Fragen und Antworten, Ich habe illegale Inhalte auf Telegram gefunden. Wie kann ich diese löschen lassen?”, https://telegram.org/faq/de#f-ich-habe-illegale-inhalte-auf-telegram-gefunden-wie-kann-ich-d.
[53] Telegram, „Fragen und Antworten, Ich habe illegale Inhalte auf Telegram gefunden. Wie kann ich diese löschen lassen?”, https://telegram.org/faq/de#f-ich-habe-illegale-inhalte-auf-telegram-gefunden-wie-kann-ich-d.
[54] Telegram, „Fragen und Antworten, Was ist der Unterschied zwischen Gruppen und Kanälen?”, https://telegram.org/faq/de#f-was-ist-der-unterschied-zwischen-gruppen-und-kanalen.
[55] Telegram, „Fragen und Antworten, Moment mal. 0_o Ihr löscht etwas auf Anfrage von Dritten?”, https://telegram.org/faq/de#f-ich-habe-illegale-inhalte-auf-telegram-gefunden-wie-kann-ich-d.
[56] Telegram, „Fragen und Antworten, Reagiert ihr auf Datenanfragen?”, https://telegram.org/faq/de#f-reagiert-ihr-auf-datenanfragen.
[57] Telegram, „Fragen und Antworten, Für wen ist Telegram gedacht?”, https://telegram.org/faq/de#f-fur-wen-ist-telegram-gedacht ; „Wie unterscheiden sich geheime Chats?”, https://telegram.org/faq/de#geheime-chats; Telegram, „Privacy Policy, 3.3.2. Secret Chat”, https://telegram.org/privacy.
[58] Telegram, „Fragen und Antworten, Wie funktioniert die zweistufige Bestätigung?”, https://telegram.org/faq/de#f-wie-funktioniert-die-zweistufige-bestatigung.
[59] Telegram, „Terms of Service”, https://telegram.org/tos?setln=de.
[60] Telegram, „Privacy Policy, 8.3. Law Enforcement Authorities”, https://telegram.org/privacy#8-3-law-enforcement-authorities.
[61] Ibid.
[62] Telegram, „Fragen und Antworten”, https://telegram.org/faq; „Terms of Service”, https://telegram.org/tos?setln=de; „Privacy Policy”, https://telegram.org/privacy.
[63] Telegram, „Privacy Policy, 5.3. Spam and Abuse”, https://telegram.org/privacy?setln=de#5-3-spam-and-abuse.
[64] Künast, Renate, „Regeln für Wahlkämpfe im digitalen Zeitalter“, ZRP 2019, 62, S. 65.
[65] Bündnis 90 / Die Grünen, „Grüne Selbstverpflichtung für einen fairen Bundestagswahlkampf 2017”, 13.02.2017, https://cms.gruene.de/uploads/documents/20170213_Beschluss_Selbstverpflichtung_Fairer_Bundestagswahlkampf.pdf.
- Aufrufe: 2490