IGM: Kai, worum geht es beim Digital Services Act?
Kai Bodensiek: Der Digital Services Act ist der Versuch der EU, Transparenz in die Moderation von Plattformen zu bringen. Vielleicht ist „Moderation“ einen Tick zu kurz gegriffen, weil er auch links und rechts noch einiges anderes macht. Aber der DSA schreibt zunächst einmal grundsätzlich Online-Plattformen und auch sonstigen Anbietern vor, wie sie auf Beschwerden zu reagieren haben. Und zwar Beschwerden sowohl, was das Verhalten, als auch, was die Inhalte von NutzerInnen angeht. Der DSA reguliert also, wie sich NutzerInnen, aber auch Dritte über Inhalte beschweren können, wie dann die Entscheidung der Plattform abzulaufen hat, wie man mit dieser Beschwerde umgeht – und auch, wie man mit einer Beschwerde gegen die Entscheidung umgeht. Das Ganze muss zudem transparent gemacht werden und wird auch von Behörden überwacht.
IGM: Worum geht es beim DSA noch?
Bodensiek: Es geht auch um Regelungen zur Gestaltung von Empfehlungssystemen, zur Kennzeichnung von Werbung und zur Beschränkungen personalisierter Werbung für allem bei Minderjährigen. Für die ganz großen Anbieter sind darüber hinaus Anforderungen an die Systemsicherung formuliert. Das sind die zentralen Punkte des DSA.
IGM: Wie stark sind Games-Firmen davon betroffen?
Bodensiek: Erstes Ziel des DSA waren natürlich große Plattformen wie Facebook und X. Aber er betrifft genauso gut auch Spieleanbieter. Ein Beispiel: Ein Publisher betreibt ein großes MMO und bietet dazu auch ein Community-Forum. Im Forum können die NutzerInnen beliebige Inhalte veröffentlichen – seien es nun Memes, Texte, was auch immer. Und da geht es dann darum, wie ich mich als Nutzer an den Anbieter wenden kann, wenn ich der Meinung bin, dass diese Inhalte nicht in Ordnung sind. Es geht aber auch darum, wie In-App-Purchases beworben werden dürfen – und wie klar In-Game Advertising gekennzeichnet werden muss.
IGM: In vielen Foren gibt es ja schon Regeln. Man kann sich bei Admins und ModeratorInnen melden ...
Bodensiek: Stimmt – aber das ist halt manchmal gar nicht so einfach. Nehmen wir – jenseits von Games – das Beispiel „Kleinanzeigen.de“. Wenn ich mich da über Inhalte beschweren möchte, suche ich erst mal eine Dreiviertelstunde, bis ich überhaupt eine Kontaktmöglichkeit finde. Und ich muss im Zweifelsfall damit rechnen, dass überhaupt niemand auf die Anfrage reagiert. Im DSA gibt es sehr konkrete Anforderungen, wie so eine Kontaktaufnahme ermöglicht werden muss, wie gut sie sichtbar sein muss, welche Optionen da zur Verfügung stehen müssen – und eben auch, wie transparent der Prozess dahinter sein muss. Im Zweifelsfall muss ich den NutzerInnen tatsächlich erklären, worauf meine Moderationsentscheidungen beruhen. Ich muss auch im Voraus festlegen, wie die Entscheidungsprozesse ablaufen – und ich muss sie begründen.
Es reicht nicht mehr, sich einfach nur auf das Hausrecht zu berufen
IGM: Welche Inhalte sind da beispielsweise relevant?
Bodensiek: Ich gebe mal zwei Beispiele. Erstens könnten das Inhalte sein, die Urheberrechte Dritter verletzen. Irgendjemand hat ein Bild von mir genommen, das ich auf Instagram veröffentlicht habe – und hat es dann erneut als sein Bild veröffentlicht. Das zweite Beispiel sind Inhalte, die gegen Verhaltensregeln verstoßen, die der Anbieter selbst festgelegt hat. Zu diesen Verhaltensregeln könnte gehören, dass es im Forum keine politischen Diskussionen, keine beleidigenden Inhalte oder keine irreführende Werbung geben darf. Der Anbieter muss dann aber offenlegen, wie er im Forum moderiert.
IGM: Wie genau muss er das machen?
Bodensiek: Zum Beispiel: Was sind die Kriterien für bestimmte Regelverletzungen? Wann kann er jemanden rausschmeißen? Wie muss er NutzerInnen vorwarnen? Der Anbieter muss jeden dieser Schritte begründen und anfechtbar gestalten. Bei seinen Entscheidungen muss sich der Anbieter auch an den Grundrechten orientieren – also an Gleichheit, Meinungsfreiheit, Religionsfreiheit und so weiter. Wenn er in der Moderation davon abweichen würde, bräuchte er dafür schon sehr gute Argumente. Es reicht nicht mehr, sich einfach nur auf das Hausrecht zu berufen.
IGM: Gibt es so etwas wie Blaupausen für diese neue Art der Moderation?
Bodensiek: Schon jetzt werden ja für die ModeratorInnen Entscheidungsbäume vorgebaut. Nach dem Motto: Wenn das und das der Fall ist, dann musst du dies und jenes tun. Und genau das ist dann eben auch Teil der neuen Transparenz: Dass die NutzerInnen wissen, was passiert, wenn sie gegen eine bestimmte Regel verstoßen. Das macht es übrigens gerade für Spieleanbieter – egal ob Developer oder Publisher – noch ein bisschen schwieriger. Ganz oft wird die Moderation in Games-Foren ja von Community-Mitgliedern freiwillig geleistet. Nun sind die Anbieter aber zur Transparenz verpflichtet und müssen jährlich Berichte darüber schreiben, welche Entscheidungen im Lauf des Jahres durch ModeratorInnen getroffen wurden.
IGM: Klingt aufwendig ...
Bodensiek: Ja, als Anbieter muss ich Statistiken darüber führen, was wie entschieden wurde – und welche Beschwerden es gab. Das kann dann durchaus sehr komplex werden. Gerade bei freiwilliger Moderation durch Community-Mitglieder wird es wahnsinnig schwierig, das zu organisieren und zu überwachen.
Wahnsinnig schwierig, das zu organisieren und zu überwachen
IGM: Welche Auswirkungen könnte das haben?
Bodensiek: Anbieter werden eigene ModeratorInnen brauchen – oder externe, die dafür bezahlt werden. Oder sie setzen stärker auf automatisierte Moderation, die dann auch zunehmend KI-basiert sein kann. Aber auch da muss man ja offenlegen, nach welchen Kriterien moderiert wird.
IGM: Vermutlich lässt sich automatisierte Moderation damit ganz gut austricksen ...
Bodensiek: Ja, es steht ausdrücklich im DSA, dass man diese automatisierten Entscheidungswege offenlegen muss. Und wenn man die Mechanismen kennt, lässt sich das natürlich auch leichter umgehen.
IGM: Bisher mussten Anbieter auf Beschwerden reagieren. Müssen sie jetzt selbst handeln, wenn ihnen Verstöße von UserInnen auffallen?
Bodensiek: Das Privileg, dass man nur reaktiv tätig werden muss, bleibt erst mal erhalten. Aber ich muss als Anbieter viel mehr tun und auch transparenter handeln, wenn mir ein möglicher Verstoß mitgeteilt wird.
IGM: Wie sieht es bei Spielen mit Online-Chats aus? Die sind ja hochdynamisch, die UserInnen-Beiträge rauschen da durch, außerdem sind viele Communities latent toxisch. Wie soll man das denn per DSA in den Griff bekommen?
Bodensiek: Der DSA unterscheidet zwischen verschiedenen Kategorien von Diensteanbietern. Die „Online-Plattform“ gibt es als Begriff auch im DSA. Das ist ein klassisches Forum oder auch ein persistenter Chat – zum Beispiel so etwas wie Discord, wo der Chat dauerhaft gespeichert und abrufbar ist. Wenn ich aber einen Live-Chat habe, der durchläuft und danach nicht mehr aufrufbar ist, dann handelt es sich um einen „durchleitenden Anbieter“. Das sind zum Beispiel Access Provider oder Caching Provider. Bei denen sind die Anforderungen natürlich deutlich geringer, weil die auch nur sehr viel kürzer irgendwo eingreifen können. Aber auch für diesen Fall müssen Meldemöglichkeiten geschaffen werden.
IGM: Wie lässt sich das konkret umsetzen?
Bodensiek: Es kann sein, dass ich auch als durchleitender Anbieter Log-Files habe. Auf jeden Fall muss es die Möglichkeit geben, sich zu beschweren, etwa über einen Chat-Button. Man kann dafür auch technische Lösungen finden – zum Beispiel, dass der Chat der letzten 30 Sekunden beigefügt wird, wenn man den Beschwerde-Button drückt. Diese technische Lösung muss aber wiederum datenschutzkonform sein. Allerdings sind die Anforderungen hier deutlich geringer, weil der Anbieter weniger Eingriffsmöglichkeiten hat.
Discord ist datenschutzrechtlich ohnehin schon ein Albtraum
IGM: Wie ist das zum Beispiel bei Discord? Das benutzen ja viele als Third-Party-Lösung.
Bodensiek: Discord ist datenschutzrechtlich ohnehin schon ein Albtraum, weil der Anbieter bisher nicht klar Stellung bezogen hat, wer denn nun wirklich für die Daten verantwortlich ist. Es muss ja datenschutzrechtlich immer eine verantwortliche Stelle geben. Für Angebote wie Facebook hat der EuGH bereits entschieden, dass sowohl Meta als auch der Betreiber einer Unternehmensseite gemeinsam verantwortlich sind und einen entsprechenden Vertrag schließen müssen. Discord sagt aber: „Nein, wir verarbeiten die Daten im eigenen Interesse.“ Gleichzeitig wollen sie aber nicht für die Inhalte verantwortlich sein. Rechtlich haben wir bisher noch keinen Fall gehabt, wo es um die Verantwortung geht. Ich würde im Zweifel rechtlich beide Parteien angehen – sowohl Discord als auch denjenigen, der den Server redaktionell betreibt. Die meisten Publisher haben es deshalb auch lieber, wenn die Discord-Server von der Community selbst betrieben werden.
IGM: Wie gut sind deutsche Spielefirmen überhaupt auf den DSA vorbereitet?
Bodensiek: Ich vergleiche das mal mit der Datenschutz-Grundverordnung. Da hatten wir auch zwei Jahre Vorlauf – und als die DSGVO schließlich in Kraft trat, waren alle völlig überrascht (lacht). Es gab da Forderungen nach Übergangsfristen – und Brüssel meinte dazu: „Ihr hattet gerade eine zweijährige Übergangsfrist, wenn ihr nicht zuhört, dann können wir auch nichts dafür.“ Das erinnerte stark an die Vogonen aus „Per Anhalter durch die Galaxis“. So ähnlich ist es beim DSA im Grunde auch. Er existiert jetzt schon eine ganze Weile, galt bislang nur für die großen Plattformen und tritt im Februar endgültig für alle in Kraft. Viele Firmen fangen aber jetzt erst an, sich darum zu kümmern.
IGM: Ein bisschen spät ...
Bodensiek: Ja, aber das ist jetzt nicht die primär die Schuld der Industrie. Die ist zwar langsam, wenn es um die Umsetzung neuer Anforderungen geht – aber tatsächlich ist die die Bundesrepublik genauso schwerfällig. Sie hat nämlich noch kein Umsetzungsgesetz für den DSA verabschiedet, obwohl darin wichtige Dinge geregelt werden müssen. Zum Beispiel, welche Behörde das alles überwachen soll. Oder auch, wer ein „Trusted Flagger“ sein kann – wer also Meldungen über Verstöße abgeben darf, die dann besonders eilig behandelt werden müssen.
IGM: Ok, es gibt also noch keine Aufsichtsbehörde, die das Ganze umsetzt?
Bodensiek: Nein. Zwar soll die Bundesnetzagentur das Ganze von oben mit überwachen. Aber bei der Zuständigkeit für spezielle Fragen – gerade für die direkte Aufsicht der Dienste – gibt es derzeit ein Kompetenzgerangel zwischen Bund und Ländern. Die Länder wollen, dass die Landesmedienanstalten das überwachen – und der Bund möchte, dass das Bundesamt für Justiz das macht. Es gibt aber noch nicht einmal einen Kabinettsentwurf für das Umsetzungsgesetz, geschweige denn, dass der im parlamentarischen Verfahren wäre. Es ist damit zu rechnen, dass wir im Februar noch kein richtig klares Gesetz haben – und auch keine Behörde, die mal eben mit der Aufsicht loslegen könnte.
IGM: Wenn es irgendwann eine funktionierende Aufsicht gibt – wird es dann wieder eine Abmahnwelle geben, ähnlich wie bei der DSGVO?
Bodensiek: Ja, das wird wieder losgehen, da werden bestimmt Leute direkt abmahnen, das kennen wir ja leider von jedem neuen Internet-Thema. Allerdings ist noch gar nicht klar, ob Verstöße gegen den DSA überhaupt durch Wettbewerber abmahnfähig sind. Man darf gespannt sein ... auf jeden Fall wird es keine Bußgelder geben, solange es keine Aufsichtsbehörde gibt. Aber auch mit einer Aufsicht werden anfangs normalerweise bei neuen Vorschriften nicht direkt Bußgelder verhängt. Stattdessen werden zuerst die Unternehmen von der Aufsicht angesprochen – und nur wer dann nicht reagiert oder von Anfang an vorsätzlich verstoßen hat, muss mit Bußgeldern rechnen.
IGM: Was rätst du Spielefirmen, die jetzt noch nicht richtig auf den DSA-Start vorbereitet sind?
Bodensiek: Man sollte möglichst schnell den Ist-Zustand ermitteln. Also zum Beispiel prüfen, wie Moderationsentscheidungen gefällt werden und wie man sich als NutzerIn beschweren kann. Welche Kontaktmöglichkeiten gegeben sind und wie zugänglich diese sind. Dann sollte man – ähnlich wie bei der DSGVO – zuerst die Dinge angehen, die offensichtlich im Argen liegen. Wenn es auf der Website noch keine Kontaktmöglichkeiten und kein Beschwerdesystem gibt, dann lässt sich das relativ schnell lösen.
IGM: Quick Wins sozusagen ...
Bodensiek: So ist es. Im zweiten Schritte kann man dann die AGB angehen oder auch Verhaltensregeln neu formulieren. Das, was nicht direkt auf der Website sichtbar ist, kann man dann nach und nach erledigen – so wie seinerzeit bei der DSGVO. Aber die ganz offensichtlichen Dinge lassen sich mit einigermaßen überschaubarem Aufwand schon innerhalb von ein, zwei Monaten regeln.
Es ist damit zu rechnen, dass wir im Februar noch kein richtig klares Gesetz haben
IGM: Das Ziel des DSA ist ja letztendlich, das Internet ein Stück weit zu zivilisieren. Keine ganz schlechte Sache …
Bodensiek: Ja, genau. Und zwar sowohl auf Nutzer- als auch auf Anbieterseite. Ein schönes Beispiel ist ja Twitter. Die Transformation zu X zeigt, was passiert, wenn man die Moderation abschaltet, wenn man die Inhalte nicht mehr kontrolliert. Wenn wir das nicht korrigieren, werden wir eine sehr negative Entwicklung in allen möglichen Diensten haben. Es geht nicht einfach, der Free Speech ihren Lauf zu lassen. Die EU hat da eben doch einen sehr anderen Ansatz als die USA. Auf der Grundlage des DSA geht die EU-Kommission ja auch gerade gegen X vor.
IGM: Manche Gaming-Communities sind so toxisch, dass sie sich auch nicht vom DSA reformieren lassen ...
Bodensiek: Stimmt. In den ersten zehn Minuten, in denen ich League of Legends gespielt habe, wurde ich ungefähr 20 Mal als „fucking Kacknoob“ bezeichnet. Das stimmte auch, man hätte es aber trotzdem netter sagen können (lacht). Ich halte es für illusorisch, dass sich da schnell etwas ändert. Verhaltensänderungen bei NutzerInnen sind eher ein langfristiges Thema. Beim DSA geht es primär darum, die Anbieter in die Verantwortung für ihre Plattformen zu nehmen. Dass sie eben nicht mehr sagen können: „Was die UserInnen da machen, ist mir doch wurscht.“ Sondern dass sie sehr genau überlegen müssen, welche Austauschmöglichkeiten sie zur Verfügung stellen – weil man ja moderieren und sich darum kümmern muss, wenn die UserInnen Unsinn machen.
IGM: Ist der DSA aus Sicht der Spielefirmen letztendlich vielleicht doch positiv – zum Beispiel im Hinblick auf mehr Rechtssicherheit?
Bodensiek: Ich glaube, für die Unternehmen ist es das nicht – für die bedeutet das vor allem mehr Aufwand. Der DSA schießt bei vielen Plattformen übers Ziel hinaus. Kleine Communities mit so viel Formalitäten zu überziehen, ist echt nicht sinnvoll. Aus NutzerInnensicht kann ich das gut nachvollziehen, da ist der DSA eine gute Sache. Aber aus Anbietersicht hätte ich mir mehr Differenzierung bei der Größe der Communities gewünscht. (Achim Fehrenbach)