Inhaltsverzeichnis
1. Was läuft da schief im Internet? Warum Anonymität irritiert Falscher Fokus auf Hass im Netz Aufmerksamkeit für Konstruktives 2. Warum Anonymität wichtig ist Hinweis auf Tatmotiv im Forum Abwehr negativer Konsequenzen Chance für mehr Meinungsfreiheit 3. Schmutz im Netz? Online-Enthemmung Empörungsstürme 4. Schutz im Netz! Masken in der physischen Welt Pseudonyme im Internet Warum wir digitale Masken brauchen 5. Das digitale Ich Digitaler Körper Beständigkeit
Einzigartigkeit Das Scheitern gesetzlicher Regelungen 6. Der virtuelle Raum Beispielwirkung Handschellen oder Gemeinschaftsgefühl? 7. Moderation durch Mensch und Maschine Müllabfuhr oder Navigation? Unterstützung durch künstliche Intelligenz 8. Verständigung im Netz: Es liegt an uns! Persönliche Scheinwerfer der Aufmerksamkeit Gestalter in der Medienwelt Anreize statt Strafen Endnoten Literatur Der Autor Christian Burger
1. Was läuft da schief im Internet?
Warum Anonymität irritiert
Seit einigen Jahren wird immer wieder eine einfache Lösung für verbale Entgleisungen im Netz gefordert: Weg mit der Anonymität, Echtnamenpflicht einführen, dann werden sich die Leute zusammenreißen. Wer sich nicht hinter einer digitalen Maske verbirgt, wer mit seinem echten Namen auftreten muss, der wird sich im Internet ordentlich benehmen. Doch was steckt wirklich hinter solchen Forderungen? Häufig sind es bekannte Persönlichkeiten aus Politik oder Medien, die derartige Positionen vertreten. Menschen, die online selbstverständlich unter ihrem eigenen Namen auftreten oder publizieren, weil sie damit ihre bereits bestehende Bekanntheit nutzen, um Gehör zu finden. Reaktionen auf Facebook, Twitter oder in Zeitungsforen kommen dann von »Beate Danzer«, »grueni« oder »anoNYm«. Oft auch Kritik. Manchmal auch unflätige Äußerungen. Wer sind diese Leute? Muss ich sie ernst nehmen? Sind sie mir schon einmal begegnet? Oder handelt es sich gar um einen politischen Mitbewerber oder um eine Kollegin aus einem Konkurrenzmedium? Die Unwissenheit um die Person, die hinter bestimmten Äußerungen steckt, ist oft unangenehm und irritierend. Mehr noch: Das Wort steht im Internet für sich, man kann niemandem ins Gesicht schauen und sehen, wie etwas gemeint ist. Der fehlende Kontext macht eine Einordnung schwer: Ist das jemand, dem man vertrauen kann? Was führt die Posterin im Schilde? Will mir da jemand schaden? Ist es gar ein Bekannter, der mich aus dem Hinterhalt angreifen will?
Beim Thema Corona und Mund-Nasen-Schutz kommt es zu ähnlichen Gefühlen, wie auch bei der Verwendung von Pseudonymen im Netz: Die Pflicht zur (teilweisen) Verhüllung des Gesichts stößt auf erbitterte Ablehnung. Bei Demonstrationen und in Social Media wird die Maske, die eine Verbreitung des Virus eindämmen soll, als Maulkorb uminterpretiert, der einem von den Mächtigen angelegt wird. Der Mund-Nasen-Schutz schränkt tatsächlich die soziale Interaktion ein, da er es unmöglich macht, die Mimik des Gegenübers wahrzunehmen. Das Verstehen des gesprochenen Worts wird erschwert. Bei der direkten Kommunikation mit anderen kann man plötzlich nicht mehr auf sämtliche Signale zurückgreifen, die man gewohnt ist. Hier zeigt sich eine wesentliche Parallele von physischen Masken im CoronaAlltag und digitalen Masken in Online-Gesprächen: Da wie dort bewirken Masken, dass wir unser Gegenüber nicht vollständig wahrnehmen können. Unterbewusste Mechanismen, die uns dabei helfen, Äußerungen von anderen einzuschätzen, können nicht oder nur eingeschränkt verwendet werden. Wichtige Kontextinformation – zum Beispiel Mimik oder Hintergrund zur Person – wird durch Masken unsichtbar. Da ist es nur allzu verständlich, dass es zu emotionaler Ablehnung kommt.
Falscher Fokus auf Hass im Netz
Der Blickwinkel »Hass im Netz« dominiert seit Jahren die Debatte darüber, wie wir im Internet miteinander umgehen und (nicht) umgehen sollen. Dieser einseitige Fokus, dieses Starren auf die negative Eskalation im Netz verstellt die Sicht auf das komplexe Wesen von Online-Diskursen. Nicht nur das, wir beschäftigen uns in der Politik, im Medienmanagement und aktuell zunehmend in der Gesetzgebung vorwiegend mit Verhinderungsmechanismen und versuchen so, Fehlverhalten in der virtuellen Sphäre zu minimieren. Bei diesen Bemühungen, Schwächen zu schwächen, vergessen wir völlig drauf, dass es vielleicht eine bessere Strategie gibt: Stärken zu stärken.
Zahlreiche Initiativen in der Gesetzgebung zielen darauf ab, Hass im Netz mittels stärkerer staatlicher Regulierung zu bekämpfen: Deutschland war 2017 mit seinem Netzwerkdurchsetzungsgesetz (NetzDG) Vorreiter, 2020 wurde dieses verschärft. Anbieter von sozialen Netzwerken müssen ein Beschwerdeverfahren einrichten und rechtswidrige Beiträge von Nutzern rasch entfernen sowie gegebenenfalls an die Polizei melden, andernfalls drohen hohe Strafzahlungen. Opfer von Hassbotschaften haben die Möglichkeit, Daten der Urheber vom jeweiligen Betreiber der Plattform zu erhalten. Im Mai 2020 wurde in Frankreich ein Gesetz verabschiedet, das Online-Plattformen hohe Bußgelder auferlegt, wenn sie Hassbotschaften nicht innerhalb von 24 Stunden löschen. In Österreich trat im Jänner 2021 das Kommunikationsplattformen-Gesetz in Kraft, das große Social-Media-Anbieter ebenfalls dazu zwingen soll, Hass-Postings rasch zu löschen. Auf EU-Ebene wird derzeit an ähnlichen Regelungen in einem Gesetz für digitale Dienste gearbeitet. All diese Initiativen sind umstritten, weil Overblocking, also eine unverhältnismäßig große Einschränkung des Rechts auf freie Meinungsäußerung, befürchtet wird. Eine Anung bei Gesetzen ist zwar notwendig, um Opfer besser zu schützen, greift jedoch zu kurz, wenn es darum geht, das Problem an der Wurzel zu packen. Virtuelle Räume müssen so gestaltet werden, dass sie zum Fundament für konstruktive Debatten werden und wenig Platz für destruktives Verhalten lassen. »Die Aufmerksamkeit anderer Menschen ist die unwiderstehlichste aller Drogen.« Das ist die zentrale These von Georg Franck in seinem 1998 erschienenen Buch Ökonomie der Aufmerksamkeit. Aktuell schenken wir unsere Aufmerksamkeit jenen, die das Niveau der Debatten im Internet senken, andere persönlich angreifen oder Straftaten begehen. Aufmerksamkeit ist ein knappes Gut in der Online-Welt. An einem Ort, an dem jeder publizieren kann, ist es von großer Bedeutung, Gehör zu finden und Reaktionen auszulösen. Gelingt dies vorwiegend mit destruktiven Methoden, so werden sich diese durchsetzen. Wenn wir aber konstruktive Debattenbeiträge honorieren, indem wir uns auf diese konzentrieren und diese ins Scheinwerferlicht stellen, wird deren Zahl steigen. Paul Graham, ein britischer Programmierer und Internet-Experte veröffentlichte
2008 ein Modell (s. detaillierter in Kapitel 6), das es uns erlaubt, unterschiedliche Qualitätsniveaus von Argumenten in Online-Diskussionen identifizieren. Auf den niedrigen Stufen befinden sich Angriffe auf den Gesprächspartner, in der Mitte sachlicher Widerspruch und an der Spitze überzeugende, belegte und begründete Argumente. Wenn über Hass im Netz debattiert wird, stehen stets die untersten Ebenen des Graham-Modells im Fokus. Persönliche Attacken und Entgleisungen sollen unterbunden werden. Jetzt ist es dringend notwendig, dass wir unseren Blick auf die höhergelegenen Stufen richten. Die entscheidende Frage ist, wie erreicht werden kann, dass mehr Menschen in Online-Gesprächen auf sachlicher Ebene diskutieren und mit entsprechender Aufmerksamkeit für Argumente belohnt werden.
Aufmerksamkeit für Konstruktives
Seit gut einem Vierteljahrhundert durchdringt das Internet immer größere Bereiche unseres Lebens. Ein wesentlicher Teil der gesellschaftlichen Kommunikation findet im virtuellen Raum statt. Online-Diskussionen wirken sich auf die Meinungsbildung vieler aus und haben entscheidenden Einfluss auf unser reales Leben. Zurecht wird auf destruktives Verhalten im Netz verwiesen, das die Kommunikation stört, Meinungen verzerrt und negative Konsequenzen im gesellschaftlichen Miteinander nach sich zieht. Die Debatte über Hass im Netz leidet jedoch darunter, dass voreilig falsche Schlüsse gezogen werden und damit relativ einfach anmutende Lösungen angestrebt werden, die nicht wirksam sein können. Digitale Masken, also die Verwendung von Pseudonymen im Internet, sind nicht die zentrale Ursache für destruktives Verhalten. Es erzeugt Unbehagen, wenn wir nicht genau wissen, mit wem wir es in Online-Diskussionen zu tun haben, das ist richtig. Eine Echtnamenpflicht, wie auch immer sie ausgestaltet ist, stellt keine geeignete Lösung dar. Sie führt nicht zu wesentlich zivilisierterem Verhalten und sie mindert nicht das Unbehagen, das von einem OnlineGegenüber ausgeht. Wir brauchen ein digitales Ich, das für soziale Selbstkontrolle im Netz sorgt. Eine Repräsentation für Menschen im virtuellen Raum, die eine Einschätzung durch andere erlaubt und somit Sicherheit gibt. Ein Echtname ist zu wenig, genauso wie ein Pseudonym. Das digitale Ich muss verschiedene Eigenschaften einer Person möglichst einfach erkennen lassen und eine Einordnung erlauben. Bei einer Begegnung in einem physischen Raum, zum Beispiel im Kaffeehaus, ist es auch nicht notwendig, den bürgerlichen Namen des Gegenübers zu kennen. Viel entscheidender ist es, andere Kontextinformationen zu erhalten. Im Kaffeehaus sind das die äußere Erscheinung, die Gestik und Mimik, die Stimme, Gerüche und andere Dinge, die wir nebenbei wahrnehmen. Solche zusätzlichen Signale erlauben uns eine bessere Einschätzung für die verbalen Äußerungen anderer Menschen.
In der virtuellen Sphäre lassen sich manche dieser Kontextinformationen schwer herstellen. Es ist jedoch durchaus möglich, ein digitales Ich facettenreicher auszugestalten, als das bisher oft geschieht (s. mehr dazu in Kapitel 5). Wenn ich mich selbst besser im Netz erkenne, ist die Wahrscheinlichkeit hoch, dass meine soziale Selbstkontrolle einsetzt. Und mein Gegenüber, das mehr Details von mir wahrnimmt, wird eher Vertrauen aufbauen können. Hass im Netz gibt es und wird es immer geben. Es wäre auch völlig absurd, das Gefühl einer negativen Ablehnung, das zum Leben gehört wie die Liebe, verbieten zu wollen. Blinder Hass kann jedoch auch Schaden für andere anrichten und es ist ein ehrenwertes Ziel, diesen zu minimieren. Die Verhinderung großer Eskalationen mit massiven Beeinträchtigungen für Opfer ist selbstverständlich wichtig, Polizei und Gerichte sollen auch im virtuellen Raum gegen Rechtsverletzungen vorgehen können. Der mediale und gesellschaftliche Diskurs zu Hass im Netz wird jedoch nicht dazu führen, dass Aggression und destruktives Verhalten aus dem virtuellen Leben verschwinden. Im Gegenteil, wir übersehen durch dieses Framing vollkommen, dass der überwiegende Teil der Online-Kommunikation zivilisiert abläuft und durchaus relevante Äußerungen in der Sache getätigt werden. Der falsche Fokus auf negative Phänomene verstellt nicht nur die Sicht, er wirkt wie eine selbsterfüllende Prophezeiung: Persönliche Attacken landen in der Auslage, bekommen Aufmerksamkeit, differenzierte, sachliche Beiträge gehen unter. Wir müssen den Fokus der Debatte verschieben und den Scheinwerfer endlich auf Konstruktives lenken. Soziales Verhalten in der virtuellen Welt kann nicht erzwungen, wohl aber belohnt werden. Wer auf Argumente zurückgreift, persönliche Einschätzungen teilt, neue Aspekte in eine Online-Diskussion einbringt, verdient größere Aufmerksamkeit. Konstruktive Beiträge gehören in die Auslage, damit sich viele ein Beispiel daran nehmen. Was ist also zu tun, damit Debatten im Internet besser werden? Erstens braucht es eine Stärkung des digitalen Ichs und zweitens müssen wir unsere Aufmerksamkeit auf konstruktive Beiträge lenken.
2. Warum Anonymität wichtig ist
Hinweis auf Tatmotiv im Forum
11. April 2017: Bei einem Angriff auf den Mannschaftsbus des deutschen Fußball-Bundesligisten Borussia Dortmund (BVB) kommt es zu drei Explosionen, der Spieler Marc Bartra und ein Polizist werden verletzt. Der Anschlag versetzt die Fußballer in Schockstarre und Menschen, die davon hören, in Unruhe. Zunächst sind die Hintergründe unklar, am nächsten Tag wird ein mutmaßlicher Islamist festgenommen. Ein Terroranschlag aus fundamentalistischen Motiven gilt als wahrscheinlich. Zehn Tage später rückt plötzlich entgegen aller Erwartung das Motiv Börsenspekulation ins Zentrum, der mutmaßliche Täter Sergej W. wird festgenommen. Wie kam es zu dieser überraschenden Wende? Am 12. April, also einen Tag nach dem Anschlag, postete »Jerusalem« im Forum des österreichischen Onlinemediums DER STANDARD:
Auch die Börsenredaktion des ARD erwähnte bereits an diesem Tag, dass es auffällige Transaktionen mit Optionsscheinen gab, bei denen auf einen extremen Kursabsturz spekuliert worden sein könnte. Dieser Hinweis stammte ebenfalls von »Jerusalem«, einem BVB-Anhänger aus Österreich. Der Fußballfan, der gut mit den Abläufen an der Börse vertraut und außerdem Borussia-Dortmund-Aktionär ist, hat bereits Stunden vor dem Anschlag, als er den Kurs seiner eigenen Scheine kontrollierte, eine ungewöhnliche Transaktion in Frankfurt entdeckt: Dort wurden 15.000 Stück Put-Optionen gekauft, obwohl diese sonst nur in Stuttgart gehandelt werden. Im Moment des Angriffs auf seinen geliebten Verein BVB tritt jedoch die Sorge um die Mannschaft in den Vordergrund. In der folgenden Nacht kann der Mann nicht gut schlafen, die seltsame Börsentransaktion kommt ihm wieder in den Sinn. Am Morgen entdeckt er, dass am Vortag nicht nur 15.000, sondern vier verschiedene Typen mit je 15.000 Stück gehandelt wurden. Mit dem Wissen des Angriffs auf den Mannschaftsbus denkt er jetzt an einen Trittbrettfahrer, der die Anschlagspläne kannte und dieses Wissen zu Geld machen wollte. Sprich: Bei einem starken rapiden Fall der Kurse hätte der Käufer einen hohen Gewinn erzielt. Aus dem Einsatz von 26.000 Euro wären 622.000 Euro geworden, wenn der Anschlag verheerend ausgegangen und die BVB-Aktie auf null abgestürzt wäre. »Jerusalem« überlegt sich, wie er Aufmerksamkeit für die Börsentransaktionen schaffen kann, denn er hofft, dass über den Trittbrettfahrer der tatsächliche Täter ausgeforscht werden kann. Später erzählt er in einem STANDARD-Artikel⁴: »Mir war bewusst, dass es sehr schwierig sein wird, diesen irrationalen Nebenschauplatz ins Zentrum des Geschehens zu rücken. Gesucht wurden Islamisten und Terroristen, da bleibt wenig Platz für ein paar gehandelte Optionsscheine [...] Ich rief also bei der Soko BVB an und versuchte, die Auffälligkeit zu erklären. Sicherheitshalber wollte ich mehr Aufmerksamkeit schaffen: Ich postete beim STANDARD, da ich dort eine interessierte Leserschaft vermutete, schrieb dem BVB und telefonierte mit ARD-Börse. Diese brachte bereits am Nachmittag einen Onlinebericht über die Optionsscheine. Ziel erreicht: Öffentlichkeit informiert!« Der BVB-Fan verfolgte also die Strategie, die ungewöhnliche Börsentransaktion
sowohl direkt bei den ermittelnden Behörden als auch bei Finanzmedien und bei einer breiten Öffentlichkeit im STANDARD, unter der er auch Finanz- und Börsenexperten vermutete, publik zu machen. Er wollte Druck aufbauen, auch durch direkte Information an die Öffentlichkeit über das Online-Forum, damit seinem Verdacht nachgegangen würde. Heute sagt er⁵: »Das Forum war auch deswegen wichtig, da mir die Ermittler, welche ich zweimal angerufen habe, nicht geglaubt haben. Man hat mich akustisch verstanden, aber die Sache mit den Optionsscheinen war eben so fern allem Denkbaren. Es hat vorher noch nie ein solches Tatmotiv gegeben.«
Abwehr negativer Konsequenzen
In der Öffentlichkeit, also im STANDARD-Forum, äußerte der Mann seinen Verdacht als »Jerusalem«. Dass er anonym bleiben konnte, war ihm dabei sehr wichtig. Zu diesem Zeitpunkt lag es ja noch völlig im Dunkeln, wer den Anschlag begangen hatte. Der BVB-Fan fürchtete, dass er selbst zur Zielscheibe des Täters oder Trittbrettfahrers werden könnte. Im Forum des STANDARDs treten Poster mit einem Nicknamen auf. Dabei haben sie die Wahl, ein Pseudonym zu wählen oder ihren Echtnamen zu verwenden. Es ist also möglich, anonym zu bleiben und den Lesern im Forum nicht zu verraten, welche Person hinter einem Nicknamen steckt. Im Internet ist die Verwendung von Pseudonymen weit verbreitet. Das Beispiel von »Jerusalem« zeigt sehr deutlich, dass diese eine wichtige Schutzfunktion haben können: Der Nickname wirkt wie eine Maske. Er erlaubt es, die wahre Identität einer Person zu verbergen, und kann damit vor negativen Konsequenzen bewahren.
Mobbing in der Schule, Umgang mit Krankheiten, Probleme im Job: Das alles sind Beispiele für Themen, die mit Scham verbunden sind. Es ist nicht leicht, darüber zu reden, schon gar nicht in der Öffentlichkeit. Wenn Menschen aber das Gefühl haben, ausreichend geschützt zu sein, kommt gerade auf OnlinePlattformen ein Austausch zustande, der Betroffenen hilft und andernorts nicht leicht zu verwirklichen ist. Die Möglichkeit, für solche Gespräche ein Pseudonym zu verwenden, ist dabei für viele Menschen entscheidend, sich zu öffnen. Andernfalls wäre die Gefahr für Verletzungen und Benachteiligungen, online wie auch in der physischen Welt, zu groß: Noch mehr Mobbing, unangenehme Rückmeldungen zu eigenen Krankheiten oder Verlust des Arbeitsplatzes. Anonymität in Online-Diskussionen hat daher einen hohen Wert und sollte nicht leichtfertig geopfert werden. Viele gesellschaftlich relevante Themen lassen sich mit persönlichen Erlebnissen beleuchten, wenn man im virtuellen Raum den Schutz der Pseudonymität in Anspruch nehmen kann. Die EU-Datenschutz-Grundverordnung (DSGVO) definiert im Artikel 9 sensible personenbezogene Daten: »Daten, aus denen die rassische und ethnische Herkunft, politische Meinungen, religiöse oder weltanschauliche Überzeugungen oder die Gewerkschaftszugehörigkeit hervorgehen, sowie die Verarbeitung von genetischen Daten, biometrischen Daten zur eindeutigen Identifizierung einer natürlichen Person, Gesundheitsdaten oder Daten zum Sexualleben oder der sexuellen Orientierung einer natürlichen Person.« Für solche Daten ist ein besonders verantwortungsvoller Umgang seitens Datenverarbeiter vorgeschrieben. Wer an Online-Diskussionen teilnimmt, veröffentlicht über sich selbst häufig Informationen, die unter sensible personenbezogene Daten fallen: Aus Postings lässt sich die politische Meinung ablesen, die Krankheitsgeschichte nachvollziehen oder auf die sexuelle Orientierung schließen. Das sind Details aus dem höchstpersönlichen Lebensbereich, die viele Menschen nur mit sehr eng vertrauten Personen teilen möchten. Das berufliche Umfeld, der Arbeitgeber, der weitere Bekanntenkreis oder Behörden zählen meist nicht zu diesem Kreis und sollen daher auf Online-Plattformen keinen Zugriff auf diese Informationen haben.
Daher gibt es ein hohes Interesse daran, dass sensible personenbezogene Daten nicht oder nicht leicht mit der eigenen Person in Verbindung gebracht werden können. Betreiber von virtuellen Diskussionsräumen sollten alles dafür tun, dass anwesende Personen weitgehend anonym bleiben können, wenn sie dies für notwendig erachten. Die Verwendung von Pseudonymen ist eine naheliegende Lösung dafür.
Chance für mehr Meinungsfreiheit
»Jeder Mensch hat das Recht auf freie Meinungsäußerung; dieses Recht umfasst die Freiheit, Meinungen unangefochten anzuhängen und Informationen und Ideen mit allen Verständigungsmitteln ohne Rücksicht auf Grenzen zu suchen, zu empfangen und zu verbreiten.« (Allgemeine Erklärung der Menschenrechte, Artikel 19) Die Meinungsfreiheit wird in Zusammenhang mit Online-Diskussionen häufig ins Spiel gebracht: Die einen pochen auf sie und meinen, im Internet (fast) alles sagen zu dürfen. Die anderen verweisen darauf, dass nicht alles unter Meinungsfreiheit fällt und dass die Meinungsfreiheit natürlich durch andere gesetzliche Bestimmungen beschränkt ist. Dass das Internet kein rechtsfreier Raum ist, muss immer wieder in Erinnerung gerufen werden: Volksverhetzung bzw. Verhetzung, Bedrohung bzw. Gefährliche Drohung, Verleumdung, Üble Nachrede, Beleidigung bzw. Ehrenbeleidigung oder ähnliche Delikte können nicht mit dem Etikett »freie Meinung« versehen und damit legalisiert werden. Das Recht auf freie Meinungsäußerung ist selbstverständlich durch Gesetze zur Verhinderung solcher Vergehen eingeschränkt. Neben der Diskussion über begründete Begrenzungen gibt es aber auch Möglichkeiten, die Meinungsfreiheit zu stärken, zu fördern und für viele erlebbar zu machen. Das Internet, in dem theoretisch jeder seine Stimme erheben kann, war und ist eine Chance für mehr Meinungsfreiheit. Speakers’ Corner im Londoner Hyde Park ist ein Platz für freie Rede im physischen Raum. Seit 1872 kann hier jeder einen Vortrag zu einem beliebigen Thema halten, ohne sich dafür zu registrieren. Um wen es sich bei der sprechenden Person handelt, ist nicht wichtig und häufig den Zuhörenden nicht bekannt. Das Internet bietet die Chance für viele, für unzählige derartige Ecken der freien Rede. Die Möglichkeit, Online-Bühnen ohne öffentliche Preisgabe persönlicher Daten zu nützen, ist wesentlich dafür, tatsächlich die eigene Meinung vertreten
zu können. Dass nicht die Person selbst, ihre Position in der Gesellschaft und ihr Verhalten andernorts mit der Meinungsäußerung vermischt werden, hat doppelten Nutzen: Der Mensch, der seine Meinung zu einem Thema in einem Onlinemedium äußert, wird nicht durch seine äußere Erscheinung, seine Geschichte, seinen Beruf, seinen sozialen Status oder ähnliche Bedingungen gehemmt. Er kann freier zu Wort kommen als an vielen anderen Orten, weil er sich lediglich auf den Inhalt konzentrieren muss. Ähnlich geht es auch den Gesprächspartnern, die seine Meinung wahrnehmen: Ihre Interpretation kann sich ebenfalls auf das geäußerte Wort konzentrieren und wird nicht durch den Blick auf die Person abgelenkt. Was zählt, ist tatsächlich die jeweilige Meinung. Anonymität im Netz bringt also gleich zwei wesentliche Vorteile mit sich: Erstens schützt sie die reale Person und zweitens stellt sie eine wichtige Grundlage dafür dar, dass Meinungen tatsächlich freier geäußert und rezipiert werden können. Durch die Verwendung von Pseudonymen werden Personen im Netz maskiert: Die wahre Identität hinter dem digitalen Ich schimmert durch, ist aber nicht leicht zu entschlüsseln.
3. Schmutz im Netz?
Jemand rastet aus, bedroht Mitmenschen oder beschimpft andere auf unflätige Weise. Sicher, das iert auch im direkten Kontakt, doch viel häufiger scheint uns das im Internet zu begegnen: Schmutz im Netz. Und schon schlägt der Empörungsreflex zu, ja ein wahrer Empörungssturm bricht los: Aufgeregt wird die Entgleisung auf Twitter oder Facebook kommentiert, man zeigt mit dem Finger auf den Grobian, wird selbst persönlich und schließlich berichten auch Online-Medien über den neuen Skandal im Netz. Das bringt Klicks. Die Empörten sind aber nur kurz befriedigt. Die nächste Eskalation wartet schon, alles wiederholt sich genau gleich.
Online-Enthemmung
John Suler, ein amerikanischer Psychologieprofessor, beschrieb den OnlineEnthemmungseffekt bereits 2004. Mehrere Faktoren spielen so zusammen, dass Menschen online Dinge sagen, die sie in einer direkten Begegnung in der physischen Welt nicht sagen würden. Bestimmte Bedürfnisse, Affekte und Phantasien kommen zum Vorschein, weil sich Unterdrückungsmechanismen lösen. Bei der Diskussion über »Hass im Netz« wird dieser Enthemmungseffekt einseitig betrachtet: Es werden ausschließlich negative Konsequenzen der Online-Enthemmung hervorgekehrt und diskutiert. Meist gänzlich ohne Lösungsansatz, der wiederholte Empörungssturm alleine scheint schon zu genügen. Denn der Hass kommt immer von den anderen, die meisten sehen sich selbst davor gefeit und sind um Abgrenzung bemüht. Oft mit dünnen Argumenten, dafür mit umso mehr Emotion. Im besten Fall fragt auch jemand danach, wie man Schmutz aus dem Internet entfernt. Dann geht es um die Frage, welche Sanktionen es für Enthemmte geben muss und wie Plattformen reguliert werden sollen, damit es zu weniger Enthemmung kommt. Diese Sichtweise ist auf gefährliche Weise eingeschränkt: Es wird vollkommen übersehen, dass Online-Enthemmung positive Effekte hat, die mit restriktiven Maßnahmen beschnitten oder verhindert werden. Zusätzlich gibt es viel zu wenig Augenmerk auf das Schutzbedürfnis, das Menschen im Netz haben, wenn sie sich über sensible Themen austauschen möchten. Suler stellt gleich zu Beginn seiner Beschreibung des OnlineEnthemmungseffekts fest, dass zwischen gutartiger und toxischer Enthemmung unterschieden werden muss. Der gutartige Enthemmungseffekt äußert sich darin, dass Menschen online sehr persönliche Dinge mitteilen und ihre Gefühle, Ängste und Wünsche äußern. Manchmal zeigt sich Freundlichkeit, Großzügigkeit oder Mitgefühl in ungewöhnlichem Ausmaß und vieles wird in Bewegung gesetzt, um anderen zu helfen. »Flowerrain« ist eine Bezeichnung für Situationen in der virtuellen Welt, in denen in kurzer Zeit bei sehr vielen Menschen diese Art der emotionalen Lockerung einsetzt. Es kommt zu einer wechselseitigen Verstärkung sozial erwünschter Verhaltensweisen.
Beim toxischen Enthemmungseffekt geschieht das Gegenteil: Menschen beschimpfen einander, üben harsche Kritik, lassen Wut und Hass heraus, bedrohen andere. In einer Online-Umgebung kann dies in viel stärkerem Ausmaß geschehen als bei Begegnungen in der physischen Welt. Wenn sich die destruktive Stimmung aufschaukelt, führen solche Verhaltensweisen auch zu Shitstorms, unter denen einzelne Menschen, Firmen oder Organisationen stark leiden. »Uhtred«, der die oben zitierten Postings verfasst hat, ist also ein toxisch Enthemmter. Er hat Mitmenschen online beschimpft, bedroht, herabgewürdigt. Aber das ist nur ein Teil der Geschichte. In einem Podcast erzählt er, dass er beim STANDARD außerdem ein spezielles Forum zum Darts-Sport betreibt und dort Interessierte mit Neuigkeiten aus diesem Nischensport versorgt: »Da ziehe ich eine klare Grenze. Da halte ich mich auch bewusst zurück. Dort schaue ich, dass ich grundsätzlich sachlich bleibe und lasse mich auf keine SinnlosDiskussionen ein.« Im Darts-Forum ist es noch nie vorgekommen, dass »Uhtred« ausfällig geworden wäre. Ganz im Gegenteil, er setzt sich für diese Community ein, ist freundlich und zeigt Verantwortungsgefühl. »Uhtred« ist also auch ein gutartig Enthemmter. John Suler hat insgesamt sechs Faktoren identifiziert, die in der virtuellen Welt dafür sorgen, dass unterdrückte Phantasien, Bedürfnisse und Affekte besonders leicht an die Oberfläche kommen und damit Enthemmung eintritt. Der erste Faktor ist die subjektive Anonymität, die man online verspürt. Sie bewirkt, dass sich Menschen von ihrer eigenen Identität teilweise losgelöst oder befreit empfinden. Zweitens spielt die Unsichtbarkeit in virtuellen Räumen eine Rolle. Auf gewohnte nonverbale Kommunikation mittels Mimik, Augenkontakt und Körpersprache, die üblicherweise für soziale Selbstkontrolle sorgt, muss man verzichten. Drittens wirkt asynchrone Kommunikation enthemmend. Zwischen Aktion und Reaktion vergeht einige Zeit, manchmal Minuten oder sogar Stunden. In Gesprächen in einem physischen Raum gibt es einen kontinuierlichen Kreislauf, der zur Einhaltung von sozialen Normen zwingt. In virtuellen Räumen neigt man dazu, andere in sich selbst hineinzuprojizieren und zum Teil eines inneren Dialogs zu machen, das ist der vierte Faktor. Kommunikation mit anderen wird wahrgenommen, als würde man quasi mit sich selbst sprechen. Der fünfte Faktor für Online-Enthemmung ist die Unwirklichkeit: das Gefühl,
dass die virtuelle Welt künstlich ist und im Gegensatz zur »realen Welt« steht. Daraus entsteht dann oft der Eindruck, Gesetze aus der physischen Welt hätten online keine Gültigkeit. Fehlende Autorität ist schließlich der sechste Faktor. In textbasierten virtuellen Räumen werden sozialer Status und gesellschaftliche Stellung häufig sehr eingeschränkt wahrgenommen. In der physischen Welt sind Polizei oder andere Autoritätspersonen leicht erkennbar. Ihre Präsenz übt Druck darauf aus, dass gewohnte Konventionen eingehalten werden. Online fehlen solche Signale häufig und damit kann die soziale Selbstkontrolle gelockert werden. John Suler stellt fest, dass der Online-Enthemmungseffekt jedoch nicht automatisch und bei jedem in gleicher Intensität durch diese sechs Faktoren ausgelöst wird. Es ist stark von der Persönlichkeit abhängig, ob und auf welche Weise man online anders agiert als in der physischen Welt. Wenn eine Enthemmung, ob gutartig oder toxisch, zu einem anderen Verhalten führt, könnte man zu dem Schluss kommen, dass das wahre Selbst zum Vorschein kommt. Suler warnt jedoch vor einer solchen Interpretation und stellt fest, dass – abhängig von der Umgebung – bloß unterschiedliche Aspekte des Selbst stärker ausgelebt werden. Wenn Anonymität und Unsichtbarkeit gegeben sind und kein Augenkontakt besteht, dann neigen Menschen dazu, mehr persönliche Details preiszugeben. Das hat eine Studie der israelischen Psychologen Noam Lapidot-Lefler und Azy Barak aus dem Jahr 2015 ergeben. Jaimee Stuart und Riley Scott wiederum haben einen weiteren Faktor ausgemacht, der sich auf den OnlineEnthemmungseffekt auswirkt: Je mehr Zeit Menschen online verbringen, desto eher tendieren sie sowohl zu gutartiger als auch toxischer Enthemmung. »Uhtred« dürfte im STANDARD-Forum, das er häufig besucht, auch einiges richtig machen. Er erzählt im Podcast, dass er sich ein Bild von den anderen n macht, indem er sich genau anschaut, was diese bisher so gepostet haben. Dadurch kann er auch zwischen den Zeilen lesen und versteht, wie jemand etwas meint. Mit manchen telefoniert er und es ergeben sich auch immer wieder persönliche Treffen in größerer Runde. Bei so einer Gelegenheit hat er die in »morgause« näher kennengelernt. Mittlerweile ist sie seine Partnerin und die beiden haben einen gemeinsamen Sohn. Freundschaften und Partnerschaften entstehen also ausgehend von Bekanntschaften im Forum. Daran hat der gutartige Enthemmungseffekt wohl einen wesentlichen Anteil.
Der Online-Enthemmungseffekt wirkt sich also auf das Verhalten von Menschen in der virtuellen Welt aus. Ob die Folgen eher gutartig oder toxisch sind, ob eher soziales oder asoziales Verhalten an die Oberfläche kommt, ist einerseits von der Persönlichkeit der handelnden Individuen und andererseits von der jeweiligen Umgebung abhängig. Unterschiedliche Wesensarten von Menschen sind zu respektieren. Welche Infrastruktur wir online vorfinden, lässt sich aber beeinflussen. Die Ausgestaltung virtueller Kommunikationsräume und des digitalen Ichs sind entscheidend dafür, ob Enthemmung eher gutartig oder toxisch zur Geltung kommt. Ingrid Brodnig, eine österreichische Autorin, beschränkt sich in ihrem Buch »Hass im Netz« auf den toxischen Online-Enthemmungseffekt, seine destruktiven Folgen und Maßnahmen, die dagegen ergriffen werden können. So wichtig das ist, wird hier jedoch ausgeblendet, dass es auch den gutartigen Online-Enthemmungseffekt gibt. Das ist aus zwei Gründen ein einseitiger und deshalb problematischer Zugang: Erstens ist es notwendig, bei allen Sanktionen und Restriktionen zu bedenken, dass damit auch soziales Verhalten im Netz gefährdet wird. Der Kampf gegen Hass im Netz kann also unbeabsichtigt auch gutartige Enthemmung verhindern und damit wertvolle Online-Begegnungen zunichtemachen. Zweitens macht der starre Blick auf die toxischen Effekte blind für die positiven Folgen der Online-Enthemmung. Doch gerade dorthin sollten wir unsere Aufmerksamkeit lenken. Es ist erforderlich, die Bedingungen für die gutartige Enthemmung, also für das Ausleben sozial zuträglicher Verhaltensweisen, zu erforschen und virtuelle Räume entsprechend zu gestalten. Enthemmung im Netz ist also für sich genommen neutral zu beurteilen: Menschen verhalten sich in virtuellen Räumen anders als in der physischen Welt und das kann sowohl positive als auch negative Auswirkungen auf andere haben. Online- und Offline-Auftreten sind Ausdrucksformen des gleichen Ichs, werden stark von der eigenen Persönlichkeit geprägt und können sich individuell stärker oder schwächer unterscheiden. Es ist außerdem davon auszugehen, dass Menschen, die sich längere Zeit in digitalen Räumen aufhalten, stärker von Enthemmung betroffen sind. Wie stark und in welche Richtung der Online-Enthemmungseffekt seine Wirkung entfaltet, hängt damit zusammen, wie Personen im virtuellen Raum wahrgenommen werden können. Die Ausgestaltung des digitalen Ichs sowie von virtuellen Räumen sind der Dreh- und Angelpunkt für die Frage, ob sich OnlineEnthemmung konstruktiv oder destruktiv bemerkbar macht. Je stärker der
gutartige Enthemmungseffekt zur Geltung kommt, desto weniger Schmutz in Form von toxischer Enthemmung begegnet uns online.
Empörungsstürme
Wer möchte, kann sich in den unendlichen Weiten des Internets immer wieder Beispiele toxischer Enthemmung suchen und diese anprangern. Das Lauffeuer der Empörung lässt sich schnell entfachen, Twitter oder Facebook sind willfährige Helfer dafür. Doch was ist damit erreicht? Die Empörungsstürme über destruktive Kommunikation sind selbst destruktive Kommunikation. Denn sie schaffen eine Bühne für die Eskalation. Empörte werden zu Komplizen der toxisch Enthemmten und arbeiten Seite an Seite an der Demolierung der Diskussionskultur im Netz. Empörte und toxisch Enthemmte ernähren sich von Aufmerksamkeit. Sie füttern sich gegenseitig damit. Das Ergebnis ist, dass wir alle plötzlich nur mehr Hass im Netz sehen. Das ist eine selbsterfüllende Prophezeiung. Wir können diese Spirale der Diskurszerstörung aber durchbrechen: Es ist dringend an der Zeit, den Blick auf die gutartige Enthemmung zu richten und der toxischen Enthemmung die Aufmerksamkeit zu entziehen.
4. Schutz im Netz!
Eine Situation aus dem Straßenverkehr: Es ist Abend und dunkel. Ein großer SUV versucht auszuparken. Dabei geht der Fahrer wie ein Berserker vor, er stößt heftig an das vor ihm parkende Auto und beschädigt es. Doch er kümmert sich nicht weiter darum, sondern fährt schnell davon. Dieses Ausparkmanöver bleibt allerdings nicht unbemerkt. Eine Frau, die im Haus nebenan wohnt, hört den Aufprall und kommt zum Fenster. Natürlich weiß sie nicht, wer der brutale Fahrer ist, der einen betrunkenen Eindruck macht. Aber sie sieht, was er angerichtet hat und verständigt die Polizei. Außerdem schreibt sie einen Zettel, den sie hinter die Windschutzscheibe des beschädigten Autos steckt. Dabei entdeckt sie, dass der flüchtende Autofahrer seine Kennzeichentafel verloren hat. Das Autokennzeichen wird zum Schlüssel, um den Fahrer auszuforschen. Noch am gleichen Abend fährt die Polizei zu seiner Wohnung, nimmt seine Aussage auf und macht einen Alkoholtest. Das Kennzeichen eines Fahrzeugs ist so etwas wie eine Maske: Diese Kombination aus Zahlen und Buchstaben verrät uns nicht, wer ein Auto lenkt. Sie erlaubt aber – zum Beispiel im Falle eines Verstoßes gegen die Verkehrsregeln – die Zuordnung zu einem Fahrzeughalter. Und über diesen kann im Bedarfsfall ausgeforscht werden, wer zu einem bestimmten Zeitpunkt am Steuer eines bestimmten Fahrzeugs gesessen ist. Es ist also für uns ganz normal, dass wir im Straßenverkehr weitgehend anonym unterwegs sind und dass Kennzeichen zwar als Schlüssel zur Identifikation von Individuen vorhanden sind, diese aber nur im Bedarfsfall und durch speziell berechtigte Personengruppen verwendet werden dürfen.
Ganz genauso wie beim oben beschriebenen Parkschaden kann es auch im Internet laufen: Wer beobachtet, wie jemand in einem Forum ausrastet und Gewaltphantasien gegen Flüchtlinge postet, kann selbst das Wort ergreifen. Man kann den Opfern zur Seite springen und diese in einem eigenen Kommentar gegen den Angriff verteidigen. Und natürlich kann man den Vorfall melden: beim Seitenbetreiber, bei Meldestellen oder bei der Polizei. Diese haben die Pflicht, das Posting zu löschen oder löschen zu lassen und können mehr Details über den Verursacher herausfinden. Im Falle des oben zitierten Postings zeigte jemand Zivilcourage und informierte die Behörden. Der Nickname, das Pseudonym »Primus von Q.«, war der Schlüssel für die Identifikation des Täters. Wie das Kennzeichen des Autos. Schließlich kam es zu einem Gerichtsprozess und zu einer nicht rechtskräftigen Verurteilung. Masken gehören zu unserem Alltag: Kfz-Kennzeichen, Pseudonyme im Internet, Schutzmasken gegen die Corona-Pandemie. Die Schutzfunktion kann dabei in zwei Richtungen wirken. Wer eine Maske trägt, schützt sich teilweise selbst – zum Beispiel vor einer unnötigen Preisgabe seiner Identität, persönlicher Details oder vor einer Krankheit. Aber auch das Gegenüber ist geschützt: Im Bedarfsfall dient die Maske als Schlüssel, um die Person dahinter auszuforschen. Und im Kontext der Pandemie schützt sie Dritte davor, angesteckt zu werden.
Masken in der physischen Welt
Die Versammlungsfreiheit ist ein Grundrecht, das Demonstrationen ermöglicht und damit wesentlich zur öffentlichen Meinungsbildung in demokratischen Gesellschaften beiträgt. Doch auch dieses Grundrecht gilt nicht unbeschränkt, konservative Regierungen haben in jüngerer Vergangenheit die Verhüllung des Gesichts verboten, um Identitätsfeststellungen zu erleichtern. In Deutschland wurden 1985 und 1989 gesetzliche Bestimmungen eingeführt, die eine Vermummung zu einer Straftat machen. Dies gilt nicht nur für Demonstrationen, sondern auch in Fußballstadien. In Österreich wurde 2002 für öffentliche Versammlungen ein Vermummungsverbot beschlossen. Die Schweiz hat um die Jahrtausendwende in einigen Kantonen Gesetze erlassen, nach denen es untersagt ist, bei Versammlungen oder Kundgebungen das eigene Gesicht unkenntlich zu machen. Vor wenigen Jahren kamen in einigen europäischen Ländern Verschleierungsverbote unterschiedlicher Ausgestaltung hinzu. Die Corona-Pandemie brachte 2020 eine abrupte Kehrtwende in der Frage der Gesichtsverhüllung mit sich: Mit einem Schlag wurden Masken in der Öffentlichkeit allgegenwärtig. Der Mund-Nasen-Schutz wurde weltweit zu einer der zentralen Waffen gegen die Ausbreitung von COVID-19. Zahlreiche Regelungen, die das Tragen einer Bedeckung für Mund und Nase vorschreiben, wurden erlassen und je nach Infektionszahlen verschärft. Die Maske wurde zum emotionalen Zentrum der öffentlichen und politischen Debatte rund um die Gefährlichkeit der Krankheit. Die Maske ist das global gelernte Symbolbild für die Pandemie. Sie trennt die Menschen in Befürworter und Verweigerer: Die einen sehen sie als wesentliches Instrument gegen die Ausbreitung der Krankheit, die anderen als überschießenden Eingriff in die persönliche Freiheit. Masken haben eine lange Geschichte in der Verwendung für religiöse Riten. Totenmasken sollen Unheil und Dämonen abwehren. Durch sie werden auch soziale Beziehungen zwischen Lebenden und Verstorbenen hergestellt. Aus ihnen entwickelte sich im antiken griechischen Theater die Maske für Schauspieler. Bei der Theatermaske geht es nicht um Vergangenheit und Gegenwart, sondern
sie hat den Zweck, die Figur wirken zu lassen und vom Schauspieler zu trennen. Richard Weihe, ein Schweizer Theaterwissenschaftler, begreift die Maske als ein Kommunikationsmittel. Er sieht sie als einen starren, unveränderlichen Gegenstand, der ein Gesicht ersetzt. Diese Gesichtsabdeckung adressiert einen Betrachter, dem etwas signalisiert wird. Mit ihrer Hilfe werden Emotionen und seelische Zustände zur Darstellung gebracht, aus ihrer Unsichtbarkeit und Verborgenheit herausgeholt und an die sichtbare Oberfläche befördert. Corinna Dräger verweist in ihrer Dissertation auf die immer größer werdenden Theater des antiken Griechenlands, in denen Masken die praktische Funktion haben, mit ihrer starren Mimik auch entfernt sitzende Zuschauer zu erreichen. Dabei können sogar unterschiedliche Schauspieler durch Verwendung derselben Maske dieselbe Figur repräsentieren oder ein Schauspieler kann in mehrere Rollen schlüpfen, indem er unterschiedliche Masken trägt. Schauspieler sind auch in der Lage, Figuren unterschiedlichen Alters oder Geschlechts darzustellen. Die Individualität der Schauspieler verschwindet hinter der Maske.
Pseudonyme im Internet
Ein Pseudonym ist eine Bezeichnung für eine Person, die vom Realnamen, wie er beispielsweise in Ausweisen steht, abweicht. Es handelt sich also um einen alternativen Namen und dieser wird auch synonym als Alias, Deckname oder Ersatzname bezeichnet. Häufig wurden und werden Pseudonyme in der physischen Welt für die Publikation von Texten verwendet: Schriftsteller veröffentlichten ihre Werke bis in die Renaissance häufig unter Zuhilfenahme eines solchen Alter Egos und auch heute gibt es noch prominente Beispiele wie Elena Ferrante oder John le Carré. Im Journalismus gibt es eine lange Tradition im Gebrauch von Pseudonymen: Kurt Tucholsky veröffentlichte unter mehreren Pseudonymen, Günter Wallraff schlüpfte für investigative Recherchen in andere Rollen und 2017 veröffentlichte ein Autor unter dem Pseudonym »Johannes Gabriel« einen umstrittenen Kommentar in der FAZ. Im Internet waren Ersatznamen von Anbeginn an gegenwärtig: Viele Menschen wählen ein Pseudonym für Ihre Äußerungen auf Social-Media-Plattformen, in Blogs oder Kommentarspalten von Zeitungen. In der Debatte zu Hass im Netz wird häufig davon ausgegangen, dass einer von zwei Gegenpolen gewählt werden muss: auf der einen Seite strikte Anonymität und auf der anderen Seite umfassende Echtnamenpflicht. Beide Extrempunkte bringen zahlreiche Nachteile mit sich, können zu einer Gefahr für die Meinungsfreiheit werden und können Online-Debatten letztlich zerstören. Zwischen diesen Gegensätzen gibt es jedoch eine dritte Möglichkeit, nämlich die Verwendung von Pseudonymen. Genau genommen handelt es sich dabei nicht um eine weitere Option neben Anonymität und Echtnamenpflicht, sondern um eine ganze Palette von Variationen, die je nach Ausgestaltung näher bei dem einen oder anderen Extrempunkt verortet werden können. Die Anonymität im Netz ist also relativ, je nachdem, wie leicht oder schwer die Zuordnung von digitalen Aktivitäten zu realen Personen erfolgen kann. Pseudonyme in der Online-Welt sind Theatermasken ähnlich: Sie sind auch gleichzeitig Trennung und Verbindung, sie stehen zwischen einer realen Person und ihrem digitalen Ich und verknüpfen diese. Für Menschen im Internet ergibt sich durch die Verwendung einer digitalen Maske die Chance, bestimmte
Aspekte der eigenen Persönlichkeit zu verstärken oder überhaupt neue Eigenschaften anzunehmen und auszutesten. Ähnlich wie im griechischen Theater – viele virtuelle Räume sind ja ebenfalls große Bühnen mit einer hohen Zahl an Zusehern – ist das digitale Ich eine Figur, mit der man sich älter oder jünger machen, ein anderes Geschlecht annehmen und bestimmte Charakterzüge oder Emotionen hervorkehren kann. Eine solche Verwandlung kann sich negativ auswirken, wenn es um bewusste Irreführung anderer geht, kann aber auch positiv eingesetzt werden, wenn sie eine Weiterentwicklung der eigenen Person ermöglicht. Das Internet sollte zu einem gigantischen Maskenball werden, um ein besseres Werkzeug für die freie Meinungsäußerung zu sein. Das meint Carissa Véliz, Professorin an der University of Oxford. Digitale Masken sind kein Mittel zur Täuschung, sondern eine offene, legitime und beständige Verhüllung für reale Identitäten. Wenn gleiche Pseudonyme für einen längeren Zeitraum verwendet werden, wird es möglich zu erkennen, welche Äußerungen vom gleichen Menschen stammen, ohne dass ein Bezug zur realen Person gegeben sein muss. Pseudonyme haben dann die Funktion von digitalen Masken, die zwar die wahre Identität ihrer Träger verbergen, aber gleichzeitig als zentrales, verlässliches Erkennungszeichen für deren Alter Egos dienen. Carissa Véliz zählt drei Varianten von Pseudonymen auf. Die erste ist ein öffentliches Pseudonym, es bietet den geringsten Schutz an Anonymität. Beispielsweise durch frei verfügbare Verzeichnisse kann jeder die Beziehung zur realen Person herstellen. Die zweite Option sind unverknüpfte Pseudonyme, die den größten Identitätsschutz bieten: Niemand kann den Konnex zwischen Ersatzname und Realname herstellen, mit Ausnahme der Person, die das Pseudonym gewählt hat. Nicht-öffentliche Pseudonyme stellen die dritte Variante dar. Hier können nur bestimmte, speziell dazu berechtigte Personengruppen eine Zuordnung vom Alias zur realen Person vornehmen, für die breite Öffentlichkeit bleibt dieser Zusammenhang verborgen. Solche speziell berechtigte Personengruppen sind unter anderem staatliche Institutionen wie Polizei oder Gerichte sowie Plattformbetreiber. Eine derart ausgestaltete Form der Pseudonymität befindet sich eher in der Mitte zwischen Anonymität und Echtnamen. Beispiele für nichtöffentliche Pseudonyme sind Nicknamen, die in vielen Kommentarspalten von Onlinemedien verwendet werden oder Twitter-Namen. Im Zuge der Registrierung hinterlegt man persönliche Daten beim jeweiligen Anbieter, die
die Identifikation der realen Person möglich machen, jedoch nicht öffentlich bekannt sind. Wenn Pseudonyme in Online-Debatten verwendet werden, stellt sich die Frage, wie sich diese auf die Qualität der Diskussion auswirken: Unter welchen Bedingungen kommt es vermehrt zu übergriffigen Attacken oder persönlichen Erzählungen? Was braucht es, damit Menschen im virtuellen Raum verstärkt auf rationale Argumentation zurückgreifen? Den Zusammenhang zwischen Pseudonymität und Diskussionsniveau von Kommentaren haben amerikanische und deutsche Wissenschaftler um Alfred Moore 2020 anhand des Beispiels der Huffington Post untersucht. Die Huffington Post (seit 2017 umbenannt in Huffpost) ist eine Online-Zeitung USamerikanischen Ursprungs mit Ausgaben in verschiedenen Sprachen. Dieses Internetmedium setzt stark auf die Einbeziehung externer und unbezahlter Autoren, von Bloggern bis hin zur Möglichkeit, dass Nutzer Postings, also Kommentare zu Artikeln, hinterlassen. Die Huffington Post änderte die Regeln für das Posten in drei aufeinanderfolgenden zeitlichen Phasen und bewegte sich von Fast-Anonymität bis zu Fast-Echtnamen: Die Poster der Huffington Post traten zunächst mit unverknüpften Pseudonymen auf. Danach musste man sich mit Facebook-Daten registrieren, hatte also nicht-öffentliche Pseudonyme. Schließlich wurde Facebook gänzlich als Kommentar-System übernommen und damit auf öffentliche Pseudonymität umgestellt. Interessant ist, dass die Forscher diese unterschiedlichen Varianten der Pseudonymität nicht in Hinblick auf den Schaden, der entstehen kann, sondern auf den Nutzen, der erzielt wurde, untersucht haben. Sie rückten die Qualität von Kommentaren ins Zentrum der Betrachtung. Je mehr Argumente in einem Posting vorhanden sind und je mehr Begründungen und Quellenangaben, desto höher wird das Diskussionsniveau eingeschätzt. Das zentrale Ergebnis der Studie ist, dass das Diskussionsniveau in der mittleren Phase am höchsten war: Als nicht-öffentliche Pseudonyme verwendet wurden, erreichten durchschnittliche Kommentare die höchste Qualität. Ein mittleres Maß an Pseudonymität führte also zu bessern Postings als die Annäherung an völlige Anonymität zuvor und als die Annäherung an Echtnamen danach.
Woran könnte es liegen, dass rationale Argumentation in Online-Diskussionen mit einem mittleren Maß an Pseudonymität am häufigsten anzutreffen ist? Die Autoren der Studie vermuten, dass es innerhalb eines virtuellen Diskussionsraums – also zum Beispiel innerhalb eines Forums einer Onlinezeitung – eine beständige Repräsentation von Individuen in Form von dauerhaften Pseudonymen geben muss. Nur unter dieser Voraussetzung fühlen sich Teilnehmer an einer Diskussion einer kommunikativen Verantwortung verpflichtet. Erst wenn ein solches Verantwortungsgefühl einsetzt, werden Argumente und Begründungen häufiger verwendet, um eigene Standpunkte zu verteidigen. Schlägt das Pendel aber noch weiter in Richtung Echtnamen aus, tendieren Menschen dazu, sich eher mit Gleichgesinnten wie Familie, Freunden und Kollegen auszutauschen. In einer solchen Umgebung herrschen ähnliche Meinungen vor und Positionen müssen nicht mehr verteidigt werden. Daher nimmt das argumentative Niveau wieder ab. Die Studie der Wissenschaftler um Alfred Moore ist ein deutlicher Hinweis darauf, dass die Verwendung von Pseudonymen im Netz wesentliche Vorteile mit sich bringt: Rationale Argumente und Begründungen kommen unter dieser Bedingung häufiger zum Vorschein als in völlig anonymen Szenarien oder als bei der verpflichtenden Verwendung von Echtnamen. Pseudonyme haben also einen positiven Effekt auf die Sachlichkeit von Online-Diskursen und vermeiden gleichzeitig viele Nachteile, welche die Gegenpole strikte Anonymität und Echtnamenpflicht mit sich bringen.
Warum wir digitale Masken brauchen
Wer eine Maske trägt, fühlt sich beschützt. Das gilt in der physischen Welt angesichts von Krankheit und Pandemie oder bei Gefahr von Repression oder Überwachung. Das gilt auch in der Online-Welt, wenn man seine eigene Meinung zum Ausdruck bringen möchte. Man geht ein Risiko ein, wenn man sich zu sensiblen Themen äußert, wenn man persönliche Erfahrungen oder Empfindungen zur Sprache bringt. Ausreichender Schutz der eigenen Identität ist eine Voraussetzung dafür, dass man sich entsprechend öffnen kann. Mit digitalen Masken in Form von Pseudonymen schirmt man sich selbst dagegen ab, mit Schmutz beworfen zu werden. Ein Shitstorm, also ein unkontrollierbarer Sturm der Entrüstung, ist eine sehr belastende Erfahrung. Er geht häufig mit persönlichen Attacken bis hin zu Beschimpfungen und Drohungen einher. Ein Pseudonym ist ein Schutzschild für solche Extremsituationen. Die Verwendung eines Ersatznamen mindert überdies die Gefahr, dass ein Shitstorm von der virtuellen in die physische Welt übertritt. Auch kleinere Formen von Angriffen auf die eigene Person lassen sich durch die Verwendung digitaler Masken leichter kontrollieren oder vermeiden, zum Beispiel abfällige Bemerkungen über das Aussehen oder Verletzungen der Privatsphäre. Ein Pseudonym ist also ein Bollwerk gegen Beschmutzungen unterschiedlicher Art und Intensität. Es ist auch Voraussetzung dafür, dass Personen online unpopuläre, kritische oder sensible Äußerungen wagen. Digitale Masken sind damit eine zwingende Voraussetzung für die freie Meinungsäußerung in den meisten digitalen Räumen. Als Gegenüber von Maskenträgern, ebenfalls online wie offline, sind wir oft verunsichert: Wir können keine Mimik wahrnehmen, uns fehlt Kontextinformation zur Person, die es leichter macht, die Aussagen anderer einzuordnen. Das ist jedoch nur die eine Seite der Medaille. Denn digitale Masken wirken ähnlich wie Theatermasken: Sie verbergen etwas, nämlich die Identität des Maskenträgers. Doch gleichzeitig zeigen sie damit etwas anderes intensiver: Pseudonyme lassen Worte stärker zur Geltung kommen, weil diese für sich stehen. Der fehlende Kontext zur realen Person hat den wesentlichen Vorteil, dass falsche Interpretationen und Schubladisierungen entfallen. Online-
Gespräche sind dadurch vielleicht anstrengender und erfordern ein Lesen zwischen den Zeilen, um auch Emotionen besser wahrnehmen zu können. Das ist eine Sache der Medienkompetenz, die wir uns für die virtuelle Welt aneignen müssen. Damit reduzieren wir unsere eigene Unsicherheit und können auch als Gegenüber von digitalen Masken profitieren.
Digitale Masken sind eine zentrale Voraussetzung dafür, dass OnlineDiskussionen mit Mehrwert stattfinden. Pseudonyme schützen davor, dass nur sozial Erwünschtes wiedergegeben wird, sie ermöglichen die Diskussion über Tabuthemen und fördern die Auseinandersetzung mit einer großen Palette von unterschiedlichen Positionen in gesellschaftlich relevanten Fragestellungen. Die Studie zur Huffington Post hat gezeigt, dass das argumentative Niveau von Online-Debatten dann am höchsten ist, wenn Pseudonyme verwendet werden, die einerseits für ein beständiges digitales Ich stehen, andererseits keinen öffentlichen Bezug zur realen Person herstellen. Mit einer solchen Art von digitalen Masken wird kommunikative Verantwortung übernommen, was sich in einem Mehr an Argumenten und Begründungen niederschlägt. Darüber hinaus fördern Pseudonyme das Aufeinandertreffen von Personen mit unterschiedlichen Meinungen, man bleibt nicht bloß in seinem eigenen sozialen Umfeld, in dem homogene Ansichten vorherrschen. Digitale Masken wirken also gegen das Entstehen von digitalen Echokammern und haben damit einen großen Wert für gesellschaftliche Diskurse.
5. Das digitale Ich
»Oh là là !« ist sehr bekannt im STANDARD-Forum und das, obwohl sie erst vor fünf Jahren von der Leserin zur Posterin wurde. Sie ist die »Ticker-Mama«, hat immer ein offenes Ohr für die Community und einen guten Draht zur Redaktion. Einiges hat sie nach und nach über sich selbst erzählt: »Oh là là !« heißt so, weil sie frankophil ist. Sie hat Französisch studiert und arbeitet als Lektorin. Für sie ist das Forum fast so etwas wie ein Kaffeehaus, ein Ort, an dem man immer andere trifft und sich über das Weltgeschehen und das eigene Befinden austauscht. Und genau wie im Kaffeehaus ist es hier gar nicht notwendig, dass jeder von jedem den echten Namen kennt, auch »Oh là là !« zieht es vor, anonym zu bleiben. Das digitale Ich ist ein zentraler Ansatzpunkt für Schutz im Netz und gegen Schmutz im Netz. Wenn es entsprechend gut angelegt ist, kann es die jeweilige Person davor bewahren, Opfer von destruktivem und asozialem Verhalten anderer zu werden sowie selbst solche Handlungen zu setzen. Und noch viel mehr: Im Idealfall wird es zur Basis für eine Online-Diskussionskultur, in der sich einzelne öffnen können, in der auf hohem Niveau argumentiert wird und an der viele Spaß haben. Es liegt in der Verantwortung aller, die sich online austauschen, ihr eigenes digitales Ich zu formen. Natürlich braucht es Voraussetzungen auf der jeweiligen Kommunikationsplattform dafür. Diese müssen aber auch genützt werden. Die Darstellung der eigenen Identität kann einem niemand abnehmen, dafür ist man selbst zuständig. Es ist gut investierte Zeit, die Optionen zu prüfen und das Selbst online so zu präsentieren, dass man sich selber schützt und gleichzeitig so viel Persönlichkeit zeigt, dass man von allen anderen als vollwertiger Mensch wahrgenommen wird. »Oh là là !« hat genau das getan: Sie hat ihr digitales Ich über die Zeit entwickelt, immer wieder etwas über sich erzählt. Dadurch sind auch immer mehr Anknüpfungspunkte für andere Mitglieder der Community entstanden. Sie wird als eine Person mit konkreten Eigenschaften und Emotionen wahrgenommen. Eine Vielzahl von Facetten, die sie selbst zeigt, lässt erkennen, dass hinter der Online-Figur ein Mensch aus Fleisch und Blut steckt.
Bislang wird das digitale Ich in seiner Gesamtheit viel zu wenig beachtet. Die Debatte rund um Hass im Netz fokussiert sich vor allem auf die Fragen Anonymität versus Echtnamen, Nachverfolgbarkeit von Straftaten und Sanktionen für Täter. Das ist völlig unzureichend. Denn hier wird außer Acht gelassen, dass nicht hinter jedem Nicknamen ein Troll steckt, dass das Abbild von Menschen im Netz viel komplexer sein kann und dass in dessen Ausgestaltung eine große Chance besteht, um von toxischer zu gutartiger Enthemmung zu kommen.
Digitaler Körper
Das digitale Ich ist eine umfangreiche virtuelle Online-Repräsentation für Menschen und besteht aus zwei wesentlichen Elementen: aus einem Erkennungszeichen für die jeweilige Person sowie aus Kontextinformation, die einen Menschen in mehreren Dimensionen erfassbar macht. Als Erkennungszeichen fungiert ein Name und dafür ist ein nicht-öffentliches Pseudonym (s. Kapitel 4) gut geeignet: Pseudonyme haben die Funktion von digitalen Masken, die zwar die wahre Identität ihrer Träger verbergen, aber gleichzeitig als zentrale, verlässliche Symbole für deren Alter Egos in virtuellen Räumen dienen. Somit wird es möglich zu erkennen, welche Äußerungen vom gleichen Menschen stammen, ohne dass ein Bezug zur realen Person gegeben sein muss. Das Pseudonym ist der Kern des digitalen Ichs. Rundherum muss es aber auch Kontextinformation beziehungsweise weitere Details zur Person geben. Daraus formt sich ein digitaler Körper, der von anderen wahrgenommen werden kann. Bei einer physischen Begegnung spielen äußere Erscheinung, Gestik, Mimik, Stimme, Geruch und andere Eindrücke wie zum Beispiel Handschlag oder Umarmung eine Rolle. Diese werden unter Zuhilfenahme aller Sinne aufgenommen. Online sind Sinneseindrücke limitiert: Im Wesentlichen sind wir auf das Sehen angewiesen, in Ausnahmefällen kommt auch das Hören hinzu. Auf Wahrnehmungen über das Riechen, Schmecken und Tasten muss hingegen verzichtet werden. Das heißt, das digitale Ich muss in der Regel ausschließlich über den Sehsinn erschlossen werden. Der visuellen Wahrnehmung müssen aussagekräftige Signale zur Verfügung stehen, damit das Fehlen der anderen vier Sinne möglichst ausgeglichen werden kann. Ein Pseudonym alleine reicht da nicht aus. Daher ist es sinnvoll, Profile einzurichten und zu verwenden, die mehr Details zur Person verraten und den digitalen Körper darstellen. Das digitale Ich besteht also aus einem Pseudonym sowie einem Profil und begleitet alle Äußerungen, die ein Mensch in virtuellen Räumen tätigt. Das Profil, der digitale Körper eines Menschen, kann aus unterschiedlichen
Detailinformationen bestehen: Zum Beispiel ist es auf vielen Kommunikationsplattformen üblich, dass es freiwillige oder verpflichtende Angaben zur Person gibt. Das reicht von soziodemographischen Daten wie Geschlecht, Alter oder Bildung über Wohnort oder Beziehungsstatus bis hin zu detaillierten Informationen zu Hobbys, Expertise und beruflicher Tätigkeit. In manchen Fällen kann man auch den realen Namen und Links zu Präsenzen auf anderen Webseiten veröffentlichen. Zusätzlich wird das Profil mitunter durch Bilder oder Videos ergänzt. Eine wichtige Rolle spielen auch die Aktivitäten der Person auf der jeweiligen Plattform. Das umfasst zum Beispiel statistische Daten oder Listen von veröffentlichten Beiträgen. Aus all diesen Informationen lässt sich je nach Detaillierungsgrad ein umfassendes Bild über den Menschen hinter dem digitalen Ich erschließen. Es gibt kein ideales digitales Ich, das überall gleich gut t. Welche Details neben einem Pseudonym vorhanden sind, ist stark von der Art der Kommunikationsplattform abhängig: So sind die berufliche Erfahrung und auch der volle Name bei Berufsnetzwerken wie LinkedIn oder Xing naheliegend, für Dating-Dienste wie Tinder oder Parship sind hingegen eher Geschlecht, Alter oder Wohnort end. In Foren-Communitys von Medien stehen meist die bisher verfassten Kommentare im Vordergrund. Wichtig ist, dass Plattformbetreiber die Optionen prüfen und jene bereitstellen, die für die Zwecke des jeweiligen Dienstes relevant sind. Außerdem ist es erforderlich, zu überlegen, welche dieser Angaben verpflichtend und welche freiwillig gestaltet werden. Damit überträgt der Betreiber entsprechend viel oder wenig Verantwortung an die und schafft mehr oder weniger Spielraum für die Komplexität des Profils und für einen selbst gewählten Grad an Anonymität.
Beständigkeit
Wenn Anbieter eines Kommunikationsdienstes die Rahmenbedingungen für Profile festlegen, sollten sie dabei drei wesentliche zugrundeliegende Dimensionen betrachten: Alfred Moore definiert diese als Beständigkeit, Rückverfolgbarkeit und Vernetzung. Bei der Beständigkeit geht es um die Frage, wie leicht oder schwer es ist, auf der gleichen Plattform in ein neues digitales Ich zu schlüpfen. Je zeitaufwändiger es ist, Profile anzulegen und je mehr Wert in einem schon bestehenden Profil gesehen wird, desto eher werden diese für einen längeren Zeitraum beibehalten. Wenn sie jedoch eher Vorteile darin erkennen, neue Identitäten anzunehmen, dann sind Profile kurzlebiger. Mit Rückverfolgbarkeit ist die Verbindung zwischen digitalem Ich und realer Person gemeint. Es geht also um die Frage, wie sehr die digitale Maske den dahinterstehenden Menschen verdeckt oder umgekehrt identifizierbar macht. Diese Dimension wird nicht nur davon bestimmt, ob man einen Echtnamen oder ein Pseudonym verwendet, sondern auch davon, mit welchem Aufwand aus verschiedenen Detailinformationen eine Identität entschlüsselt werden kann. Bei der dritten Dimension, der Vernetzung, geht es um Verbindungen innerhalb der Online-Welt. Hier geht es um die Frage, wie leicht unterschiedliche Kommunikationsaktivitäten einer Person auf verschiedenen Websites, also in verschiedenen sozialen Umgebungen, in Zusammenhang gebracht werden können. Solche Verbindungen können beispielsweise durch Verlinkungen oder über Verwendung des gleichen Pseudonyms entstehen. Die Studie von Moore und anderen Wissenschaftlern zur Huffington Post (s. Kapitel 4) hat ergeben, dass die Beständigkeit von Profilen positive Auswirkungen hat: Wenn Menschen dasselbe digitale Ich über einen längeren Zeitraum benutzen, fühlen sie sich in Diskussionen einer kommunikativen Verantwortung verpflichtet. Mit einem solchen Verantwortungsgefühl steigt die Qualität von Kommentaren. Dann werden Argumente und Begründungen häufiger verwendet, um eigene Standpunkte zu verteidigen. Darüber hinaus ist auch davon auszugehen, dass toxische Enthemmung unter solchen Bedingungen weniger häufig zutage tritt, denn mit möglichen
Konsequenzen müssten fortan leben. In der gleichen Studie hat sich auch gezeigt, dass eine höhere Vernetzung zwischen mehreren sozialen Umgebungen zu einer abnehmenden Qualität von Kommentaren führt. In solchen Situationen vermuten die Forscher, dass sich Menschen eher mit Gleichgesinnten austauschen und ähnliche Meinungen eher bestärken als in Frage stellen. Ein geringes Maß an Vernetzung in andere virtuelle Räume und eine limitierte Rückverfolgbarkeit spielen auch hinsichtlich der Schutzfunktion eine positive Rolle: Wenn es nicht einfach möglich ist, Menschen an andere Online-Orte oder in die physische Welt zu verfolgen oder für negative Konsequenzen in anderen sozialen Sphären zu sorgen, entzieht das Stalking, Mobbing und Bullying die Grundlage. Menschen, die sich nicht davor fürchten müssen, Opfer solchen Verhaltens zu werden, können freier kommunizieren. Digitale Ichs, die sich durch eine hohe Beständigkeit, aber wenig Vernetzung in andere soziale Kontexte auszeichnen, sind also für Kommunikationsplattformen wie zum Beispiel Medien-Communitys empfehlenswert. Zusätzlich sollte auf nicht-öffentliche Pseudonyme gesetzt werden. Damit wird die Rückverfolgbarkeit durch die breite Öffentlichkeit eingeschränkt, aber bei besonders destruktivem Verhalten durch dazu berechtigte Personengruppen ermöglicht. Nach diesen Kriterien ausgestaltete digitale Ichs sind die beste Voraussetzung dafür, dass toxische Enthemmung gemindert und gutartige Enthemmung gefördert wird. Gleichzeitig wird dadurch für möglichst viel Schutz gesorgt. Hohe Beständigkeit, limitierte Rückverfolgbarkeit und geringe Vernetzung können von Plattformbetreibern durch entsprechende Einrichtung der Infrastruktur für das Identitäts-Management begünstigt werden. Wie digitale Ichs tatsächlich verwendet werden, liegt jedoch auch in der Hand der .
Einzigartigkeit
Das koreanisch-amerikanische Forscher-Team Cho und Kwon hat 2015 untersucht, welche Rolle die Freiwilligkeit bei der Angabe von persönlichen Details spielt. Für diese Studie wurden 26 Online-Medien mit Kommentarfunktion in Südkorea verglichen. Dabei wurde festgestellt, dass ein gesetzlicher Zwang zur Offenlegung der Identität von n zu mehr beleidigenden Kommentaren geführt hat. Wurden jedoch freiwillig Details zur eigenen Person zugänglich gemacht, sank der Anteil der verletzenden Postings. Diese Ergebnisse sprechen dafür, dass Plattformbetreiber Möglichkeiten schaffen, dass Teilnehmer ihr digitales Ich nach eigenem Ermessen konfigurieren können. Das heißt, die Angabe von Detailinformationen sollte weitgehend optional erfolgen. Diesen Handlungsspielraum müssen wir alle aber auch nützen, wenn wir an Kommunikation in virtuellen Räumen teilnehmen. Wir müssen etwas über uns selbst erzählen, uns aus der Deckung wagen, damit andere uns gut wahrnehmen können. Prominente Personen verwenden häufig ihren Echtnamen und das reicht aus, denn sie sind der Öffentlichkeit bereits bekannt. Für gewöhnliche Teilnehmer an Online-Diskussionen ist es sinnvoll, das eigene Profil auf der jeweiligen Website mit Informationen zur eigenen Person zu versehen. Dabei ist es aus Schutzgründen oft ratsam, keine Verbindungen mit anderen sozialen Sphären herzustellen. Trotzdem sollte man danach trachten, als einzigartiger Mensch für andere sichtbar zu sein. Einzigartig, das ist »Oh là là !«, die Posterin aus dem STANDARD-Forum, gewiss. Sie ist gerne dort unterwegs, wo die Community gemeinsam bestimmte Ereignisse verfolgt und mit Leidenschaft dabei ist: zum Beispiel in den Livetickern zum Wiener Opernball oder zum Eurovision Song Contest, bei Fußballspielen oder im legendären Tennis-Forum. Dort sind alle willkommen und lassen sich von der Stimmung anstecken, selbst wenn sie sich eigentlich bislang gar nicht so sehr für diesen Sport interessiert haben. Wichtig ist – und das gilt sowohl für Highlights wie ein Champions-League-Finale als auch für tragische Ereignisse wie Terroranschläge –, dass Emotion, ob Freude, Leid, Schrecken oder Siegestaumel, gemeinsam verarbeitet wird. Das geht online und
manchmal auch bei einem Treffen in einem echten Kaffeehaus oder beim gemeinsamen Abendessen. Bei der Ausgestaltung von digitalen Ichs für Kommunikationsdienste sollte auch auf Verbindungen zwischen den n innerhalb eines virtuellen Raums Wert gelegt werden. Durch die Online-Gespräche entstehen – vor allem dann, wenn Profile Beständigkeit haben – Beziehungen zwischen den Menschen. Dies kann beispielsweise durch Einrichtung einer Follow-Funktion verstärkt werden. Das Gegenteil in Form einer Block- oder Ignore-Funktion kann ebenfalls sinnvoll sein, um n ein Werkzeug in die Hand zu geben, sich selbst vor destruktiven Beziehungen zu schützen. Um einerseits das Aktivwerden neuer Teilnehmer an einer Kommunikationsplattform zu fördern, andererseits für Beständigkeit von digitalen Ichs zu sorgen, sollte die Eintrittshürde niedrig sein. Das heißt, nach Angabe weniger verpflichtender Details, sollte es bereits möglich sein, dass man sich an Diskussionen beteiligt. Gleichzeitig sollten laufend Anreize geboten werden, das digitale Ich selbst facettenreicher zu gestalten. Das heißt, bei der Registrierung könnten zum Beispiel eine E-Mail-Adresse, die nicht öffentlich aufscheint, und ein Pseudonym, die einzigen Pflichtangaben sein. Der digitale Körper wächst dann über die Zeit, einerseits durch eigene Kommentare, andererseits durch zusätzliche Angaben zur eigenen Person im Profil, zu denen man angeregt wird. Motivation für die freiwillige Erweiterung des digitalen Ichs kann durch das Freischalten von zusätzlichen Funktionen und durch Auszeichnungen (»Mitglied seit 3 Jahren«) geschaffen werden. Ziel ist, dass Beziehungen entstehen und das Beibehalten des digitalen Ichs als vorteilhaft gesehen wird. Wenn es gelingt, solche digitalen Ichs aufzubauen, wird damit speziell zwei Faktoren der Online-Enthemmung entgegengewirkt: Erstens werden damit die negativen Konsequenzen der Anonymität gemindert. Man ist zwar weitgehend anonym, weil man ein Pseudonym verwendet, fühlt sich aber nicht so sehr von der eigenen Identität losgelöst. Denn mit dem Profil ist eine starke Repräsentation des Selbst vorhanden. Zweitens sorgt auch die detailliertere Wahrnehmung des Gegenübers dafür, dass man dieses nicht so leicht in sich selbst projiziert und nicht als Stimme im eigenen Kopf wahrnimmt.
Das Scheitern gesetzlicher Regelungen
Der Gesetzgeber versucht zunehmend, das digitale Ich zu regeln. In Südkorea gab es von 2007 bis 2012 die Pflicht, sich vor dem Posten von OnlineKommentaren zu identifizieren. Dieses Gesetz wurde schließlich wegen Verletzung der Meinungsfreiheit von einem Höchstgericht gekippt. In Österreich gab es 2019 einen Regierungsentwurf für ein ähnliches »digitales Vermummungsverbot«, das ein Hinterlegen von Echtname und Adresse bei der Kommunikationsplattform erzwungen hätte. Das Vorhaben wurde zum Glück aufgrund des abrupten Endes der ÖVP-FPÖ-Koalition nicht umgesetzt. Solche staatlichen Regulierungsversuche sind aus zwei Gründen abzulehnen: Zum einen gibt es keinen Beleg dafür, dass sie tatsächlich gegen Hass im Netz wirken und zum anderen schränken sie das Grundrecht der Meinungsfreiheit über Gebühr ein. Daher müssen Plattformbetreiber und die Verantwortung für die Ausgestaltung von digitalen Ichs übernehmen. Anbieter von digitalen Kommunikationsdiensten sind für die infrastrukturelle Basis zuständig. Es liegt in ihrem eigenen Interesse, dass Profile über hohe Beständigkeit, limitierte Rückverfolgbarkeit und geringe Vernetzung in andere virtuelle Räume verfügen. Die Teilnehmer an Online-Diskussionen sollten die Möglichkeiten für eine individuelle Ausgestaltung ihres digitalen Ichs nützen. Mit einer enden Darstellung ihres Selbst in mehreren Dimensionen laufen sie weniger Gefahr, zu Tätern oder Opfern in destruktiven Interaktionen zu werden. Ein facettenreiches digitales Ich sorgt dafür, dass der Austausch mit anderen Menschen im virtuellen Raum Spaß macht und inhaltlich bereichernd ist.
6. Der virtuelle Raum
Im Kleid unseres digitalen Ichs treffen wir im Internet auf eine Vielzahl anderer digitaler Ichs. Für unsere Begegnungen und für die Kommunikation miteinander benötigen wir virtuelle Räume, in denen wir uns bewegen. Diese Räume sind zum Beispiel virtuelle Kaffeehä, virtuelle Kantinen, virtuelle Bierzelte, virtuelle Bars, virtuelle Kreativräume, virtuelle Besprechungszimmer, virtuelle Fußballstadien und virtuelle Messehallen. Wie in physischen Räumen gibt es unzählige Möglichkeiten, diese Umgebungen zu gestalten. In manchen fühlen wir uns wohl, in anderen gestresst und gereizt, manche würden wir im Leben nie betreten und andere werden zu unserem zweiten Wohnzimmer. Wie auch bei physischen Räumen stellt sich zunächst die Frage, welchen Zweck ein bestimmter virtueller Raum hat: Dient er dazu, neue Leute kennenzulernen? Soll man sich an diesem Ort im Freundeskreis gut unterhalten und Spaß haben? Oder handelt es sich um einen Debattierklub für die großen Themen unserer Zeit? Je nach Zielsetzung muss die virtuelle Infrastruktur end ausgestaltet werden. In virtuellen Diskursräumen steht die Debatte im Zentrum. Typische Beispiele dafür sind die Kommentarspalten von Online-Nachrichtenmedien, die dazu dienen, das Thema des jeweiligen Artikels zu diskutieren. Das heißt, für Interessierte wird ein Raum bereitgestellt, in dem Standpunkte zum Inhalt des Artikels ausgetauscht werden können. Das können Argumente, ergänzende Informationen, eigene Erfahrungen, subjektive Einschätzungen und auch Gefühle sein. Die jeweiligen Äußerungen können sich auf den Artikel selbst oder auf eine Wortmeldung eines anderen s beziehen. Wie kann nun so ein virtueller Raum für Diskurse gestaltet werden? Welche Infrastruktur ist dafür geeignet, gute Debatten zu ermöglichen? Zu diesem Zweck lohnt sich ein Blick auf die Hierarchie der Meinungsverschiedenheiten von Paul Graham. Der britische Programmierer und Internet-Experte hat 2008 ein Modell entwickelt, das unterschiedliche Qualitätsniveaus von Argumenten in Online-Diskussionen festhält. Diese Klassifikation in Pyramidendarstellung veranschaulicht, dass es einige
Abstufungen zwischen plumpen Anfeindungen und sachlichen, ausgefeilten Gegenargumenten gibt: Auf den untersten Ebenen befinden sich Beleidigungen und Attacken gegen eine Person oder die Kritik am Tonfall des Gesprächspartners. In der mittleren Sphäre befinden sich Widerspruch in der Sache sowie Gegenargumente. Auf höchster Ebene greift man zu Argumenten, die inhaltliche Schwächen des Gegenübers aufzeigen und begründet diese oder man widerlegt ein zentrales Argument mit einem überzeugenden Beweis.
Wenn man als kritischer Leser Debattenbeiträge anderer in dieser Hierarchie der Meinungsverschiedenheiten verorten kann, fällt es leichter, Übergriffe zu identifizieren. Außerdem kann die Klassifizierung dazu anspornen, selbst Argumente einer höheren Stufe in eine Diskussion einzubringen. Graham geht davon aus, dass ein Blick durch die Brille seines Modells dazu führen kann, dass Diskurse qualitativ hochwertiger werden. Gleichzeitig können Diskutierende auch erkennen, dass persönliche Attacken ihrem Standpunkt eher schaden. Oft sind Gemeinheiten gar nicht beabsichtigt, führen aber zu einer Schwächung der eigenen Argumentation. Wenn wir uns dessen bewusstwerden und uns auf eine der höheren Ebenen bewegen, steigert das die eigene Freude am Diskurs.
Beispielwirkung
Auch bei der Ausgestaltung virtueller Diskursräume lohnt sich ein Blick auf die Hierarchien der Meinungsverschiedenheiten. Denn die technische Infrastruktur kann uns dabei unterstützen, dass uns als Lesenden vor allem Beiträge auffallen, die einer der höheren Ebenen zugeordnet werden können. Alles, was unter Tonfallbezug, Ad Hominem oder Beleidigung fällt, sollte möglichst aus dem Blickfeld gerückt werden. Wenn vor allem Widerlegungen (des zentralen Punktes), Gegenargumente und Widerspruch ins Zentrum der Aufmerksamkeit gelangen, ist es auch wahrscheinlich, dass im weiteren Diskussionsverlauf Beiträge auf diesem Niveau eingebracht werden. Die Beispielwirkung von bereits vorhandenen Wortmeldungen sollte nicht unterschätzt werden. Social Media sind oftmals schlechte Vorbilder. Facebook, Twitter und Co sind Diskussionsräume, in denen der Empörungsreflex besonders leicht ausgelöst wird. Wer persönlich wird, Attacken unter der Gürtellinie reitet und die Saat eines Shitstorms ausbringt, kann damit rechnen, dass seine Beiträge oben gereiht werden und von vielen anderen Menschen wahrgenommen werden. In einem solchen Diskursraum setzt sich toxische Enthemmung durch, weil sie mehr Aufmerksamkeit bekommt. Die Social-Media-Dienste haben dadurch einen Vorteil, weil sie ihre eigene Reichweite steigern und diese letztendlich durch Werbeverkauf in barer Münze abgegolten bekommen. Diese Empörungsmaschinen sind ein wirtschaftlich erfolgreiches Modell, das aber den Diskursraum selbst vergiftet. Solche Fehler dürfen Plattformen, denen tatsächlich etwas an der Diskussion liegt, nicht machen. Das heißt, virtuelle Diskursräume sollten jedenfalls so eingerichtet werden, dass bedachte, sachliche Debattenbeiträge ins Scheinwerferlicht der Aufmerksamkeit gestellt werden. Konstruktives sollte immer als erstes sichtbar werden. Zum Beispiel in einem Forum: Eine Reihung rein nach zeitlicher Chronologie oder nach anderen Kriterien (wie zum Beispiel bei Social Media: besonders polarisierende Postings vorne) scheiden damit aus. Das Voranstellen von sachlichen Argumenten kann einerseits durch händische Reihung geschehen – zum Beispiel durch Moderation oder durch andere Diskursteilnehmer. Andererseits kann man dafür Algorithmen einsetzen, die einen konstruktiven
Diskussionsstil belohnen. Einzelne Beiträge zu einer Debatte werden häufig auch an anderer Stelle dazu verwendet, weitere Leute in den jeweiligen Diskursraum zu holen. Sie werden zum Beispiel an einem prominenten Platz der jeweiligen Website dargestellt, per Newsletter versandt, als Pushnachricht verschickt oder auf Social Media als Teaser eingesetzt. Auch hier gilt: Was ins Scheinwerferlicht gerückt wird, setzt ein Beispiel und regt zur Nachahmung an. Bei der Auswahl dieser Postings lohnt sich daher auch ein Blick auf die Pyramide von Graham: Ein Beitrag kann ruhig pointiert sein, aber er sollte sich auf einer der höher gelegenen Ebenen befinden. Natürlich können Plattformbetreiber nicht bloß bei der Sichtbarkeit einzelner Debattenbeiträge ansetzen. Zusätzlich können sie dafür sorgen, dass gesamte Diskussionen, die einem höheren Niveau entsprechen, mehr Aufmerksamkeit bekommen. Zum Beispiel können diese prominent auf der Startseite positioniert werden. Und auch bei den einzelnen n lässt sich das gleiche Prinzip anwenden: Jene, die in der Regel sachlich argumentieren, können besonders ausgezeichnet werden, zum Beispiel durch Hervorhebung ihres Pseudonyms, sodass ihre Beiträge eher ins Auge stechen. Generell ist es sinnvoll, das digitale Ich in virtuellen Räumen stärker zur Geltung kommen zu lassen. Denn dadurch kann die Unsichtbarkeit – und damit ein Faktor der toxischen Online-Enthemmung – bekämpft werden. Wenn Seitenbetreiber selbst auch mehr mit Moderation präsent sind (s. Kapitel 7), wird zusätzlich der Autoritätslosigkeit entgegengewirkt. Und ein dritter Faktor der Online-Enthemmung kann mit entsprechender Ausgestaltung virtueller Räume abgeschwächt werden: Je mehr sich Online-Orte wie ein Teil der realen Welt anfühlen und je stärker auch betont wird, dass es Regeln des Zusammenlebens gibt, desto eher kann eine toxische Eskalation vermieden werden.
Handschellen oder Gemeinschaftsgefühl?
In einer Netiquette lassen sich verbindliche Richtlinien für den kommunikativen Austausch in virtuellen Räumen festschreiben. Besonders beim jeweiligen Eingabefeld, in dem einen eigenen Kommentar verfassen, lohnt sich ein Hinweis darauf. Häufig werden an dieser Stelle die wichtigsten Regeln in einem kurzen Text zusammengefasst und eine ausführlichere Version verlinkt. Augenmerk sollte auch darauf gelegt werden, auf welche Weise die Einhaltung der Richtlinien eingefordert wird. 2020 hat ein Forscher-Team um Ben Wagner von der Wirtschaftsuniversität Wien mit dem STANDARD ein Experiment durchgeführt, in dem vor dem Verfassen eines Kommentars ein kurzes Video zur Netiquette verpflichtend ansehen mussten. Es gab zwei Versionen dieses Videos mit unterschiedlicher Argumentationslogik. Video A stellte die möglichen rechtlichen Konsequenzen bei Regelverstoß in den Vordergrund, Handschellen waren der visuelle Aufhänger. Video B hingegen appellierte an das Gemeinschaftsgefühl, ein zusammen errichtetes Kartenhaus stand im Zentrum. Es wurde untersucht, welchen Effekt die unterschiedlichen Zugänge der Videos auf die Einhaltung der Regeln innerhalb der folgenden zwei Wochen haben. Das Ergebnis des Experiments war eindeutig: , die Video A mit Androhung der rechtlichen Konsequenzen sahen, verhielten sich ähnlich wie , die überhaupt kein Video sahen. Bei n, die das Video B mit Appell an das Gemeinschaftsgefühl sahen, mussten jedoch in den folgenden Tagen signifikant weniger Postings wegen Regelverstoß gelöscht werden. Die Forscher konnten also feststellen, dass ein Appell an das Gemeinschaftsgefühl zu einer deutlich höheren Regeleinhaltung führt als die Androhung rechtlicher Konsequenzen. Daraus kann man ableiten, dass virtuelle Räume so gestaltet werden sollen, dass Verantwortungsbewusstsein für die Community entsteht. Bei Konferenzen, Podiumsdiskussionen oder anderen Veranstaltungen, die dem Diskurs in der physischen Welt dienen, gibt es neben den organisierten Diskussionen auch immer Platz für ein ungezwungenes, informelles Miteinander: beim geselligen Abendessen am Vorabend, in Pausen mit
Getränken und Brötchen oder bei der Party nach der Veranstaltung. Auch virtuell braucht es einen Ort für informelle Kontakte, für das bessere Kennenlernen und für Smalltalk. Deshalb ist es empfehlenswert, zusätzlich zu virtuellen Diskursräumen auch virtuelle Pausenräume zur Verfügung zu stellen. Beim STANDARD gibt es beispielsweise ein Angebot an Off-Topic-Foren und OffTopic-Livetickern, in denen es nicht um ein bestimmtes Thema gehen muss, sondern wo man sich ganz ungezwungen über Alltägliches unterhalten kann. Oft sind hier mehrere zeitgleich anwesend und kommunizieren in Echtzeit, wie bei einem Chat. Das Bewusstsein darüber, dass andere präsent sind, schwächt die toxische Online-Enthemmung ab. Virtuelle Diskursräume können also unter Zuhilfenahme der Hierarchien der Meinungsverschiedenheiten so gestaltet werden, dass die Scheinwerfer der Aufmerksamkeit auf konstruktive Wortmeldungen, Debatten und gelenkt werden. Damit treten plumpe Anfeindungen und Störungen der Diskussion automatisch in den Hintergrund. Einige Faktoren der Online-Enthemmung lassen sich durch die Raumgestaltung so beeinflussen, dass eine toxische Eskalation weniger häufig und weniger heftig ausbricht. Zusätzlich sollte an das Gemeinschaftsgefühl appelliert werden, um die Einhaltung von Regeln für ein faires Miteinander zu erwirken. Diese Ansatzpunkte sind ein guter Hebel für Plattformbetreiber, um Diskurse auf hohem Niveau zu ermöglichen.
7. Moderation durch Mensch und Maschine
Müllabfuhr oder Navigation?
Als »digitale Müllabfuhr« bezeichnete Michael Fleischhacker, damals NZZ.atChefredakteur, bei einer Podiumsdiskussion die Moderation des Kommentarbereichs von Onlinezeitungen. Diese Aussage ist bezeichnend – nicht für die Tätigkeit selbst, sondern für das Bild, das Herr Fleischhacker und mit ihm viele andere von Community-Arbeit haben. Bei Plattformen wie Facebook, YouTube oder Twitter gibt es tatsächlich Jobs dieser Art, wie der Dokumentarfilm The Cleaners aus dem Jahr 2018 eindrucksvoll zeigt. Doch Online-Nachrichtenmedien, die ihre Kommentarspalten als wertvolle virtuelle Diskursräume sehen, begreifen die Moderationstätigkeit als eine komplexe und sinnstiftende Aufgabe, die von Kommunikationsprofis durchgeführt wird. Janosch Tröhler, Leiter des Community-Teams beim Schweizer Boulevardmedium Blick.ch, beschreibt die Arbeit so: »Wir müssen alle Kommentare vorab prüfen, das liegt auch an der Gesetzeslage in der Schweiz, denn wir wären für allfällige Verletzungen von Persönlichkeitsrechten haftbar. Aber in der Redaktion kümmern wir uns auch darum, dass es bei viel besuchten Artikeln ›ausgewählte Stimmen‹ gibt. Wir stellen Kommentare voran, um das Meinungsspektrum aufzuzeigen und sehen, dass das gerne gelesen wird. Manchmal machen wir auch eigene Pro-und-Contra-Artikel daraus, zu denen dann wieder diskutiert werden kann. Ganz wichtig ist auch zur Berichterstattung in den Kommentaren – von Hinweisen auf Schreibfehler bis hin zu wertvollen Tipps, aus denen sogar Exklusiv-Geschichten entstehen.«¹ Manch andere Online-Medien sehen die Kommentarspalten unter ihren Artikeln selbst als Pinkelzone, als einen Ort für aufsässige , den Journalisten am besten ignorieren, weil ihnen dort sowieso nur ans Bein gemacht wird. Leser werden in dieser Vorstellung zu kläffenden Kötern, die lästig sind und nach Möglichkeit ausgeblendet werden. Das ist eine selbsterfüllende Prophezeiung: Je stärker Medien genau dieses Bild von n haben und vermitteln – zum Beispiel durch Vernachlässigung und Ignoranz – desto eher verwandeln sich tatsächlich in verwahrloste Hunde, die immer lauter bellen, um Aufmerksamkeit zu erregen. Damit wird eine destruktive Spirale in Gang gesetzt, Medienverantwortliche fühlen sich in ihren Vorurteilen bestätigt, ihre
Leser ebenfalls, und beide Seiten werden einander zusehends fremd. Diese Vertrauenskrise zwischen Medienbetreibern und ihren n führte laut einem Branchenreport von WAN-IFRA Mitte der 2010er-Jahre dazu, dass immer mehr Onlinezeitungen ihre Kommentarspalten einstellten oder zumindest massiv einschränkten. So musste man sich auch nicht weiter damit beschäftigen, wie man auf der eigenen Plattform mit wachsendem Hass, mit Trollen und mit organisierten Attacken von Trollarmeen wie jener aus Sankt Petersburg umgeht. Das war eine Kapitulation, die zwei Ursachen hatte. Auf der einen Seite war und ist die ökonomische Situation von Zeitungsverlagen sehr angespannt. Das althergebrachte Finanzierungsmodell reicht nicht mehr zur Deckung der laufenden Kosten aus: Abo- und Auflagezahlen gehen zurück, gleichzeitig wird immer weniger Geld durch Werbung und Kleinanzeigen eingespielt. Folglich mussten Einsparungen vorgenommen werden, die frustrierende CommunityArbeit war da bei vielen Verantwortlichen weit oben auf der Liste. Auf der anderen Seite war fachliche Inkompetenz dafür verantwortlich, dass der Rotstift gerade bei der Interaktion mit und von n angesetzt wurde. Manche Medienmanager haben noch immer nicht verstanden, dass Kommunikation im Internet grundsätzlich anders funktioniert als auf bedrucktem Papier. Es gibt ein starkes Bedürfnis von n, sich zu Nachrichten auszutauschen und an das Medium zu richten. Das ist eine große Chance: Wer diese Kommunikation beherrscht, kann langfristig wertvolle Beziehungen zur Leserschaft aufbauen. Der Preis dafür ist allerdings die Aufgabe eines umfassenden Kontrollanspruchs. In gleichberechtigten Online-Debatten ist der Verlauf des Gesprächs nicht vorhersehbar, man muss sich auf das Ungewisse einlassen. Eine Handvoll Medien entschloss sich Mitte der 2010er-Jahre, gegen den Strom zu schwimmen und eine konstruktive Kommentar-Community aufzubauen, so der WAN-IFRA-Report. Unter ihnen die New York Times und Dawn.com aus Pakistan, die in die Moderation investierten. Auch der STANDARD ist ein Beispiel dafür und hat 2013 an seiner Mission explizit festgehalten, dass der Diskurs Ziel seines Handelns ist: »Wir sind ein Qualitätsmedium, das durch die Kraft des unbeugsamen Journalismus und die Kraft der öffentlichen Community Diskurs schafft und Veränderung ermöglicht.« Was müssen Nachrichtenmedien also bereitstellen, wenn sie einen Diskurs in
Kommentarspalten ermöglichen wollen, worauf soll sich die Moderation fokussieren und wie wird sie mit großen Mengen von Postings fertig? Zunächst ist festzuhalten, dass die Moderation eine komplexe Aufgabe ist, die nicht einfach von irgendwem nebenbei erledigt werden kann, sondern kompetente Kommunikationsprofis braucht. Reto Stauffacher, CommunityVerantwortlicher bei der NZZ, schreibt: »Wer die Moderation der Kommentare auslagert, sei es an unqualifiziertes Personal, an künstliche Intelligenz oder ins Ausland, handelt verantwortungslos. Die Sichtung der Kommentare kann so unterstützt werden, deren Betreuung allerdings nicht. Dafür braucht es Redaktoren, die wissen, wie Debatten auf digitalen Plattformen funktionieren, und die vor allem wissen, worüber die Leute reden. Nur so kann schnell und präzise moderiert werden.«¹¹ Medien, die den Betrieb von Diskursräumen also ernst nehmen, müssen spezialisierte Teams dafür anstellen. In der Vergangenheit legten praktisch alle Medien ihren Fokus in der Moderation auf das Aussieben unerwünschter Beiträge. Auch heute ist dieser Ansatz noch weit verbreitet. Aus dieser Perspektive geht es darum, destruktive Wortmeldungen, die dem Diskurs schaden, möglichst rasch zu entfernen. en halten Ausschau nach Kommentaren, die den Regeln der jeweiligen Plattform widersprechen, und löschen diese. Man jagt der toxischen Enthemmung hinterher und versucht, diese möglichst frühzeitig auszulöschen. Diese Herangehensweise ist für en frustrierend, denn man ist gezwungen, seine Aufmerksamkeit stets den Hetzern, Spaltern und Rüpeln zu schenken. Und es ist eine Sisyphusarbeit, die jeden Tag von neuem beginnt und im schlimmsten Fall immer mehr Ressourcen verschlingt. In der Moderation gibt es jedoch auch eine andere Möglichkeit: Man kann den Fokus auf die konstruktiven Kräfte in der Community lenken und Beiträgen, welche die Diskussion bereichern, mehr Aufmerksamkeit schenken. en können zum Beispiel nach klugen, humorvollen oder persönlichen Wortmeldungen Ausschau halten und diese hervorheben oder dem jeweiligen Forum voranstellen. Dadurch werden all jene, die Debatten mit ihren Kommentaren voranbringen, belohnt, denn sie werden sichtbar gemacht. Wenn konstruktive Postings auf eine Bühne gehoben werden, so hat das auch Beispielwirkung, drängt toxische Enthemmung ins Abseits und schafft Platz für gutartige Enthemmung. Für en ist dieser Ansatz auch deutlich befriedigender, denn sie kümmern sich vorwiegend um jene, denen am Gelingen einer Diskussion gelegen ist. Das Aussieben destruktiver Postings kann zwar
nicht ganz unterbleiben, jedoch auf ein sehr geringes Maß reduziert werden: Der Guardian oder der STANDARD müssen nur rund zwei Prozent aller Beiträge löschen, während der Branchendurchschnitt bei elf Prozent liegt und einige Medien bis zu 60 Prozent aller kommentare entfernen müssen. Es ist also möglich und für eine gedeihliche Debattenkultur auch notwendig, Moderation nicht als digitale Müllabfuhr, sondern als digitale Navigation zu begreifen. en sind Navigatoren und haben die Aufgabe, Diskussionen zu steuern, indem sie Kurs auf eine konstruktive Debattenentwicklung halten und dabei toxische Enthemmung umschiffen. Sie sind Mittler, brauchen gute Menschenkenntnis, müssen empathisch sein und klare Entscheidungen treffen können. Moderation muss auch sichtbar, präsent und ansprechbar sein, um im richtigen Augenblick die Scheinwerfer der Aufmerksamkeit auf besonders konstruktive Teile der Diskussion zu lenken. Peter Zeilinger, Community-Verantwortlicher beim österreichischen Boulevardmedium krone.at, streicht die Moderationsfunktion der Navigation deutlich heraus: »So oft man über sogenannte Hassposter spricht, so oft rücken dann konstruktive Kommentare von anderen n in den Hintergrund. Einzelne Querschüsse wirken dann leider lauter als jene , die konstruktiv und wirklich sehr engagiert mit Inhalten in Diskussionen aufwarten. Wir wollen natürlich die Konstruktiven für ihr Engagement auszeichnen. Solch ein Generated Content wird von den Forenmanagern hervorgehoben und auch zu eigenen Artikeln verarbeitet, zum Beispiel Pro-und-Contra-Storys oder Kommentare des Tages, oder führt gar zur Eröffnung eines neuen Forums, wenn Themen in den Kommentaren besprochen werden, die bis dato eventuell kaum Platz im Programm finden konnten. Wir versuchen, stets neue Möglichkeiten zu finden, jenen Content weiterzuverarbeiten.«¹² en großer Diskussionsangebote haben oft die Aufgabe, eine riesige Menge von Kommentaren überschauen zu müssen. Das gleicht einem Meer an Postings, durch das navigiert werden muss. Bei der Moderation geht es darum, jene Beiträge an die Oberfläche schwimmen zu lassen, die für den jeweiligen Diskurs besonders förderlich und interessant sind und zum Teilnehmen einladen. Toxische Kommentare sollen gleichzeitig möglichst auf den Meeresgrund sinken und aus dem Licht der Aufmerksamkeit entschwinden. Wenn es ein krasses Missverhältnis zwischen Diskussionsteilnehmern und en gibt, also die Menge an Kommentaren zu groß und die Anzahl der
en zu gering ist, gibt es nur drei Möglichkeiten, dieser Misere zu entkommen: Erstens kann man die Diskursmöglichkeiten einschränken, wie das beispielsweise die Süddeutsche Zeitung oder die NZZ machen. Dort kann nur zu ausgewählten Artikeln diskutiert werden. Zweitens kann man mehr en einstellen oder Teile dieser Tätigkeit durch Freiwillige in der Community erledigen lassen. Oder drittens, es gelingt, einen Teil der Moderation zu automatisieren und somit mit relativ kleinen personellen Ressourcen auch große Diskursangebote zu betreuen.
Unterstützung durch künstliche Intelligenz
Wenn einige wenige en einer Vielzahl von Kommentaren gegenüberstehen und nicht rasch genug mitlesen können, um herauszufinden, wo ihr Handeln erforderlich ist, kann Automatisierung eine Antwort sein. Der STANDARD, der 1999 als erstes Medium im deutschsprachigen Raum ArtikelKommentare eingeführt hat, sah sich bereits Anfang der 2000er-Jahre dazu gezwungen, Automatisierung und maschinelle Unterstützung mit künstlicher Intelligenz zu evaluieren. Unter künstlicher Intelligenz (KI) wird ein Bereich der Informatik verstanden, der versucht, intelligentes Verhalten und menschliche Entscheidungsstrukturen in Softwareprogrammen nachzubauen, um diese zu automatisieren. Gemeinsam mit dem Österreichischen Forschungsinstitut für Artificial Intelligence (OFAI) wurde vom STANDARD ein Programm für Moderationsunterstützung entwickelt und 2005 in Betrieb genommen. Der Foromat ist eine Software auf Basis künstlicher Intelligenz, die etwa 80 Prozent aller Postings innerhalb weniger Sekunden – nach automatischer Prüfung – veröffentlicht. Die übrigen 20 Prozent der Postings kommen in eine Liste und werden von en manuell gesichtet. Der Foromat unterstützt bei der Prämoderation, das heißt bei der Vorabprüfung, ob ein Kommentar möglicherweise die Richtlinien verletzt. Er verfügt über mehrere Routinen, die hintereinander durchgeführt werden: Zunächst werden einige formale Aspekte untersucht, zum Beispiel ob das Posting Text in Fremdsprachen oder Dialekt, Werbung oder Schimpfwörter beziehungsweise einen Link zu einer unbekannten Website enthält. Ist die Antwort auf eine dieser Fragen ja, wird der entsprechende Kommentar der manuellen Moderation zugewiesen. Zusätzlich wendet der Foromat auch Erfahrungsregeln an, die er im Laufe seines Betriebs erlernt hat und laufend ant. Dies unterscheidet ihn von simplen Filter-Programmen und sorgt für eine kontinuierliche, automatische Optimierung bei der Bewertung von Postings. Für die Erfahrungsregeln gibt es zwei wesentliche Einflussfaktoren: Erstens lernt der Foromat von der manuellen
Moderation und entscheidet anhand des Inhalts, ob die Wahrscheinlichkeit hoch ist, dass das entsprechende Posting gegen die Forenregeln verstößt. Zweitens berechnet der Foromat auch eine Art Karma für jeden Poster, das sich aus der bisherigen Postinggeschichte ergibt und das auch themenspezifisch sein kann. Das heißt, bisher freigeschaltete und gelöschte Postings haben einen Einfluss darauf, ob neue Beiträge eher automatisch durch den Foromaten freigeschaltet werden oder in die manuelle Moderation geschickt werden. Der Foromat ist ein frühes Beispiel für eine Software mit künstlicher Intelligenz (KI), deren Aufgabe es ist, destruktive Kommentare herauszufiltern. Ähnliche Ansätze mit moderneren KI-Modellen werden aktuell von der KommentarPlattform Talk des Coral Projects sowie von Googles Perspective oder vom Bot Dog des Projekts »Stop Hate Speech« in der Schweiz verfolgt. Diese Softwaremodule können verwendet werden, um toxische Beiträge zu identifizieren, gegebenenfalls automatisch zu löschen oder an en zu melden, um weitere Aktionen daran zu knüpfen. Derartige Beispiele von KI-Unterstützung in der Moderation können als Automatisierung der digitalen Müllabfuhr gesehen werden. Sie haben definitiv ihre Berechtigung und sind für große Diskussionsangebote unersetzlich, weil sie menschliche Ressourcen massiv entlasten und viel schneller in der Identifikation von destruktiven Kommentaren sind. Zusätzlich lohnt es sich, künstliche Intelligenz für eine Automatisierung im Bereich der konstruktiven Beiträge einzusetzen. Denn die digitale Navigation durch Menschen ist ebenfalls ressourcenintensiv und kann mittels Softwareunterstützung wesentlich effizienter erfolgen. Nicholas Diakopoulos und weitere Wissenschaftler der University of Maryland haben Mitte der 2010er-Jahre das Moderationswerkzeug CommentIQ entwickelt, das dabei hilft, Kommentare hoher Qualität herauszufiltern. Ein besonders überraschendes Ergebnis dieser Studie war, dass sich durch Verwenden der Software das Selbstbild der en drastisch geändert hat: Sie sahen sich nicht mehr primär als Aufsichtsorgane, sondern als journalistische Wissensarbeiter. Auch der Blick auf die Community hat sich gewandelt, denn diese wurde plötzlich als potenzielle Quelle für den Journalismus wahrgenommen und nicht mehr primär als ein Mob von Unruhestiftern. Von der Software wurde nicht erwartet, dass sie menschlichen en Entscheidungen abnimmt, also die Entscheidungen an sich automatisiert, sondern dass sie eine bessere Entscheidungsgrundlage zur Verfügung stellt.
Beim STANDARD wurde 2016 das Projekt De-Escalation-Bot gestartet, wieder gemeinsam mit dem Projektpartner OFAI. Zu Beginn stand das Ziel im Vordergrund, zeitnah destruktive Diskussionsstränge zu finden. Damit sollen die Foren-en unterstützt werden, frühzeitig eingreifen zu können, um ein gutes Diskussionsklima (wieder)herzustellen. Zunächst wurden insgesamt sieben Kategorien festgelegt: vier für destruktive Inhalte (negative Grundstimmung, off-topic, Beschimpfung, Diskriminierung), eine für neutrale Inhalte ( an den STANDARD) und zwei für konstruktive Inhalte (persönliche Erzählungen, rationale Argumente). Dass hier schon neutrale und positive Eigenschaften einbezogen wurden, sollte sich im weiteren Projektverlauf als spielentscheidend erweisen. Daraufhin wurden tausende Postings von en annotiert, das heißt manuell diesen Kategorien zugewiesen. Die von Menschen kategorisierten Kommentare wurden dann für das Training eines automatischen Klassifikators mit Methoden der künstlichen Intelligenz verwendet. Im nächsten Schritt wurde ein Dashboard für die Forenmoderation erstellt, das für neue Postings mithilfe des Klassifikators Werte in den sieben Kategorien berechnet. So ist es zum Beispiel möglich, für einzelne Foren alle Postings gereiht als »rationale Argumente« oder »Beschimpfung« anzeigen zu lassen. Weiters lassen sich Foren finden, in denen bestimmte Kategorien, z. B. »offtopic«, »persönliche Erzählungen« oder » an den STANDARD« besonders häufig vorkommen. Es zeigte sich, dass die automatische Klassifikation der neutralen und positiven Kategorien sehr zuverlässig funktionierte, während destruktive Inhalte nicht so treffsicher auffindbar waren. Das hatte zur Folge, dass das ursprüngliche Projektziel, vor allem Anzeichen einer Eskalation zu erkennen, in den Hintergrund und dafür die Eskalations-Prävention durch Fokussierung auf konstruktive Postings in den Vordergrund rückte. Dies deckt sich auch mit dem Wandel in der Moderationspraxis des STANDARD: Wenn gut argumentierte Postings und persönliche Erzählungen einem Forum vorangestellt werden und wenn auf konstruktive Beiträge seitens Moderation oder Redaktion geantwortet wird, ist es deutlich wahrscheinlicher, dass sich die Diskursqualität in einem Forum positiv entwickelt. Das Beispiel De-Escalation-Bot zeigt also, dass maschinelle Unterstützung durch Software mit künstlicher Intelligenz die Navigationsfunktion in der
Moderation ganz wesentlich unterstützen kann. In diese Richtung ist noch viel weitere Forschung notwendig, damit das Auffinden von konstruktiven und wertvollen Beiträgen in einem Meer von -Kommentaren erleichtert wird. Auf Basis einer automatischen Vorauswahl können Menschen die diskussionsfördernden Postings herausgreifen und ins Scheinwerferlicht stellen. Die Kombination von Maschine und Mensch in der Moderation führt dazu, dass mit limitierten personellen Ressourcen eine große Menge an Diskussionsbeiträgen rasch bearbeitet und so aufbereitet werden kann, dass Diskussionen für Lesende und Teilnehmende einen Mehrwert bieten.
8. Verständigung im Netz: Es liegt an uns!
Der Hass im Netz, das sind die anderen. Das möchte man meinen, wenn man die Debatte der letzten Jahre verfolgt. Denn meist wird nach Schuldigen gesucht und dabei zeigt man mit dem Finger gerne auf andere. Die Politik versucht, Plattformbetreiber in die Pflicht zu nehmen und droht der Bevölkerung mit härteren Strafen und nachgeschärften Gesetzen. So mancher Anbieter von virtuellen Diskussionsräumen meint, die Kommentare seiner immer stärker kontrollieren und einschränken zu müssen, Journalisten sehnen sich nach der guten alten Zeit, in der Leserbriefe ungelesen in den Papierkorb wandern konnten. wiederum verwechseln Meinungsfreiheit mit einem Freibrief für asoziales Verhalten ohne Rücksichtnahme auf die Menschen rund um sie. Jene, die selbst den größten Hass schüren, sind besonders wehleidig, wenn sie mit legitimen Mitteln kritisiert werden. Dabei ist es doch eigentlich ganz einfach. Jeder Einzelne von uns trägt Verantwortung: für die Debattenkultur im Netz, für sein eigenes OnlineVerhalten und dafür, wem er seine Aufmerksamkeit schenkt. Denn Verantwortung tragen heißt nicht, mit dem Finger auf andere zu zeigen, sondern sich selbst zu fragen: Was kann ich in meiner Rolle dazu beitragen, dass gute Gespräche im Netz möglich sind? Wie kann ich in Online-Diskussionen auf andere reagieren, damit konstruktive Stimmen Gehör finden? Wo kann ich mich einbringen, damit die öffentliche Debatte in einer kooperativen Atmosphäre einen Schritt weiterkommt und zu gesellschaftlicher Verständigung führt? Wenn ich, der Autor dieses Buches, diese Fragen auf mich umlege, komme ich zum Schluss, dass ich sehr viele Chancen habe, bessere Online-Gespräche möglich zu machen: Ich bin selbst Poster und kann entscheiden, an welchen Gesprächen im Netz ich teilnehme. Dabei ist es mir wichtig, mit unterschiedlichen Perspektiven in Kontakt zu kommen, aber gleichzeitig in einer wertschätzenden und auch humorvollen Atmosphäre zu diskutieren. Als Community Manager beim STANDARD habe ich die großartige Gelegenheit, einen der relevantesten Diskursräume in der deutschsprachigen Medienwelt mitzugestalten. In dieser Rolle ist mir das gemeinsame Wirken mit engagierten, kompetenten und empathischen Kollegen wichtig sowie ein offener und vertrauensvoller Austausch auf Augenhöhe mit den n. Natürlich ist es in
diesem Beruf auch erforderlich, dorthin zu schauen, wo Online-Diskurse schief gehen und Menschen verletzt werden. Es geht mir aber nicht darum, Schuldige zu finden und Rache zu üben, sondern die Ursachen für solche Fehlentwicklungen zu erkennen und zu beheben. Und im Meta-Diskurs über das Gelingen und Misslingen von Online-Debatten kann ich versuchen, konstruktive und optimistische Ansätze einzubringen, wie zum Beispiel mit diesem Buch. Dringend notwendig ist ein gemeinschaftliches Verantwortungsgefühl für das Gelingen von Debatten im Internet. Wenn wir immer wieder diagnostizieren, was alles schiefläuft und dabei nur darauf schauen, was andere alles falsch machen, wenn eine Empörung nur zur nächsten Empörung führt, bringt uns das keinen Schritt weiter. Es geht darum zu erkennen, was im eigenen Einflussbereich liegt, was man selbst in Kooperation mit anderen richtig oder besser machen kann, damit Online-Gespräche zu gesellschaftlicher Verständigung, das heißt zu wechselseitigem Verstehen, führen. Die entscheidende Frage ist also, welche Handlungsmöglichkeiten man selbst hat, damit Dialoge im Internet zum Teilnehmen einladen, als sinnstiftend wahrgenommen werden und Spaß machen. Wir tragen gemeinsam mit anderen Verantwortung für die Gesellschaft und können etwas für den Schutz und gegen Schmutz im Netz unternehmen.
Persönliche Scheinwerfer der Aufmerksamkeit
»Lurker«, das sind die meisten Menschen im Internet. Das heißt, sie lesen still mit, beteiligen sich aber nicht aktiv an Debatten. Ab und zu lassen sich etwa zehn Prozent zu kleinen Aktivitäten wie zum Klick auf einen Daumen nach oben oder unten hinreißen. Und eine von hundert Personen wird von einer Diskussion so sehr aufgerüttelt, ja oft aufgewühlt, dass sie selbst das Wort ergreift. Sehr oft iert das, wenn uns jemand auf der emotionalen Ebene packt und wir irgendetwas nicht unwidersprochen stehen lassen wollen. Genau das ist der Punkt, an dem jeder und jede von uns ansetzen kann. Erstens müssen wir erst gar nicht so lange warten, bis wir in eine so hoch emotionale Situation kommen. Und zweitens können wir in jedem Fall einen möglichst sachlichen Zugang wählen. Wir können häufiger an Online-Gesprächen teilnehmen und uns dafür Umgebungen suchen, die einladend sind: virtuelle Räume, in denen wir uns wohl fühlen, mit Menschen, mit denen wir gerne interagieren. Gleichzeitig können wir darauf achten, dass das keine Echokammern sind, sondern dass sehr wohl verschiedene Standpunkte vertreten werden, aber auf annehmbare Weise und in einer Atmosphäre, die sachliche Auseinandersetzungen unterstützt. Wenn es zu persönlichen Attacken kommt, können wir uns an der Hierarchie der Meinungsverschiedenheiten orientieren und versuchen, auf eine höhere Ebene zu gelangen. Wenn Angriffe allerdings zu sehr unter die Gürtellinie gehen, empfiehlt es sich, nicht direkt darauf zu reagieren, sondern diese dem jeweiligen Plattformbetreiber zu melden und in besonders krassen Fällen auch die Möglichkeiten des Rechtsstaats zu nützen. Wichtig ist, den Hetzern, Spaltern und Rüpeln nicht zu noch mehr Aufmerksamkeit zu verhelfen, sondern sie hinter den Kulissen zur Verantwortung zu ziehen. Wer sich häufiger an Gesprächen im Netz beteiligt und sich vor allem mit konstruktiven n austauscht, die unterschiedliche Blickwinkel einbringen, wird solche Debatten als Bereicherung empfinden. Jeder Einzelne hat einen persönlichen Scheinwerfer der Aufmerksamkeit im Netz und kann diesen so einsetzen, dass konstruktive Beiträge mehr Licht abbekommen. Wenn wir das tun, werden wir automatisch selbst mehr Freude an Online-Gesprächen haben
und verschiedene Positionen in gesellschaftlichen Debatten besser verstehen können.
Gestalter in der Medienwelt
Journalisten und Medienverantwortliche sind besonders gefordert, wenn es um das Gelingen von Online-Diskussionen geht. Denn Journalisten sind es gewohnt, ihren Finger in Wunden zu legen, Missstände aufzuzeigen. Journalismus versteht sich häufig als die Vierte Gewalt in der Demokratie, die eine kritische und kontrollierende Funktion für die anderen drei Gewalten Legislative, Exekutive und Judikative hat. Bei diesem Anspruch kann es aber nicht bleiben, wenn man selbst Verantwortung für die Entwicklung der Gesellschaft übernimmt. Dann muss man auch in die Zukunft blicken und Lösungsansätze für Problemlagen finden und skizzieren. Das ist der Kern eines modernen, konstruktiven Journalismus. Und diese Art von Journalismus brauchen wir ganz besonders, um Debatten im Internet zu verbessern. Bei der zunehmenden Bedeutung von Online-Medien reicht ein distanzierter Blick – ob am Problem interessiert und in die Vergangenheit gewandt oder lösungsorientiert und in die Zukunft gerichtet – nicht mehr aus: Verantwortliche aus Medienunternehmen stellen virtuelle Diskursräume zur Verfügung und werden zu Gesprächsteilnehmern im Netz. Als solche sind sie Teil des Systems, ja gestalten die Bedingungen für den Onlinediskurs selbst. Damit gibt es zwei Rollen, die mit Bedacht wahrgenommen werden müssen: Einerseits sind Medienverantwortliche Gastgeber für Gespräche, andererseits sind sie Teilnehmer an Gesprächen. Das sind zwei unterschiedliche Funktionen, die jeweils Expertise und Verantwortungsgefühl benötigen. Als Gastgeber hat man es in der Hand, virtuelle Räume zu gestalten und Möglichkeiten für die Repräsentation von digitalen Ichs anzubieten. Als Teilnehmer kann man mit gutem Beispiel vorangehen, sich in der Hierarchie der Meinungsverschiedenheiten selbst hinterfragen und sich aktiv dafür einsetzen, dass konstruktive Stimmen gehört werden. Medien haben also eine hervorragende Ausgangslage dafür, Debatten im Internet zu verbessern: Als Berichterstatter, als Teilnehmer an Online-Gesprächen und als Anbieter von Diskursorten sind sie gefordert, das Framing »Hass im Netz« hinter sich zu lassen. Es ist dringend an der Zeit, Debatten auf höhere Ebenen der Hierarchie der Meinungsverschiedenheiten zu heben und mit gutem Beispiel
voranzugehen. Gespräche im Netz sind eine große Chance auf mehr Einblicke in die Gedankenwelt anderer über geographische und soziale Sphären hinweg. Gestalter der Medienwelt haben es in der Hand, ein neues, lösungsorientiertes Framing zu etablieren, nämlich »Verständigung im Netz«.
Anreize statt Strafen
In der Fahrschule lernen künftige Verkehrsteilnehmer die richtige Blicktechnik: »Wohin man schaut, dorthin fährt man auch«, heißt es da oft. Wichtig ist es also, das Ziel zu avisieren und sich nicht ablenken zu lassen. Nicht ratsam ist es, ständig auf einen Abgrund neben der Fahrbahn zu starren, denn sonst läuft man Gefahr, genau dort zu landen. Wenn man die europäische Netzpolitik der letzten Jahre betrachtet, kann man eine Verengung der Sicht auf negative Phänomene in der OnlineKommunikation feststellen. Es ist zwar wichtig zu erkennen, wo Menschen Schaden nehmen, um mit gesetzlichen Maßnahmen gegensteuern zu können. Wird dieser Blickwinkel allerdings allzu dominant, dann laufen wir Gefahr, dass wohlmeinende, konstruktive Menschen Gespräche im Netz überhaupt meiden und sich erst recht eine destruktive Atmosphäre ausbreitet, die nur noch für Hetzer, Spalter und Rüpel attraktiv ist. Daher ist die Politik gefordert, ihren Blick auf das Ziel einer verbesserten Debattenkultur zu richten und positive Anreize zu setzen. Die aktuelle europäische Gesetzgebung atmet den Geist einer Droh- und Bestrafungspolitik. Das gilt gleichermaßen für das Digitale-Dienste-Gesetz der EU, für das deutsche Netzwerkdurchsetzungsgesetz, für das österreichische Hass-im-Netz-Bekämpfungs-Gesetz sowie für das österreichische Kommunikationsplattformen-Gesetz. Anbieter von virtuellen Diskursorten werden in die Pflicht genommen, ihre Arbeit verstärkt auf die digitale Müllbeseitigung zu konzentrieren. Sie müssen mit empfindlichen Bußgeldzahlungen rechnen, wenn sie ihre Kontrollaufgaben nicht wahrnehmen. n, die in Online-Gesprächen Rechte anderer verletzen, werden höhere Strafen und eine raschere Verfolgung angedroht. Ist die Blicktechnik der europäischen Politik und Gesetzgebung geeignet, die Herausforderungen für Debatten im Internet zu meistern? Leider nur zum Teil. Es ist zweifellos ein Schritt in die richtige Richtung, Opfern mehr Möglichkeiten in die Hand zu geben, rechtswidrige Inhalte, die sich gegen die eigene Person richten, rasch löschen zu lassen und gegen die Verursacher vorzugehen. Doch
andererseits bleibt es bei der Symptombehandlung und von vorausschauenden Anreizen, um in der richtigen Spur zu bleiben, ist wenig zu sehen. Plattformbetreibern und n sollte viel stärker der Nutzen einer gelingenden Verständigung im Netz vor Augen geführt werden. Gesetzliche Regelungen könnten Qualitätskriterien für Kommunikationsdienste im Netz festschreiben, zum Beispiel für die Ausgestaltung der infrastrukturellen Basis von virtuellen Räumen und digitalen Ichs und im Bereich der Moderation. Durch ein entsprechendes Fördermodell könnten Anreize geschaffen werden, diese Kriterien zu erfüllen. Das gemeinsame Übernehmen von Verantwortung im Netz sollte auch in der politischen Debatte ins Zentrum der Aufmerksamkeit rücken. Der Schutz von Menschen und ihren Meinungen in Online-Gesprächen muss auch für die Politik ein wichtiges Anliegen sein. Es muss anerkannt werden, dass die Verwendung von Pseudonymen einen hohen Wert für gesellschaftliche Diskurse hat. Pseudonyme sind digitale Masken, die einen Teil der toxischen Enthemmung aus dem Netz abwehren und ein Überschwappen in andere Lebensbereiche verhindern können. Gleichzeitig sind sie Schutzschilder, die es erlauben, unpopuläre Meinungen und persönliche Erlebnisse sowie Empfindungen zu äußern. Wenn wir an Online-Diskussionen denken und wenn wir uns darüber unterhalten, wie Menschen im Internet miteinander umgehen, beherrscht uns oft ein pessimistischer Blick auf Hass im Netz. Wir haben es in der Hand, die Perspektive zu ändern und optimistisch darauf zu schauen, was wir durch gelungene Online-Gespräche gewinnen können. Jeder von uns kann dazu beitragen, dass wir andere Menschen und ihre Gedankenwelt häufiger und besser verstehen. Es ist Zeit, gemeinsam Verantwortung für mehr Verständigung im Netz zu übernehmen.
Endnoten
¹ https://www.vienna.at/hass-im-netz-anstieg-bei-meldungenverzeichnet/6749694 ² https://www.zeit.de/politik/2020-07/hass-internet-europaeische-uniongeplantes-gesetz-verpflichtung- plattformen ³ https://www.theguardian.com/lifeandstyle/2020/sep/15/kim-kardashiancriticises-social-media-platforms-for-spreading-hate ⁴ https://www.derstandard.at/story/2000058849778/bvb- anschlag-wie-dieboersentransaktionen-publik-wurden ⁵ E-Mail-Interview am 11.12.2020 https://www.derstandard.at/story/2000113705161/standard--uhtred-ich-binkein-hasserfuellter-mensch ⁷ https://www.derstandard.at/story/2000114389988/verhetzungsprozess-umunveroeffentlichte-xenophobe-postings ⁸ https://www.deutsche-alzheimer.de/unser-service/ foren/1/2//umgang-mitdementen-opa.html Weitere Informationen: https://bach.wu.ac.at/d/research/projects/3262/#abstract. und https://www.derstandard.at/story/2000113103698/wie- kann-man-diediskussionskultur-foerdern, zu den Ergebnissen des Video-Experiments gibt es noch keine Veröffentlichung. ¹ Telefon-Interview am 21.12.2020 ¹¹ https://www.nzz.ch/feuilleton/leserkommentare- gratwanderung-zwischenstillosigkeit-und-zensur- ld.1549392 ¹² E-Mail-Interview am 14.12.2020
Literatur
Kapitel 1: Franck, Georg. Ökonomie der Aufmerksamkeit: Ein Entwurf. Edition Akzente. München Wien: Hanser, 1998. Morar, David und Santos, Bruna. The push for content moderation legislation around the world. In: https://www.brookings.edu/blog/techtank/2020/09/21/thepush-for-content-moderation-legislation-around- the-world/, 2020.
Kapitel 2: Burger, Christian. BVB-Anschlag: Wie die Börsentransaktionen publik wurden. In: https://www.derstandard.at/story/2000058849778/bvb-anschlag-wie-dieboersentransaktionen-publik-wurden, 2017. ZDF. Hallo Deutschland: Kommissare Grönert und Kemper (Video). In: https://www.zdf.de/nachrichten/hallo- deutschland/kommissare-groenert-undkemper- 106.html, 2020.
Kapitel 3: Brodnig, Ingrid. Hass Im Netz: Was Wir Gegen Hetze, Mobbing Und Lügen Tun Können. 1. Auflage. ed. Wien: Brandstätter, 2016. Lapidot-Lefler, Noam, und Barak, Azy. The Benign Online Disinhibition Effect: Could Situational Factors Induce Self-disclosure and Prosocial Behaviors? In: Cyberpsychology 9, no. 2 (2015): Cyberpsychology, 2015-07-01, Vol.9 (2). Stuart, Jaimee und Scott, Riley. The Measure of Online Disinhibition (MOD): Assessing Perceptions of Reductions in Restraint in the Online Environment. In: Computers in Human Behavior 114 (2021): 106534.
Suler, John. The Online Disinhibition Effect. In: Cyberpsychology & Behavior 7, no. 3 (2004): 321–326. Thaler, Selina. STANDARD- Uhtred: “Ich bin kein hasserfüllter Mensch” (Podcast). In: https://www.derstandard.at/story/2000113705161/standard-uhtred-ich-bin-kein-hasserfuellter-mensch, 2020.
Kapitel 4: Dräger, Corinna. Vom Maskenkult zur Theatermaske: Haben die antiken Theatermasken die Stimme verstärkt? Trier: Dissertation, 2009. Moore, Alfred, Fredheim, Rolf, Wyss, Dominik und Beste, Simon. Deliberation and Identity Rules: The Effect of Anonymity, Pseudonyms and Real-Name Requirements on the Cognitive Complexity of Online News Comments. In: Political Studies, 2020, 3232171989138. Véliz, Carissa. Online Masquerade: Redeg the Internet for Free Speech Through the Use of Pseudonyms. In: Journal of Applied Philosophy 36, no. 4 (2019): 643–658. Weihe, Richard. Die Paradoxie Der Maske: Geschichte Einer Form. München: Fink, 2004.
Kapitel 5: Cho, Daegon, und Kwon, K. Hazel. The impacts of identity verification and disclosure of social cues on flaming in online comments. In: Computers in Human Behavior 51 (2015): 363–372. Moore, Alfred. Anonymity, Pseudonymity, and Deliberation: Why Not Everything Should Be Connected. In: The Journal of Political Philosophy 26, no. 2 (2018): 169–192. Schmidt, Colette. in “Oh là là!” sorgt dafür, dass Stimmung im Forum nicht kippt. In: https://www.derstandard.at/story/2000089542053/in-oh-la-la-
sorgt-dass-die-stimmung-im-forum, 2018.
Kapitel 6: Graham, Paul. How to Disagree. In: http://www.paulgraham.com/disagree.html, 2008. Wagner, Ben und Kubina, Marina. Wie kann man die Diskussionskultur fördern? In: https://www.derstandard.at/story/2000113103698/wie-kann-man-die-diskussionskultur-foerdern, 2020.
Kapitel 7: Diakopoulos, Nicholas, Park, Deokgun, Sachar, Simranjit und Elmqvist, Niklas. ing Comment s in Identifying High Quality Online News Comments. Proceedings of the 2016 CHI Conference on Human Factors in Computing Systems (CHI ‘16). Association for Computing Machinery, New York, NY, USA (2016): 1114–1125. Schabus, Dietmar und Skowron, Marcin. Academic-Industrial Perspective on the Development and Deployment of a Moderation System for a Newspaper Website. Proceedings of the 11th International Conference on Language Resources and Evaluation (LREC), 2018. Schabus, Dietmar, Skowron, Marcin und Trapp, Martin. Onemillion posts: A data set of German online discussions. In: Proc. SIGIR(2017): 1241–1244. WAN-IFRA (World Association of Newspapers and News Publishers). Do Comments Matter? The 2016 Global Report on Online Commenting. In: http://m.wan-ifra.org/microsites/do-comments-matter, 2016.
Der Autor
Christian Burger
Geboren 1973, Studium der Handelswissenschaft in Wien und Edmonton, Studium der Publizistik in Wien und Triest, 2013 Österreichischer Wissenschaftspreis für die Dissertation »Dialogorientierte Online-PR«. Experte für Online-Kommunikation, beim ÖAMTC, für Wolf Theiss Rechtsanwälte, bei der Wiener Zeitung und seit 2011 als Leiter des Community Managements beim STANDARD.