Algorithmische Filterung in Zeiten der Kriegsführung

programmieren computersprache programm software, Quelle: geralt, Pixabay License Freie kommerzielle Nutzung Kein Bildnachweis nötig

Dr. Marco Bastos, City University of London

 Als Senior Lecturer am Department of Sociology der City, University of London hat Dr. Marco Bastos im Februar 2022 die Studie “Fact-Checking Misinformation: Eight Notes on Consensus Reality” mitverfasst. Diese Studie kombiniert Datenanalyse mit mehrstufiger Verarbeitung visueller Kommunikation, um die visuellen Rahmen staatlich geförderter Propaganda in sozialen Medien zu klassifizieren. Die Autoren stützen sich auf die Wahlintegritätsdaten von Twitter, um fünf Propagandaziele der Internet Research Agency zu untersuchen, darunter russische und amerikanische Partisanengruppen. Sie prüfen, inwieweit ihre Operationen von der kanonischen Staatspropaganda abweichen, die durch Symbole der nationalen Identität und heroische Männlichkeit gekennzeichnet ist. Die Ergebnisse zeigen, dass die von der Internet Research Agency verwendeten visuellen Rahmen so gestaltet sind, dass sie die Vox Populi mit sympathischen, vertrauten oder attraktiven Gesichtern von gewöhnlichen Menschen verkörpern. Die Studie legt nahe, dass sich die staatlich geförderte Propaganda auf die subkulturellen und visuellen Möglichkeiten sozialer Plattformen eingestellt hat. Die Berichterstattung über den Krieg in der Ukraine in sozialen Medien bestätigt nachträglich diese Analyse, so Dr. Bastos.

„Es überrascht nicht, dass polarisierende Inhalte in den sozialen Medien während des russisch-ukrainischen Krieges florieren. Zermürbungskriege werden unweigerlich von Propaganda begleitet, die versucht, so wahrheitsgetreu wie möglich zu erscheinen. Dieser Kampf um das hegemoniale Narrativ wurde deutlich, als die russische Regierung beschlossen hat, den Begriff „spezielle Militäroperation“ durchzusetzen, um die russische Invasion in der Ukraine zu beschreiben. Der Streit wird wahrscheinlich immer unzusammenhängender werden, da Russen und Ukrainer Kriegsnarrative vorantreiben, in denen Fakten umstritten, nicht nachprüfbar sind oder allgemein als unrechtmäßig gelten.

In dieser brenzligen Situation ist es problematisch, dass soziale Plattformen keine externe Kontrolle über die algorithmischen Routinen bieten, die Inhalte auswählen, welche den Benutzern angezeigt werden sollen. Diese Algorithmen sind optimiert, um Inhalte zu priorisieren, die das Unternehmen als wichtig für die Nutzer erachtet. Die genaue Art dieser Optimierung wird jedoch durch den geschützten Charakter der Facebook-Algorithmen verschleiert, wobei sowohl die Daten als auch die Modelle, die den Algorithmen zugrunde liegen, einer Prüfung durch politische Entscheidungsträger oder die Forschungsgemeinschaft entzogen sind.

Zu den Algorithmen gehören Empfehlungssysteme, die auf kollaborativer Filterung (Filterung sozialer Informationen), inhaltsbasierter Filterung, einschränkungsbasierter Empfehlung und kritikbasierter Empfehlung basieren. Diese Empfehlungsalgorithmen werden kombiniert, um hochgradig personalisierte Ergebnisse für den einzelnen Nutzer zu erzielen. Die Propaganda in den sozialen Medien hat diese Hinweise natürlich aufgegriffen und die Beeinflussungsmaßnahmen so angepasst, dass identifizierbare und vertraute Gesichter gewöhnlicher Menschen eingesetzt werden. Ausgeklügelte Beeinflussungsmaßnahmen in den sozialen Medien sind praktisch nicht von organischen Inhalten zu unterscheiden, die durch Algorithmen verstärkt werden.

Problematisch ist auch, dass Facebook-Algorithmen einer intrinsischen Heuristik folgen, deren Ziele sich eher aus den Prioritäten des Unternehmens als aus den strengen Regeln der journalistischen Praxis ergeben. Dieser Prozess führt dazu, dass Hunderte von Inhalten destilliert werden, um dem Nutzer diejenigen anzuzeigen, die ihn den Vorhersagen zufolge am meisten interessieren könnten. Leider sind die Inhalte, mit denen die Nutzer am ehesten etwas anfangen können, nicht die, die am ehesten zutreffend sind. Vielmehr handelt es sich dabei um eine Untergruppe von Inhalten, die eher emotionale Reaktionen auslösen.

Es gibt auch immer mehr Beweise dafür, dass Facebook-Feed eine übermäßige Auswirkung auf harte Nachrichteninhalte hat, genau die Untergruppe von Inhalten, die dazu beitragen können, die Kluft zwischen Propaganda und tatsächlicher Realität zu überbrücken. Tageschehen und Politik sind eher von algorithmischen Änderungen betroffen als Nachrichten rund um Lifestyle, Sport und Kunst. Die asymmetrische Macht, die soziale Plattformen in den letzten zehn Jahren auf Nachrichtenorganisationen ausgeübt haben, ist eine weitere Kraft, die die Integrität des Informationsökosystems beeinträchtigt, insbesondere im Hinblick darauf, wie vertrauenswürdige Informationen und Nachrichten online abgerufen und konsumiert werden. Leider wird sich diese Kluft im Kontext eines Zermürbungskrieges wahrscheinlich nur noch weiter verschärfen. “

Weiterführende Infos

https://doi.org/10.1080/1461670X.2022.2031259

https://journals.sagepub.com/doi/full/10.1177/14614448211026580

Über Dr. Marco Bastos

Dr. Marco Bastos ist Senior Lecturer in der Abteilung für Soziologie an der City University of London, wo er Medien- und Kommunikationstheorie und Forschungsmethoden unterrichtet. Zuvor hatte er Forschungspositionen an der Universität von Sao Paulo, der University of California in Davis und der Duke University inne, wo er Mitglied des Duke Network Analysis Center ist.

Im Jahr 2017 zeigte Dr. Bastos‘ Forschung Beweise für Netzwerke von Tausenden von verdächtigen Twitter-Bots, die im Vorfeld des EU-Referendums daran arbeiteten, die Brexit-Debatte zu beeinflussen. Die Untersuchung wurde zu einer wichtigen internationalen Nachricht, die zunächst von Buzzfeed veröffentlicht wurde.

Seine Untersuchungen befassen sich mit den soziologischen Aspekten digitaler Medien, wobei sein Hauptinteresse den Wechselwirkungen zwischen sozialen Online- und Offline-Netzwerken gilt. Seine Forschung verbindet Kommunikations- und computergestützte Sozialwissenschaften. Der Quellcode seiner Projekte ist auf CRAN und GitHub verfügbar.

Quelle:  Ida Junker – Agentur: PPOOL

Über Autor kein 3258 Artikel
Hier finden Sie viele Texte, die unsere Redaktion für Sie ausgewählt hat. Manche Autoren genießen die Freiheit, ohne Nennung ihres eigenen Namens Debatten anzustoßen.