Dienstag, 12. Februar 2019

Der Fall Huawei: Cybersicherheit und / oder Handelskrieg?

Der amerikanische Außenminister reist gerade durch Osteuropa und warnt vor dem chinesischen Konzern Huawei. In immer mehr Ländern wird das Unternehmen ausgeschlossen, auch die deutsche Regierung unternimt offenbar Schritte in diese Richtung. Aber geht es wirklich um die Angst vor Spionage und Sabotage übers Internet? Ziehen die USA Deutschland in ihren Handelskrieg mit China - oder zieht Deutschland vielleicht von ganz alleine in den Krieg?

Mein Radiobeitrag für Impuls / SWR 2 "Mobilfunk 5G: Droht mit Huawei Einfluss aus China?" kann hier angehört werden.

Montag, 11. Februar 2019

1 zu 147 000

Heute entscheidet Facebook, was Meinungsfreiheit bedeutet.
Das sagte die Bundesjustizministerin Katarina Barley vor einigen Wochen zu mir. Wie weit darf der Staat sich einmischen in das Zirkulieren von Nachrichten und Meinungen? Darf er beispielsweise die Plattformen zwingen, bestimmte Publikationen algorithmisch zu bevorzugen, um Verschwörungstheorien und Falschmeldungen zurückzudrängen?

Um diese Fragen dreht sich mein Feature "Selbstkontrolle im Netz", das vor einigen Tagen beim SWR ausgestrahlt wurde. Meine These: Die Digitalisierung der öffentlichen Kommunikation kommt in der Gestalt einer Privatisierung. Aber anders als viele netzpolitische Aktivisten glauben, ist die privatrechtliche Organisation kein Schutz vor staatlicher Überwachung und Lenkung.

Die Plattformen, die den Marktplatz der Meinungen zur Verfügung stellen, verfolgen natürlich kommerzielle Interessen. Weil sie ihre Kosten niedrig halten wollen, wickeln sie ihre Inhaltskontrolle nach Möglichkeit mit Künstlicher Intelligenz und Arbeit für Niedriglohn ab. Für das Feature konnte ich mit einigen Moderatoren sprechen, die bei Arvato Facebook-Posts kontrollieren - unter erbarmungswürdigen Bedingungen.
Das Fazit:

Ob Facebook, YouTube, Microsoft oder Google, alle Internetkonzerne lagern die Überprüfung der Inhalte aus. Content-Moderation bedeutet: Niedriglohn und permanente Überwachung, befristete Verträge und ein ständiger Austausch von Mitarbeitern.

Menschliche Arbeitskraft, um Beiträge zu überprüfen, passt nicht zum Geschäftsmodell dieser Unternehmen. Sie begreifen sich als „Plattformen“, „Online-Marktplätze“ oder auch „Portale“: als Technologieunternehmen, die Kommunikationskanäle zur Verfügung stellen, aber für die Botschaften, die dann über diese Kanäle verbreitet werden, nicht verantwortlich sind. Ihr rasantes Wachstum beruht eben darauf, dass sie immer größere Datenmengen bei gleichbleibenden Kosten verarbeiten – und so immer größere Erträge erzielen.


Die Regeln der Inhaltskontrolle - was wird gelöscht, was darf bleiben - sind extrem schematisch, weil sie schnell und ohne langes Nachdenken umgesetzt werden sollen. In einem hervorragenden Artikel von Max Fisher in der New York Times heißt es dazu:

How can Facebook monitor billions of posts per day in over 100 languages, all without disturbing the endless expansion that is core to its business? The company’s solution: a network of workers using a maze of PowerPoint slides spelling out what’s forbidden. The Facebook employees who meet to set the guidelines try to distill highly complex issues into simple yes-or-no rules. Then the company outsources much of the actual post-by-post moderation to companies that enlist largely unskilled workers, many hired out of call centers.
Auf etwa 147 000 Nutzer kommt bei Facebook ein Moderator, schätze ich. Dieser weltweite Durchschnitt verbirgt aber gewaltige Unterschiede. Ein erstaunlich großer Teil der Moderatoren in Europa kontrolliert den deutschsprachigen Markt. Exakte Zahlen dazu veröffentlicht Facebook nicht; Gerüchten zufolge sind es 80 Prozent. Das liegt wahrscheinlich an den gesetzlichen Vorgaben: Schließlich drohen hierzulande bis zu fünf Millionen Euro Bußgeld. Selbst ein Unternehmen wie Facebook, das letztes Jahr gut 14 Milliarden Euro Gewinn machte, bezahlt solche Summen nicht aus der Portokasse.

Für die Kontrolle in den weniger lukrativen und weniger riskanten Märkten in Asien, Afrika oder dem Nahen Osten setzt das Unternehmen kaum Ressourcen ein. Dies hat buchstäblich fatale Folgen. Denn in Ländern wie Libyen, Mexiko, Pakistan oder Indonesien werden ethnische und religiöse Minderheiten und politische Gegner mithilfe von Facebook und Whatsapp drangsaliert und verfolgt.

In Nigeria, sagen Bürgerrechtsaktivisten, liegt die Quote sogar bei nur einem Moderator pro sechs Millionen Nutzern. Bei ihrer Inhaltskontrolle handeln die Plattformen also durchaus opportunistisch. Wo sie es müssen, arrangieren sie sich mit den lokalen Machthabern und zensieren die jeweilige Opposition. (Dies gilt beispielsweise für Twitter und Facebook in der Türkei, ein Fallbeispiel das sich jemand einmal genauer anschauen sollte ...) Anderswo aber kümmern sie sich kaum um ihre Netzwerke, weshalb die dortigen Machthaber oft zu brachialen Mitteln wie Internetsperren greifen. Im Jahr 2018 gab es übrigens laut der Kampagne #keepiton weltweit 188 Internet-Shutdowns.