• Report

Big Tech als Radikalisierungsmotor in der Pandemie

Decorative image

Demokratien sollten Tech-Konzerne für die Gesamtheit der gesellschaftlichen Risiken, die sie verursachen, zur Verantwortung ziehen. Löschpflichten für strafbare Inhalte sind unverzichtbar, mildern aber bestenfalls die Symptome eines entfesselten Geschäftsmodells. Denn strafbarer Hass, wie etwa Mordaufrufe gegen Politiker:innen oder Medienschaffende, sind nicht der Anfang, sondern der Höhepunkt von Radikalisierungsprozessen, die auch Facebook und YouTube seit Jahren fördern.


Kluge Regulierung muss deshalb Standards für das Produktdesign setzen. Der Entwurf eines Digital Services Act (DSA) der EU-Kommission sieht vor, dass Tech-Riesen regelmäßig darlegen müssen, welche Maßnahmen sie ergreifen, um massiver Hetze vorzubeugen, und die Interessen von Nutzer:innen und Gesellschaft zu schützen.

Indem wir auf vier Gefahrenherde im Plattform-Design eingehen, zeigen wir auf, wie Meta, Google, YouTube und Twitter Radikalisierung während der Pandemie zugelassen und gefördert haben. Dabei greifen wir auf eigene Analysen und öffentlich verfügbare Informationen zurück. Letztere sind nur spärlich vorhanden, weil etwa Meta und Google Daten, die für wissenschaftliche Untersuchungen nötig wären, systematisch unter Verschluss halten.

Download assets

  • Big Tech als Radikalisierungsmotor in der Pandemie