Der höfliche Maulkorb

Eine britische Tragikomödie über Sicherheit, Moral und algorithmische Gouvernanten

Man stelle sich das Vereinigte Königreich als eine Art viktorianischen Salon vor, in dem die Gardinen stets akkurat gefaltet, die Teetassen poliert und die Gespräche streng moderiert werden. Man darf vieles sagen – solange man es nicht zu laut, nicht zu grob, nicht zu unerquicklich, nicht zu unerquicklich für Kinder, nicht zu unerquicklich für sensible Erwachsene, nicht zu unerquicklich für Algorithmen und schon gar nicht zu unerquicklich für die Regulierungsbehörde formuliert. In diesem diskreten Raum der zivilisierten Beklemmung ist der Online Safety Act 2023 das Möbelstück, das den Salon endgültig neu einrichtet: ein massiver Schrank aus moralischem Eichenholz, in dessen Schubladen sich Jugendschutz, Kriminalitätsbekämpfung, Plattformverantwortung, algorithmische Vorsorge und eine Prise staatsbürgerlicher Pädagogik befinden. Offiziell soll dieses Gesetz nichts weniger als das Internet zähmen – jenes anarchische, vulgäre, oft groteske Durcheinander aus Katzenvideos, politischem Zorn, Pornografie, Verschwörungstheorien und dem gelegentlichen Gedicht. Kritiker hingegen behaupten, der Staat habe damit einen höflichen, aber sehr stabilen Maulkorb entworfen. Die Wahrheit liegt, wie so oft im britischen Staatsrecht, irgendwo zwischen moralischer Fürsorge und paternalistischer Übergriffigkeit, gewürzt mit einer Prise institutioneller Selbstgewissheit: Wenn wir es regulieren, wird es schon vernünftig werden.

Algorithmische Gouvernanten und das pädagogische Internet

Der Online Safety Act ist, im Kern, ein großes Vertrauen in Technologieunternehmen – allerdings nicht in deren Innovationsgeist, sondern in deren Fähigkeit, massenhaft Inhalte zu filtern, zu sortieren und präventiv zu entfernen. Plattformen müssen nun proaktiv gegen „illegale Inhalte“ vorgehen, ein Begriff, der zwar zunächst nach Terrorismuspropaganda, Kindesmissbrauch und Betrug klingt (also Dingen, bei denen kaum jemand widerspricht), aber praktisch eine gigantische Moderationsmaschinerie erfordert. Man verlangt von globalen Plattformen, Milliarden Beiträge zu überwachen und gleichzeitig sicherzustellen, dass Kinder nicht mit Pornografie, Selbstverletzungsinhalten oder Essstörungsforen in Kontakt kommen. Der Gesetzgeber hat damit eine neue Berufsgruppe geschaffen: die algorithmische Gouvernante. Diese digitale Nanny sitzt unsichtbar zwischen Bildschirm und Gehirn und entscheidet mit mathematischer Höflichkeit, was wir sehen dürfen. Das Ergebnis ist ein bemerkenswertes Paradox: Das Internet, einst als chaotischer Raum radikaler Freiheit gefeiert, wird zunehmend wie ein gigantischer Kindergarten organisiert, in dem Erwachsene gelegentlich erklären müssen, dass sie tatsächlich erwachsen sind. Altersverifikation ist das Zauberwort – hochwirksam, zuverlässig, datenschutzfreundlich (so zumindest die offizielle Hoffnung). In der Praxis bedeutet es meist, dass man irgendwo ein Dokument hochlädt oder ein biometrisches System über sein Gesicht urteilen lässt, bevor man den digitalen Equivalent einer schmuddeligen Bahnhofsbuchhandlung betreten darf.

TIP:  Der Balkon von Kabul

Die Strafandrohung als pädagogisches Instrument

Der Staat hat den Plattformen auch eine äußerst höfliche, aber sehr deutliche Erinnerung an ihre Verantwortung geschickt: Wer sich nicht fügt, zahlt. Und zwar nicht symbolisch, sondern mit bis zu zehn Prozent des weltweiten Umsatzes oder 18 Millionen Pfund – je nachdem, was schmerzhafter ist. Das ist die Art von Strafe, die selbst gigantische Technologiekonzerne kurz innehalten lässt. Diese ökonomische Drohkulisse verwandelt Unternehmen in eine Art private Zensurbehörden, die im Zweifel lieber zu viel löschen als zu wenig. Denn der sicherste Weg, keine Strafe zu riskieren, besteht darin, problematische Inhalte möglichst früh zu entfernen. In der politischen Theorie nennt man das „Overblocking“, im Alltag heißt es schlicht: Der Algorithmus hat entschieden, dass dein Beitrag möglicherweise unerquicklich ist. Dass dabei satirische, journalistische oder künstlerische Inhalte gelegentlich unter die Räder geraten, gehört zur unvermeidlichen Kollateralästhetik moderner Plattformregulierung. Die Ironie besteht darin, dass ein Gesetz, das eigentlich gegen Kriminalität gerichtet ist, die Verantwortung faktisch an private Firmen delegiert, die wiederum automatisierte Systeme einsetzen, die wiederum mit bemerkenswerter Gleichgültigkeit zwischen Ironie, Wut, Kritik und Unsinn unterscheiden.

Moralische Hygiene im Zeitalter der Deepfakes

Als wäre das nicht genug, haben die Verschärfungen Anfang 2026 dem Gesetz eine weitere moralische Dimension hinzugefügt. Cyberflashing – das digitale Pendant zum Exhibitionismus – wurde ebenso priorisiert wie nicht-konsensuelle intime Deepfakes. Plattformen müssen solche Inhalte innerhalb von 48 Stunden entfernen. Kaum jemand wird ernsthaft gegen diese Regelung argumentieren, denn sie adressiert reale und oft traumatische Formen digitaler Gewalt. Doch auch hier zeigt sich das strukturelle Muster moderner Internetregulierung: Das Problem ist real, die Lösung technokratisch, und die Umsetzung hängt am Ende wieder von automatisierten Systemen ab, die Intimität, Einwilligung und Kontext algorithmisch interpretieren müssen. Gleichzeitig wird über drastische Einschränkungen sozialer Medien für unter 16-Jährige diskutiert. Der Gedanke dahinter ist verständlich: Jugendliche sollen vor toxischen Schönheitsidealen, Depressionstrends und digitalem Mobbing geschützt werden. Doch der Staat übernimmt damit zunehmend die Rolle eines moralischen Kurators, der entscheidet, welche Inhalte möglicherweise „Körperunzufriedenheit“ oder depressive Stimmung fördern. Wer schon einmal in der Geschichte der Kulturpolitik nachgeschlagen hat, weiß: Sobald der Staat beginnt, Gefühle zu regulieren, wird es kompliziert.

TIP:  Wichtig und Richtig, oder Zensur

Der alte britische Reflex: Ordnung über Freiheit

Diese Entwicklung passt allerdings erstaunlich gut zur britischen Rechtskultur. Anders als in den USA existiert im Vereinigten Königreich kein absoluter verfassungsrechtlicher Schutz der Meinungsfreiheit. Artikel 10 der Europäischen Menschenrechtskonvention – umgesetzt durch den Human Rights Act – garantiert zwar freie Meinungsäußerung, bezeichnet sie jedoch ausdrücklich als „qualifiziertes Recht“. Mit anderen Worten: Man darf seine Meinung sagen, solange sie mit anderen gesellschaftlichen Interessen vereinbar bleibt. Das klingt vernünftig und ist es oft auch. Doch es öffnet gleichzeitig die Tür für eine stetige Erweiterung staatlicher Eingriffe. Schon der Communications Act von 2003 verbietet „grob anstößige“ oder „bedrohliche“ Online-Kommunikation – ein Begriff, der so elastisch ist, dass er gelegentlich zu Verhaftungen wegen beleidigender Tweets führt. Der überarbeitete Public Order Act wiederum beschränkt Proteste, die „erhebliche Störungen“ verursachen. In einem Land, das historisch eher auf parlamentarische Pragmatik als auf absolute Grundrechte vertraut, erscheint das vielen Bürgern nicht einmal besonders radikal. Es ist einfach Verwaltung.

Die merkwürdige Koexistenz von Zensur und Redefreiheit

Besonders kurios wird die Situation, wenn man den Higher Education Freedom of Speech Act betrachtet, der ab 2025 die Meinungsfreiheit an Universitäten stärken soll und gegen das sogenannte „No-Platforming“ gerichtet ist. Während der Staat also das Internet stärker reguliert, versucht er gleichzeitig, die akademische Debattenkultur vor ideologischer Abschottung zu schützen. Es ist ein politischer Spagat, der fast schon literarische Qualitäten besitzt: Der Staat misstraut sowohl der unkontrollierten Öffentlichkeit als auch der moralisch eifrigen Universitätskultur und versucht daher, beide gleichzeitig zu disziplinieren. Das Ergebnis ist eine Art regulatorischer Januskopf: eine Regierung, die einerseits Redefreiheit verteidigt und andererseits digitale Räume zunehmend kuratiert.

Die Zukunft: das zivilisierte Internet

Was bleibt also von dieser großen britischen Internetreform? Wahrscheinlich ein Netz, das ein wenig sauberer, ein wenig sicherer und ein wenig langweiliger wird. Terrorpropaganda und kriminelle Inhalte werden hoffentlich schneller verschwinden. Gleichzeitig wächst die Wahrscheinlichkeit, dass Algorithmen zunehmend als moralische Gatekeeper fungieren. Der Online Safety Act ist damit weniger ein einzelnes Gesetz als ein Symptom: das Symptom einer Gesellschaft, die das Internet nicht mehr als anarchische Freiheit begreift, sondern als Infrastruktur, die wie Straßenverkehr oder Lebensmittelhygiene reguliert werden muss. Und so könnte das britische Modell zum Vorbild vieler Demokratien werden – ein Internet, das zwar weiterhin laut, bunt und widersprüchlich ist, aber immer häufiger von unsichtbaren Regeln strukturiert wird. Der ironische Kern dieser Entwicklung ist allerdings unübersehbar: Um die Freiheit des digitalen Raums zu schützen, baut man ein System, das ihn zunehmend kontrolliert. Ein höflicher Maulkorb bleibt eben ein Maulkorb – selbst wenn er aus bestem parlamentarischen Leder gefertigt ist und mit dem beruhigenden Etikett „Safety“ versehen wurde.

Please follow and like us:
Pin Share