"Etwas läuft falsch im Internet", schrieb der Autor und Künstler James Bridle diese Woche in einem Blogbeitrag. "Jemand oder etwas" nutze YouTube aus, um Kinder auf der Plattform systematisch zu ängstigen, traumatisieren und zu missbrauchen. Bridles Beitrag folgt einem Artikel in der New York Times in der vergangenen Woche, der im Ton gemäßigter ist, aber dennoch die gleiche Frage stellt: Wie sicher sind Kinder auf YouTube wirklich?

Kinder zählen längst zu den wichtigsten Nutzern von YouTube. Selbst Klein- und Vorschulkinder finden dort inzwischen Millionen von Inhalten, die das traditionelle Fernsehen ablösen. YouTube bietet eine schier unendliche Abfolge von Videos mit animierten Figuren, Kinderreimen und putzigen Charakteren. Vor zwei Jahren hat die Plattform mit YouTube Kids eine eigene App veröffentlicht, in der ausschließlich altersgerechte Videos zu finden sein sollen. Mehr als 45 Millionen mal wurde die App inzwischen installiert; seit September dieses Jahres gibt es sie auch in Deutschland.

Verstörende Inhalte zwischen harmlosen Clips

YouTube Kids soll ein sicherer Ort für die jüngsten Medienkonsumenten sein, voller bunter und harmloser Inhalte. Doch wie Bridle und andere vor ihm herausfanden, ist das längst nicht immer der Fall. Regelmäßig schaffen es Videos in das Kinderangebot, die auf den ersten Blick harmlos erscheinen, auf den zweiten Blick für Kinderaugen aber verstörend sind.

Da wäre etwa ein Video mit der britischen Comicfigur Peppa Pig, in dem die Charaktere plötzlich Bleichmittel trinken. In einem anderen werden bekannte Kinderbuchfiguren überfahren und sterben einen qualvollen Tod. Andere bestehen aus sexuellen Anspielungen; so wird in zahlreichen Clips immer wieder der Rock von Minnie Maus gestohlen. Manche Inhalte sind noch expliziter und einzelne zeigen tatsächlich Interaktionen zwischen Erwachsenen und Kindern, die an die Grenze des psychischen Missbrauchs gehen.

Einzelne Clips wie der mit Peppa Pig lassen sich in der Trollkultur verorten (tatsächlich gibt es auf YouTube eine ganze Fake-Peppa-Pig-Subkultur); er enthält abgestandene Memes und ist offensichtlich eine Parodie, die nicht für Kinderaugen gedacht ist. Bei anderen ist der Ursprung vernebelter, wie James Bridle schreibt. Er erwähnt in seinem Beitrag Kanäle, die teilweise Millionen Abonnementen haben und stets dem gleichen Schema folgen: Sie bestehen aus Videos, die scheinbar wahllos animierte Figuren, Kinderreime und Erklärvideos zusammenschneiden und sie mit dutzenden auf YouTube Kids beliebten Schlagwörtern versehen. Viele haben kein Impressum.

Die Algorithmen bestimmen den Inhalt

Ihren Erfolg verdanken sie YouTubes Algorithmen. Sie schlagen jedem Nutzer Inhalte vor, die diesem auch gefallen könnten, basierend auf den Suchbegriffen und zuvor angesehenen Clips. Für YouTube Kids soll die Auswahl eigentlich restriktiver sein. Die Algorithmen sollen, sagt YouTube, erkennen, ob ein Video für Kinder geeignet ist. Doch der ganze Prozess ist auch hier weitestgehend automatisiert. Videos werden erst dann von einem menschlichen Mitarbeiter überprüft, wenn sie von einem Nutzer gemeldet werden. "YouTube Kids ist kein betreutes Angebot", sagt der für Kinderinhalte verantwortliche YouTube-Manager Malik Ducard im Gespräch mit der New York Times. Es liege weiterhin an den Eltern, Suchbegriffe und Kanäle zu deaktivieren und ungeeignete und nicht-altersgerechte Inhalte zu melden.

Im August legte ein längerer Artikel im US-Magazin The Atlantic offen, wie leicht sich gerade bei Kinderinhalten die Algorithmen überlisten lassen. Weil Kinder anders als Erwachsene immer und immer wieder die gleichen Inhalte gucken, ist es leichter, gezielt ähnliche Videos zu produzieren. "Automatische Belohnungssysteme wie auf YouTube fördern dessen Ausnutzung", schreibt James Bridle.