dennizn / 123RF Bevorstehende Richtlinienänderungen und ein erweiterter Überprüfungsprozess tragen dazu bei, dass YouTube-Videos, in denen beliebte Kindercharaktere mit Inhalten für Erwachsene gemischt werden, nicht in jungen Augen erscheinen. Diese Woche hat YouTube eine neue Richtlinie veröffentlicht, die in den nächsten Wochen veröffentlicht wird, um das ungewöhnliche Segment von Videos, in denen Kinderfiguren mit Gewalt und sexuellen Inhalten gemischt werden, von der YouTubes Kids-App fernzuhalten und für Benutzer, die in einem Desktop-Konto angemeldet sind, nicht zugänglich zu sein nicht für einen Erwachsenen registriert.
Während ein Artikel der New York Times Anfang dieser Woche auf das wachsende Problem hinwies, sagte YouTube, dass bereits an einer Lösung gearbeitet wurde und das Update nicht das Ergebnis der jüngsten Nachrichten ist. Sobald das Update gestartet wird, sind Videos, die in der YouTube-Haupt-App markiert sind, automatisch altersbeschränkt, wodurch verhindert wird, dass das Video in der YouTube Kids-App angezeigt wird.
Die Änderungen betreffen eine Mischung aus Computeralgorithmen und menschlichen Gutachtern. Zunächst kennzeichnet das Computersystem alle Videos mit potenziell schädlichen Inhalten. Ein Team von Richtlinienprüfern überprüft dann alle gekennzeichneten Inhalte. Da markierte Videos automatisch entfernt werden, werden diese Videos nur dann in der Kinder-App angezeigt, wenn ein menschlicher Rezensent feststellt, dass das Video nicht verletzt wird. Die Aussage von YouTube, Tausende von Rezensenten in verschiedenen Zeitzonen zu haben, legt jedoch nahe, dass markierte Videos nicht in der App verbleiben diese Schwebe für sehr lange.
Die gefälschten Cartoons werden nicht von YouTube gelöscht, aber Videos, die gegen die neue Richtlinie verstoßen, sind altersbeschränkt. Neben der Nicht-Teilnahme an der YouTube Kids-App stehen Videos mit Altersbeschränkung auch Nutzern nicht zur Verfügung, die in einem Konto angemeldet sind, in dem ein Alter unter 18 Jahren aufgeführt ist. Neben der Mischung aus Algorithmen und Mitarbeiterbewertungen gibt es laut YouTube auch Freiwillige auf der Suche nach unangemessenen Inhalten.
Anfang dieses Jahres hat YouTube Werbung aus diesen Arten von Videos entfernt, was bedeutet, dass die Entwickler kein monetäres Motiv mehr für die Erstellung dieser Art von Inhalten haben. Die Änderung wurde zusammen mit dem Hinzufügen von Videos gestartet, die Hass in die Liste der Inhalte einfließen lassen sollen, die nicht für Einnahmen in Frage kommen.
Letzte Woche startete YouTube eine Neugestaltung der Kinder-App mit individuellen Profilen für jedes Kind und einer Benutzeroberfläche, die sich je nach Alter des Kindes ändert. Das Unternehmen sagt, dass YouTube Kids jetzt mehr als 11 Millionen Nutzer hat, die jede Woche aktiv sind.