Comparitech
La marée montante des contenus pédophiles sur les médias sociaux par Comparitech
Publié le 24.2.2021 par Paul Bischoff Écrivain, défenseur de la vie privée et expert en réseaux privés virtuels @pabischoff

Rien qu’en 2020, Facebook a supprimé 35,9 millions de contenus signalés sous la rubrique « nudité et exploitation sexuelle des enfants », selon le dernier rapport de transparence du réseau social. Et Facebook n’est pas seul ; Instagram, Youtube, Twitter, TikTok, Reddit et Snapchat combinés suppriment des millions de publications et d’images qui ne respectent pas les directives de la communauté concernant les abus sur les enfants.
Lorsqu’on parle de pédopornographie, la discussion porte souvent sur les coins sombres de l’internet : Omegle, le dark web, Usenet, les applications de chat cryptées de bout en bout, etc. Mais le problème ne se limite pas aux groupes privés ou aux plateformes anonymes. Mais le problème ne se limite pas aux groupes privés ou aux plateformes anonymes. Des milliers d’images et de messages contenant des abus, de l’exploitation et de la nudité sur des enfants sont supprimés chaque jour par les plus grands noms des médias sociaux.
Les chercheurs de Comparitech se sont plongés dans les rapports de transparence de sept des plus grands réseaux sociaux afin de déterminer la prévalence de la maltraitance des enfants sur leurs plateformes. Les rapports de transparence comprennent généralement les suppressions de contenu, qui sont réparties en plusieurs catégories. Nous avons examiné les suppressions de contenu spécifiquement liées à la nudité, aux abus et à l’exploitation sexuelle des enfants.
TikTok a vu presque doubler le nombre de suppressions de contenu pour « sécurité des mineurs » entre 2019 et 2020.
Youtube, Reddit et Snapchat ont vu le nombre de suppressions de contenus liés à l’exploitation sexuelle des enfants augmenter entre 2018 et 2020, tandis que Facebook et Twitter ont tous deux vu le nombre de ces suppressions diminuer (bien que légèrement) au cours de la même période.
Si TikTok a enregistré le taux le plus élevé de suppressions de contenus liés à la maltraitance des enfants, il classe largement ces cas dans la catégorie « sécurité des mineurs » au lieu de « exploitation sexuelle des enfants » ou autre. Sur l’ensemble des demandes de suppression de TikTok, 23,1 % ont été classées dans la catégorie « sécurité mineure ».
C’est sur Facebook que la proportion de suppressions de contenus liés à la maltraitance des enfants est la plus faible, même si ce sont les contenus les plus supprimés dans l’ensemble. Seulement 0,34 % des suppressions concernaient l’exploitation sexuelle des enfants.
Méthodologie et limites
Nous avons utilisé les chiffres de suppression de contenu de chacun des derniers rapports de transparence disponibles des réseaux sociaux suivants :
Facebook – du troisième trimestre 2018 à aujourd’hui.
Instagram – du 2ème trimestre 2019 à aujourd’hui
Youtube – du 3e trimestre 2018 à aujourd’hui
Twitter – de juillet 2018 à juin 2020
TikTok – de juillet 2019 à aujourd’hui
Reddit – du T1 2018 à aujourd’hui
Snapchat – de juillet 2019 à juin 2020
Notez que certains rapports ne couvrent pas une année entière, car la déclaration peut avoir commencé ou s’être terminée en milieu d’année. Les chiffres globaux pour l’année sont uniquement basés sur la période pendant laquelle la maltraitance des enfants a été reconnue comme une catégorie, afin de fournir un pourcentage équitable.
Dans son rapport, Snapchat ne couvre que les comptes supprimés, et non les contenus individuels supprimés.
Twitter couvre à la fois les comptes bannis et les suppressions de contenus spécifiques.
Certains réseaux sociaux, dont Tumblr et Pinterest, n’ont pas fourni suffisamment de données pour que nous puissions les analyser.
Les rapports de transparence ne sont vraiment devenus une tendance parmi les entreprises de médias sociaux qu’en 2018, nous n’avons donc pas une tonne de données historiques sur lesquelles nous appuyer. En outre, les changements dans les politiques de modération du contenu pourraient fausser les chiffres.
Ce que les entreprises technologiques font à ce sujet
Les suppressions de contenu sont généralement le résultat d’un filtre automatisé ou du signalement par les utilisateurs d’un service d’un contenu qu’ils jugent inapproprié. Dans certains cas, des modérateurs humains peuvent être utilisés pour juger si un contenu doit être supprimé, mais il serait pratiquement impossible pour des modérateurs d’examiner chaque élément publié sur un réseau social.
La pédopornographie est illégale aux États-Unis (et à peu près partout dans le monde) et n’est pas protégée par le premier amendement. Toutefois, en vertu de l’article 230 de la loi sur la décence des communications, les entreprises de médias sociaux sont protégées contre toute responsabilité lorsque leurs utilisateurs publient des informations illégales. Elles ne peuvent donc pas être poursuivies lorsque leurs utilisateurs publient des contenus relatifs à l’abus d’enfants.
Néanmoins, les entreprises de médias sociaux ne veulent certainement pas être associées aux abus d’enfants, et font donc tout leur possible pour supprimer ces contenus le plus rapidement possible. Jusqu’à présent, leurs tactiques sont essentiellement réactives, et non proactives. La présélection du contenu serait probablement trop lourde et poserait de graves problèmes de confidentialité.
Récemment, Apple a commencé à hacher les fichiers d’images sur le stockage iCloud des utilisateurs pour voir s’ils correspondent à ceux d’une base de données des forces de l’ordre contenant des images d’abus d’enfants. Cela permet à Apple d’analyser le stockage des utilisateurs à la recherche de pornographie enfantine sans avoir à consulter les fichiers des utilisateurs. Certains défenseurs de la vie privée s’opposent toujours à cette tactique, et elle n’est pas parfaite, mais elle pourrait être un compromis que d’autres entreprises technologiques décideront d’adopter.
Chercheur : George Moody
En savoir plus sur L'Informateur
Subscribe to get the latest posts sent to your email.





Vous devez être connecté pour poster un commentaire.