
Le Forum économique mondial partage son plan de censure contre les abus en ligne.
Problèmes, les réseaux pédophiles sont les leurs, vous n’avez qu’à commencer par un test sur Tweeter, déjà avec de simple petite recherches faciles, que vous pourrez multiplier par milliers d’autres termes que nous ne voulons pas diffuser ici, par respect, mais le WEF nous y obligera un jour par sa démarche hypocrite.
E. Musk avait raison, la moitié de Tweeter, sans compter les bots, est un des plus grands pourvoyeurs pédophiles et de traite humaine sexuelle des réseaux. Et combien d’autres leur appartiennent-ils ? Instagram, etc… C’est donc une belle excuse du WEF pour au contraire museler encore plus la liberté d’expression et prendre le contrôle total du net, “TOTALITARISME”. Les pseudos cyber hacker de la recherche justement et complice de ce système, comme nous le savons, sachez que le boomerang peut faire mal un jour.
Publié le 17.8.2022
Ceci est un extrait de The Daily Wire qui rapporte : La semaine dernière, le Forum économique mondial a publié un rapport décrivant un plan visant à atténuer “le monde obscur du préjudice en ligne” en utilisant l’intelligence humaine et artificielle pour censurer les mauvais acteurs qui produisent et encouragent la maltraitance des enfants, la désinformation et les discours de haine.

Inbal Goldberger, vice-président de Trust and Safety chez ActiveFence, une société qui détecte les contenus en ligne malveillants, a publié une tribune sur le site Web de l’organisation mondiale, proposant une solution aux abus en ligne. Ces solutions permettraient de combiner l’intelligence artificielle et les “experts en la matière” pour “détecter les nouveaux abus en ligne à grande échelle, avant qu’ils n’atteignent les plateformes grand public”.
Goldberger a déclaré qu’une approche de la modération du contenu alimentée par l’intelligence fonctionnerait en permettant aux équipes humaines et à l’IA de signaler ou de supprimer les éléments à haut risque après avoir transmis des millions de sources à travers des ensembles d’entraînement.
“En complétant cette détection automatisée plus intelligente par une expertise humaine pour examiner les cas limites et identifier les faux positifs et négatifs, puis en réinjectant ces résultats dans les ensembles d’entraînement, nous pourrons créer une IA dotée d’une intelligence humaine intégrée”, a-t-elle écrit. “Cette IA plus intelligente devient plus sophistiquée à chaque décision de modération, permettant finalement une détection quasi parfaite, à l’échelle.”
Goldberger fait valoir que l’accès en ligne a joué un rôle essentiel dans la perception publique d’événements tels que les récessions, les virus et les guerres. Alors que les opinions extrêmes, la diffusion de la désinformation et la grande portée des documents relatifs aux abus sexuels sur les enfants ont été permises depuis la naissance d’Internet.
“Avant d’atteindre les plateformes grand public, les acteurs de la menace se rassemblent dans les coins les plus sombres du web pour définir de nouveaux mots-clés, partager des URL vers des ressources et discuter longuement de nouvelles tactiques de diffusion”, a déclaré Goldberger. “Ces lieux secrets où les terroristes, les groupes haineux, les prédateurs d’enfants et les agents de désinformation communiquent librement peuvent constituer une mine d’informations pour les équipes qui cherchent à assurer la sécurité de leurs utilisateurs.”
Le National Center for Missing and Exploited Children a révélé que plus de 29,3 millions de signalements de matériel d’abus sexuel d’enfants ont été faits à la CyberTipline 2021 – une augmentation de 35% par rapport à 2020.
Entre le problème de la pédopornographie en ligne et la pression pour faire taire la désinformation et les discours de haine, beaucoup ont fait valoir que l’idée de censure automatisée partagée par le groupe d’élite basé à Davos pourrait produire une pente glissante de plus d’autoritarisme.
“Celui qui contrôle l’information contrôle le monde”, a déclaré Young Americans for Liberty dans un tweet faisant référence au plan.
Dave Reaboi, consultant en sécurité nationale et en guerre politique et membre senior du Clairemont Institute, a déclaré dans un tweet que l’approche de modération du contenu serait “la tyrannie la plus monstrueuse que l’histoire ait jamais vue”.
Vous devez être connecté pour poster un commentaire.