Sur Instagram, des réseaux pédophiles recommandés par les algorithmes

D’après une enquête du « Wall Street Journal », du contenu pédopornographique et pédophile est illégalement recommandé sur le réseau social. Meta reconnaît des erreurs et assure faire le nécessaire.

Après les réseaux complotistes, les réseaux pédophiles. D’après une enquête menée par le Wall Street Journal et des chercheurs de l’université de Stanford aux États-Unis publiée ce mercredi 7 juin, l’algorithme mis en place par la société Meta sur son réseau social Instagram recommande du contenu pédopornographique aux utilisateurs pédophiles. La plateforme permet en outre la recherche de hashtags explicites, qu’elle est pourtant censée bannir.

Ces comptes pédopornographiques, qui proposent leur service via des liens en description, prétendent en général être gérés par des mineurs eux-mêmes. Ils affichent le plus souvent des pseudos explicites, qui permettent aux utilisateurs intéressés de les trouver sans trop de difficultés. Ces derniers proposent alors toutes sortes de services contre rémunération, de l’achat de contenu pédopornographique à des rencontres réelles, selon le Wall Street Journal.

Pour leur enquête, les chercheurs de Stanford ont créé plusieurs comptes tests. Selon leurs observations, consulter un seul compte pédopornographique sur Instagram a entraîné immédiatement des recommandations similaires du réseau social. Une fois quelques comptes pédophiles suivis, ces comptes tests ont été littéralement inondés de contenus du même type.

Meta reconnaît des erreurs

La promotion de contenu pédopornographique et pédophile viole les règles établies par Meta, mais également par la loi fédérale américaine. Pourtant, toujours selon le Wall Street Journal, Instagram permet la recherche de termes associés, alors qu’il est censé les bannir. Seul un message avertissant de résultats pouvant contenir « des images d’abus sexuels sur des enfants » est affiché par le réseau social.

Le directeur de l’Observatoire Internet de Stanford − et ancien directeur de la sécurité de Meta jusqu’en 2018 − a réagi auprès de nos confrères d’Outre-Atlantique. « Qu’une équipe de trois universitaires avec un accès limité puisse trouver un réseau aussi vaste devrait déclencher des alarmes chez Meta », a-t-il déclaré, ajoutant que la société devrait réinvestir « dans des enquêteurs humains ».

Sollicitée par le Wall Street Journal, la maison-mère d’Instagram et Facebook a reconnu des erreurs, tout en assurant avoir mis en place des groupes de travail en interne pour régler ces dysfonctionnements au plus vite. « Nous recherchons en permanence des moyens de nous défendre activement contre ce comportement », a réagi l’entreprise, estimant que l’exploitation sexuelle des enfants constituait « un horrible crime ».

Des milliers de hashtags bloqués

D’après Meta, des milliers de hashtags illégaux comme ceux mis en exergue par le média américain ont été bloqués depuis la publication de l’enquête. La société assure travailler activement pour empêcher la recommandation de contenus et de comptes pédopornographiques et indique avoir supprimé un total de 27 réseaux pédophiles de sa plateforme ces deux dernières années.

La loi fédérale américaine impose aux entreprises américaines le signalement systématique d’images d’abus sexuels sur des mineurs au National Center for Missing & Exploited Children (NCMEC). Si Instagram indique avoir signalé 6,1 millions de contenus correspondants aux autorités entre septembre et janvier 2022, une autre enquête du Guardian publiée au mois d’avril dénonçait à quel point la lutte des réseaux sociaux de Meta contre la pédopornographie et la pédophilie est insuffisante.

À voir également sur Le HuffPost :

Sur Twitter, nos conseils face aux faux comptes certifiés qui déboulent à cause d’Elon Musk

Le casque Apple Vision Pro impressionne, mais son prix aussi

VIDÉO - Église et pédophilie: la Conférence des évêques de France annonce la création une carte d'identification modernisée des prêtres