Des milliers d’enfants se font exploiter tous les jours sur Internet et la société les laisse à leur sort
Le Centre canadien de protection de l’enfance propose un cadre pour remettre les droits des enfants au centre de l’attention
Pour publication immédiate
Winnipeg (Manitoba) — Le Centre canadien de protection de l’enfance (CCPE) dévoile aujourd’hui un nouveau cadre pour la protection et les droits de l’enfant intitulé Nos manquements envers les enfants : Changer le paradigme. Ce document attire l’attention sur le fait que l’industrie ne parvient pas à réagir efficacement aux demandes de suppression d’images d’abus pédosexuels sur Internet. Il propose des principes d’action qui prônent la protection et les droits de l’enfant.
Il est indéniable que les images d’abus pédosexuels et leur multiplication sur Internet sont une épidémie sociale qui affecte considérablement la vie des enfants et des survivantes et survivants ainsi que des personnes qui tâchent de les protéger. Jusqu’ici, la suppression des images d’abus pédosexuels a été laissée en grande partie au bon vouloir de l’industrie, en l’occurrence les entreprises qui traitent le contenu généré par les utilisateurs sur Internet. À travers l’expérience du Projet Arachnid — notre plateforme pour détecter les images d’abus pédosexuels sur le Web visible et invisible et envoyer des demandes de suppression à l’industrie — le CCPE en est venu à s’inquiéter énormément de la variabilité avec laquelle les membres de l’industrie se soucient de la protection des enfants. Certaines entreprises de technologie se montrent réactives, tandis que d’autres se montrent résistantes, récalcitrantes ou complices. Ce manque de suivi et de responsabilité fait en sorte que des milliers de photos et de vidéos d’abus pédosexuels restent en ligne et conduisent à la revictimisation d’enfants à travers ces images horribles.
Le CCPE mène la lutte contre cette épidémie sociale mondiale à travers le Projet Arachnid. Depuis son lancement il y a presque trois ans, le Projet Arachnid a détecté plus de 13,5 millions d’images d’abus pédosexuels et envoyé près de cinq millions de demandes de suppression à des fournisseurs de contenu dans le monde entier.
Les données tirées du Projet Arachnid sur l’impasse actuelle entourant la suppression des images d’abus pédosexuels ont mené à l’élaboration du nouveau cadre et de ses principes d’action :
- Toutes les images enregistrées dans le contexte d’un abus pédosexuel1 impliquant un enfant victime (identifiée ou non) devront être supprimées immédiatement par l’industrie.
- Les photos et vidéos d’enfants nus ou partiellement nus qui ont été rendues publiquement accessibles (généralement après avoir été volées sur des comptes de médias sociaux non sécurisés ou prises subrepticement) ET qui sont utilisées dans un contexte sexualisé devront être supprimées immédiatement par l’industrie.
- Les photos et les vidéos d’un enfant en situation de violence physique, de torture ou de contention devront être supprimées immédiatement par l’industrie.
La nécessité d’un tel cadre et d’une réponse immédiate de l’industrie a été mise en relief par les résultats d’un court sondage lancé par le CCPE. Suite à la publication par le New York Times, en novembre 2019, d’un article intitulé « Child Abusers Run Rampant as Tech Companies Look the Other Way » (Les abuseurs d’enfants ont beau jeu pendant que les entreprises de technologie ont le dos tourné), le CCPE a pris le pouls de l’opinion publique sur la responsabilité de l’industrie vis-à-vis de la suppression des images d’abus pédosexuels sur Internet. En un peu plus de trois semaines, plus de 2 000 personnes ont répondu au sondage, dont voici les faits saillants :
- 83 % des répondants estiment que des accusations criminelles devraient être déposées contre les entreprises de technologie qui omettent de supprimer des images d’abus pédosexuels de leurs serveurs. 13 % estiment que ces entreprises devraient être mises à l’amende.
- 91 % des répondants estiment que les gouvernements devraient adopter des lois pour obliger les entreprises de technologie à se conformer à des normes de sécurité assorties de sanctions pour les entreprises récalcitrantes.
- 94 % des répondants estiment que les entreprises de technologies, lorsqu’elles sont informées que des images volées d’enfants sont republiées ou diffusées dans un contexte sexuel sur leurs serveurs et leurs plateformes, devraient être obligées par la loi de supprimer ces images.
Pour consulter le résumé (en français) et la version intégrale (en anglais seulement pour l’instant) de Nos manquements envers les enfants : Changer le paradigme, cliquez protegeonsnosenfants.ca/cadre.
Citations :
« Les politiques actuelles en matière de suppression d’images d’abus pédosexuels sont axées sur la détermination et la suppression des images jugées illégales en vertu du droit pénal. À la différence, le cadre que nous proposons place au premier plan les intérêts supérieurs des enfants et leur droit à la dignité, à la vie privée et à la protection. Il est indéniable que les droits d’un enfant victime seront sans cesse violés tant que des images de violence et d’abus à son endroit seront accessibles sur Internet. »
« Depuis le début, Internet est une arme dirigée contre les enfants du monde entier. Depuis le début, les entreprises de technologie négligent de faire en sorte que leurs plateformes ne servent pas à publier des images d’abus pédosexuels. Depuis le début, les entreprises technologie se développent tout en fermant les yeux sur les agissements horribles de millions de leurs utilisateurs dans le monde entier. Ces comportements honteux doivent cesser. Nous devons nous réapproprier nos communautés en ligne et tenir les entreprises de technologie responsables de leurs gestes et de leur inaction. En mettant l’accent au bon endroit — sur les jeunes victimes —, le Centre canadien de protection de l’enfance prend les moyens tant attendus pour reformuler le problème et la solution. »
« Ce cadre est manifestement centré sur la victime; c’est tellement rafraîchissant que j’en suis sans mots. J’entendais et je pensais depuis si longtemps que la suppression des images était une tâche trop ambitieuse. Il y a dans ce cadre des tas d’éléments qui valident des tas de sentiments qui me hantent et m’irritent depuis toutes ces années. C’est SÛR que ça va faire une différence! »
- 1 Y compris les images apparemment générées par la victime elle-même. ↩