La fusillade meurtrière contre les mosquées de Christchurch en Nouvelle-Zélande a une nouvelle fois mis en lumière la difficulté de bloquer la diffusion de contenus violents sur les réseaux sociaux.
Après le massacre de Christchurch diffusé en direct sur Facebook, le réseau social déclare avoir supprimé 1,5 million de vidéos dans les 24 heures qui ont suivi.
Mais la Première ministre néo-zélandaise entend aller plus loin. « C’est un problème qui dépasse de loin la Nouvelle-Zélande, mais cela ne signifie pas pour autant que nous ne pouvons pas jouer un rôle actif pour le résoudre », a expliqué Jacinda Ardern à des journalistes à Wellington.
Après un entretien avec Sheryl Sandberg, la directrice des opérations de Facebook, elle a souligné que les autorités et les entreprises néo-zélandaises avaient fait de leur mieux pour tenter de supprimer certaines séquences violentes liées à l'attaque des mosquées, mais qu’il revenait aux plateformes de prendre des mesures.
Pas de contrôle avant diffusion
La vidéo du massacre a été diffusée en direct sur Facebook. L'extrémiste australien Brenton Tarrant s’est filmé en train de tirer à bout portant sur les victimes, pendant 17 minutes. Un temps largement suffisant pour que la vidéo soit enregistrée, copiée et partagée des milliers de fois à travers le monde sur YouTube, Twitter, WhatsApp et Instagram.
Le problème, c’est que les géants du numérique n’ont pas la possibilité de vérifier et a fortiori de bloquer les images avant leur diffusion, qui plus est quand elles sont tournées en direct.
Pour la cheffe du gouvernement néo-zélandais, les règles actuelles ne vont pas assez loin. Un sentiment partagé par le Premier ministre australien Scott Morrison qui attend lui aussi des réponses plus efficaces des réseaux sociaux.
1 Commentaires
On a tout compris
Ordo Ab Chaos
Participer à la Discussion