Facebook fait appel à la police — Retransmissions d'attaques extrémistes

Facebook fait appel à la police — Retransmissions d'attaques extrémistes

Dans le but de créer une intelligence artificielle capable d'identifier ce genre de fait, des images d'exercices de tir seront notamment partagées. Elle permet également à cibler les mouvements ou individus prêchant le suprémacisme blanc et de les ajouter, ainsi, à sa liste "d'organisations terroristes".

Effectivement, le réseau social a été très critiqué à cause de la diffusion en direct d'une attaque d'un suprémaciste blanc le 15 mars. Ce dernier s'est filmé pendant qu'il attaquait une mosquée à Christchurch, en Nouvelle-Zélande.

La police métropolitaine partagera une vidéo de la formation de ses officiers des armes à feu avec Facebook afin de l'aider à développer une technologie permettant d'identifier la diffusion en direct d'une attaque sur sa plateforme.

Depuis cet événement, différentes initiatives ont été prises par l'entreprise telle des restrictions pour l'accès à Facebook Live, des rencontres avec des responsables politiques.

La vidéo sera également fournie au gouvernement pour être utilisée par d'autres entreprises développant des technologies visant à mettre fin à la diffusion en direct de la violence sur Internet.


D'après les informations, la police de Londres apportera son concours à partir du mois d'octobre.

Pour entraîne l'IA, les images filmées par les caméras portées par les unités de police de la Met (Metropolitan Police Service) lors de leurs entraînements au tir viendront alimenter et enrichir la banque d'images que Facebook a déjà constituée grâce aux forces de l'ordre aux Etats-Unis.

Pour pouvoir apprendre à les identifier correctement, les outils d'intelligence artificielle ont besoin de quantités énormes de données. La difficulté réside dans le fait que la machine doit pouvoir faire la différence entre une attaque dans la vraie vie et une scène de fiction.

Neil Basu, commissaire adjoint de la police métropolitaine chargé de la lutte contre le terrorisme devant le New Scotland Yard à Londres, le 13 mars 2018. Le réseau rappelle avoir banni 200 organisations suprémacistes blanches.

Facebook a aussi élargi les missions d'une équipe de 350 experts du maintien de l'ordre, de la sécurité nationale, de l'anti-terrorrisme mais aussi des universitaires spécialisés dans l'étude du phénomène de radicalisation pour juguler les efforts "de gens et d'organisations qui appellent à la violence ou commettent des actes violents qui ont un impact dans le monde réel" et pas seulement en ligne.

Articles Liés