Las grandes plataformas informáticas se han visto en la necesidad que desarrollar herramientas que permitan la autorregulación de contenidos nocivos.
La Comunidad Europea ha vendido ejerciendo una fuerte presión a grandes compañías de internet como Facebook, Twitter y Google a fin de ejercer controles sobre el contenido violento y extremista que viene incrementando constantemente a nivel global, pero que causa especial preocupación en el continente más afectado por ataques terroristas. Ante la carencia de legislaciones nacionales e internacionales al respecto, las cuales se encuentran en proceso de discusión, la Comunidad Europea aboga de momento por la autorregulación de las plataformas a fin de controlar los contenidos de una manera viable, sin comprometer los derechos humanos y las libertades fundamentales.

La autorregulación de contenido es por un tema de seguridad
Según un comunicado emitido por la primera ministra del Reino Unido, Theresa May, en septiembre del 2017, todo contenido extremista debe ser eliminado rápidamente a fin de prevenir la difusión de material que promueva el terrorismo, por medio de tecnologías que impidan dichas publicaciones.
Para tal fin, Facebook anuncia el lanzamiento de dos tecnologías de código abierto enfocadas en detectar videos y fotos enfocadas en contenido nocivo, explotación infantil, propaganda terrorista, así como violencia gráfica. Las tecnologías PDQ y TMK + PDQF son herramientas capaces de detectar contenido dañino mediante coincidencia de imágenes, diseñados para operar a gran escala, desarrolladas en asociación con la Universidad de Maryland, la Universidad de Cornell y el Instituto de Tecnología Massachusettes y la Universidad de California.

Las plataformas digitales trabajan para lograr la ciberseguridad
El trayecto es largo, como todos los aspectos que involucran a la seguridad informática en constante cambio. Aunque hay un amplio margen para que las tecnologías de control mejoren hoy en día; gracias a estos llamamientos Youtube es capaz de eliminar rápidamente el 70% del contenido violento y extremista en lapso de dos a ocho horas, posteriores a su carga. Facebook, por su parte, informó también sobre la eliminación del 99% del contenido relacionado con Al Qaeda y el terrorismo islámico, inclusive antes de ser reportado por los usuarios, debido a los sistemas de detección automática.