El estudio informó que la red social de Meta permitía la conexión de los usuarios que promueven la venta de material sexual infantil.
Una investigación conjunta de The Wall Street Journal (WSJ) e investigadores de la Universidad de Stanford y de la Universidad de Massachusetts Amherst reveló que el algoritmo de Instagram ayuda a conectar y promover una enorme red de cuentas dedicadas a la pedofilia y la compra de contenido sexual de menores de edad.
Según el informe, más del 90% de las cuentas que venden este tipo de material ilegal se encuentran conectadas entre sí a través de las recomendaciones de la red social, las cuales tienen como objetico vincular a aquellos que comparten ciertos intereses. Además, el 75% de estas cuentas también siguen o son seguidas por usuarios que publican imágenes o videos sexualmente explícitos de niños o adolescentes.
Los investigadores descubrieron que la red social de Meta, la cual tiene más de 1.300 millones de usuarios, le permitía a las personas buscar etiquetas explícitas y en ocasiones hasta emoticones que los conectaban a cuentas que usaban los términos para anunciar la venta de material sexual infantil y la organización de «reuniones» con menores.
Tal como señalaron los investigadores, quienes manejan estas cuentas no venden el material sexual ilícito de manera abierta, sino que ofrecen «menús» de contenido, permitiéndole a los compradores pedir «actos específicos». Entre estos ofrecimientos se encuentran los precios de videos de niños que se autolesionan e «imágenes del menor practicando actos sexuales con animales», afirmó el Observatorio de Internet de Stanford.
De acuerdo al informe del WSJ, Instagram le permitía a los usuarios buscar términos que sus propios algoritmos saben que pueden estar asociados con material ilegal, por lo que una pantalla emergente advierte que «estos resultados pueden contener imágenes de abuso sexual infantil», ofreciendo dos opciones : «Obtener recursos» y «Ver resultados de todos modos». Ante la insistencia del diario estadounidense, la red social eliminó la opción para que los usuarios vean los resultados de búsqueda de términos que probablemente produzcan imágenes ilegales, aunque se negó a explicar por qué había ofrecido la opción.
«La explotación infantil es un crimen horrible», explicaron desde Meta, y agregaron que se está «investigando continuamente formas de defenderse activamente contra este comportamiento». Igualmente, también admitieron que sus sistemas no son perfectos y que dependen en gran medida de las denuncias de los usuarios para actuar.
Por su parte, la compañía de Mark Zuckerberg, que cuenta con más de 3.000 millones de usuarios entre sus aplicaciones Instagram, Facebook y WhatsApp, aseguró que en los últimos dos años eliminó 27 redes de pedófilos, y que bloqueó miles de etiquetas que sexualizan a los niños, algunas con millones de publicaciones.
Alex Stamos, jefe del Observatorio de Internet de Stanford y que anteriormente ocupó el cargo de director de seguridad en Meta, afirmó que abordar los abusos obvios en Instagram requerirá un esfuerzo continuo, y explicó que el hecho de que un equipo académico conformado por solo tres personas y con acceso limitado haya logrado descubrir una red tan extensa de pedófilos debería ser motivo de preocupación para la compañía.