MADRID, 16 (Portaltic/EP)
La plataforma de mensajería utiliza herramientas que permiten a los usuarios denunciar contenidos no permitidos en las políticas de uso con sistemas impulsados por aprendizaje automático que monitorizan la plataforma de manera proactiva.
Con estas herramientas, el equipo de Telegram elimina más de un millón de canales y más de diez millones de usuarios cada mes, como ha informado el director ejecutivo, Pavel Durov, a través de la red social X (antigua Twtter).
Se trata de un trabajo que, según Durov, el equipo de moderación lleva haciendo desde hace años, aunque se ha mantenido "en secreto", y que ahora se recoge en una página dedicada a los esfuerzos de moderación.
En ella, la compañía tecnológica indica que en 2024 ha bloqueado 15.578.753 de canales y grupos en los que se compartían contenidos que violaron las políticas de uso de servicio. De esa cifra, y bajo su política de "tolerancia cero" hacia el contenido de explotación sexual infantil, ha prohibido 709.484 canales y grupos.
Este caso, Telegram también recoge denuncias de organizaciones externas de todo el mundo, como Stichting Offlimits, Canadian Centre for Child Protection, National Center for Missing & Exploited Children e Internet Watch Foundation.
Adicionalmente, la página de moderación informa también de ha bloqueado 131.120 comunidades relacionadas con el terrorismo, que se dedican a realizar llamadas a la violencia y a difundir la propaganda terrorista.
Esta página llega después de que Durov anunciara en septiembre que pondría en conocimiento de las autoridades, bajo petición previa, todas aquellas cuentas en las que se compartiera contenido ilegal.
El directivo fue detenido en agosto por las autoridades francesas por delitos relacionados con la aplicación de mensajería, al entender que es un aliado potencial para la comisión de delitos de fraude, contra menores o tráfico de drogas entre otros, dadas las herramientas que ofrece, así como la falta de moderación en su uso y la escasa colaboración con las autoridades.