
Gabriela Chávez
Con el objetivo de mantener controlada la dispersión de contenido falso, o dañino, en la plataforma, la red social informó que ha endurecido los controles que tiene al interior de los grupos de Facebook para detectar este tipo de contenido, lo que en el último año le permitió remover un millón de grupos que no respetaron las políticas de la empresa.
“Nuestras Normas Comunitarias aplican tanto para grupos públicos como para privados, y nuestras herramientas proactivas de detección funcionan en ambos. Esto significa que aunque un problema no sea reportado por una persona, nuestra inteligencia artificial detecta contenido potencialmente violatorio y podemos removerlo”, publicó Tom Alison, vicepresidente de ingeniería de Facebook en un comunicado.
Una de las verticales sobre las que más se ha trabajado es en “limpiar” los grupos relacionados a información de salud de fake news. La organización Avaaz, citada por la agencia Reuters, comunicó que el contenido de salud engañoso sumó cerca de 3,800 millones de visitas en Facebook durante 2019, mismos que registraron un pico en medio de la pandemia por COVID-19.
Otros resultados del trabajo continuo por mantener seguros los grupos en la red social reflejaron que se removieron 1.5 millones de contenidos relacionados a discursos de odio organizado, además de 12 millones de contenidos que violaron las políticas de discursos de odio. Facebook informó que 87% de esta remoción se hizo de forma proactiva al usar herramientas de inteligencia artificial.
https://0a7e5dc1fe1a8bb7f5529048b7f926df.safeframe.googlesyndication.com/safeframe/1-0-37/html/container.html