Facebook comienza a utilizarla para eliminar contenido inapropiadoLa red social más popular del mundo, Facebook, desde su base de San Francisco (California) ha emitido un comunicado mediante el cual subraya que “comenzará a utilizar inteligencia artificial para ayudar a eliminar el contenido inapropiado” que circula por esa red.
La medida anunciada (y necesaria) responde a las quejas constantes de que no se hace lo suficiente para evitar el contenido “extremista” en las plataformas de redes sociales.
Terrorismo en pleno
Monika Bickert, jefa de gestión de políticas mundiales de Facebook, dijo a principios de esta semana que la inteligencia artificial “se utilizará en gran medida junto con moderadores humanos que revisan el contenido caso por caso”.
Una de las primeras aplicaciones de la tecnología será el identificar el contenido que claramente viole los términos de uso de Facebook, como fotografías y videos de decapitaciones u otras imágenes grotescas, y hacer que los usuarios ya no puedan subirlas a la red.
“Recientemente, hemos visto más ataques terroristas, de manera trágica”, dijo Bickert. “Conforme suceden más ataques, hay más personas que le preguntan a las empresas de redes sociales qué están haciendo para eliminar este contenido”. Un contenido que puede ser visto, sin ninguna restricción, por todo tipo de usuarios, especialmente por niños.
Identificar conexiones
El sistema de inteligencia artificial podrá identificar frases o palabras-clave que pudieran ser apoyos al terrorismo. También identificará usuarios de Facebook relacionados con grupos extremistas o quienes creen cuentas falsas para emitir este tipo de mensajes.
La idea es que desaparezcan los moderadores humanos, que, por fuerza, tienen que desarrollar lentamente las acciones que la inteligencia artificial podría detectar en segundos, pero todavía no está tan depurado el sistema operativo como para prescindir del “factor humano”.
Brian Fishman, el gestor de políticas contraterroristas de Facebook, dijo que la empresa tenía un equipo de 150 especialistas que trabajan en 30 lenguas y se encargan de revisar el contenido, sin embargo no han podido detectar y desactivar a tiempo a grupos extremistas como los que han actuado últimamente en Inglaterra.
YouTube quiere detenerlos
También YouTube anunció recientemente que mejorará sus procesos para remover los videos de contenido extremista. Además etiquetará como peligrosos otros que no necesariamente violan la política de contenidos pero en los que, por ejemplo, se habla de subyugar a alguna religión.
Sin embargo, el problema de este tipo de medidas es qué es lo que se va a calificar como terrorismo: ¿solamente lo proveniente de grupos como el ISIS o también estarán vedados los grupos supremacistas blancos o los de carácter neonazi?
Bickert dijo que Facebook tenía la esperanza de que la nueva tecnología de inteligencia artificial pudiera usarse “para contrarrestar cualquier forma de extremismo que violara los términos de uso de la empresa, aunque por el momento se enfocará de manera restringida”.
La falla principal
La inteligencia artificial puede actuar con rapidez, puede detectar contenido extremista. Los monitores humanos, también. Lo que no pueden hacer tanto la una como los otros es desactivar una corriente de adhesión por hartazgo, por falta de sentido de la vida, por pobreza moral de los jóvenes que son la carne de cañón de los extremistas de toda índole.
Pueden no publicar videos en Facebook, pero la adhesión a los grupos terroristas (que se lleva a cabo frecuentemente fuera de la red, no se podrá detener, salvo con la recuperación de los valores de la información, con las leyes del periodismo, que han sido violadas, sistemáticamente, por millones de usuarios de redes sociales, donde no es necesario saber algo para proclamarlo como verdad.
Como preguntó Jillian York, la directora de libertad de expresión internacional de la Electronic Frontier Foundation. “¿Están tratando de desanimar a las personas para que no se unan a grupos terroristas en un principio o para que no publiquen contenido terrorista en Facebook?”
Con información de The New York Times en español