Cómo es la tecnología que usa Facebook para filtrar contenido inapropiado

En el segundo día de F8 2018 , la reunión anual para desarrolladores de Facebook , el jefe de tecnología de la compañía, Mike Schroepfer, ofreció un atisbo de lo que está haciendo la compañía para aplicar tecnología de avanzada en el análisis de las publicaciones de los usuarios, en un intento por frenar el contenido inapropiado que se publica en la red social: noticias falsas, spam, cyberbulling, etcétera, y que ha sido su principal dolor de cabeza en los últimos años.

Schroepfer mostró los avances que está logrando Facebook en el análisis de textos, de audio y, sobre todo, de imágenes y videos, un punto clave cuando desde la compañía estiman que el año próximo habrá más publicaciones en formato historias (típicas de Instagram, y que definió Snapchat), superando a las publicaciones tradicionales con una imagen, un texto y, tal vez, un link.

Las herramientas de Facebook no analizan cada cosa por separado, sino que tratan de cruzar la evaluación de cada elemento para entender el contexto en situaciones donde una frase puede tener un sentido positivo o negativo, no explicar una foto violenta, etcétera.

Schroepfer explicó que dejaron de usar los sets de imágenes estándar (clasificados a mano) para aprovechar 3500 millones de fotos etiquetadas y publicadas por los usuarios de las diversas plataformas de Facebook, lo que les dio una masividad enorme, gran diversidad y, de paso, no tuvieron que pagarle a nadie para que ordene esos datos: dejaron que los usuarios los ayuden.

También mostró cómo los sistemas de reconocimiento pueden identificar personas y objetos en fotos y videos, y hasta reconocer de qué se trata (si es una planta, qué especie; si es un perro, qué raza), logros que hasta ahora parecían ser exclusivos de los algoritmos de Google.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *