Cómo Facebook pretende reducir el alcance de discursos de odio, noticias falsas y contenido provocativo

Mark Zuckerberg ha anunciado una serie de medidas para reducir el alcance y capacidad de viralización de contenido provocativo, discursos de odio y noticias falsas en Facebook. En el proceso ha usado argumentaciones moralinas que demuestran que el problema de fondo en la red social sigue latente.

En el enésimo intento de lavar la imagen de Facebook, sobre todo como reacción a la investigación publicada por el New York Times en relación a la crisis de reputación por la que están atravesando, Mark Zuckerberg ha anunciado cambios en la forma en que funciona la red social para evitar la propagación de contenido “sensacionalista y provocativo”.

“Sensacionalista” y “provocativo” son dos palabras elegidas por el equipo de relaciones públicas de la red social para referirse a noticias falsas y contenido extremista, sin tener que usar esos adjetivos. En fin. El objetivo, aseguran, es prevenir el clickbait y la desinformación en la red social.

El CEO de Facebook ha explicado que en su red social la gente de forma natural interactúa más con contenido sensacionalista. Aunque eso tiene cierto grado de verdad, lo que evita decir es que el algoritmo que su propia compañía ha creado y que tanto daño ha hecho en épocas recientes, premia dichos comportamientos y aumenta la frecuencia en que se muestra ese tipo de temas.

Entonces cambiarán el algoritmo para reducir la distribución de contenido dañino a medida que se hace más y más extremista y así, supuestamente, prevenir que se viralice. La metodología no es clara, pero asegura efectividad después de una serie de pruebas realizadas en un segmento reducido de usuarios.

En el pasado, el algoritmo permitía la popularización de este tipo de contenidos sin ningún control y tan solo tomaba acción cuando ocurría una ofensa lo suficientemente grande para bloquear a quienes lo publicaban.

El cambio de algoritmos haría que el engagement o alcance se reduzca a medida que se acerca a un extremo en que la red social toma acciones necesarias:

Mark Zuckerberg, en el texto donde anuncia estos cambios , también se ha tomado la libertad de comparar contenido extremista, discursos de odio y ofensivo con desnudos parciales como ejemplo de lo bien que lo están haciendo, demostrando nuevamente que estos que dicen estar modelando el futuro de la sociedad, internet y la tecnología, en realidad tienen sus cabezas puestas en el siglo 19:

Es interesante, nuestra investigación demostró que el patrón natural en relación al contenido extremista no solo se aplica con noticias, sino con casi cualquier otro tipo de contenido. Por ejemplo, fotos cerca de la desnudez, como con poca ropa o posiciones sexualmente sugestivas, obtienen más alcance en promedio antes que cambiáramos la curva de distribución. Lo mismo ocurre con posts que no están dentro de nuestra definición de discursos de odio pero que aún así son ofensivos.

Sí, esta es la mentalidad dentro de la cúpula directiva de la red social más grande e importante del mundo, los cuales también son dueños de Instagram y WhatsApp.

Ver noticia original

Uso de cookies

Este sitio web utiliza cookies para que tengas la mejor experiencia de usuario. Si continuas navegando estas dando tu consentimiento para la aceptación de las mencionadas cookies y la aceptación de lapolítica de cookies, pincha el enlace para mayor información.

ACEPTAR

Pin It on Pinterest

Share This