Facebook, un problema de transparencia.
Facebook, un problema de transparencia.
Un problema de transparencia.

ZENIT – México DF. – Fue a mediados de 2014 cuando se dio a conocer que Facebook había realizado en 2012 un experimento sin el consentimiento de sus usuarios: sus investigadores alteraron el tipo de contenidos de los muros de 690.000 personas con el fin de conocer las reacciones emotivas de sus suscriptores. A unos perfiles se les mostraba sólo publicaciones positivas y a otros sólo negativas.

Los resultados del estudio fueron publicados a finales de junio de 2014 en Proceedings of the National Academy of Science y mostraron que las personas expuestas a contenidos negativos eran más propensas a publicar cosas negativas mientras que resultaron más optimistas con sus publicaciones aquellos que veían en sus muros noticias positivas. El experimento, por tanto, demostró que Facebook es capaz de alterar el estado emocional de sus usuarios.

Venezuela y la independencia de Cuba, Autor, José Antonio Quintana.
Venezuela y la independencia de Cuba, Autor, José Antonio Quintana. Precio 17.00 USD, incluye el envío. Solicítalo AQUI

¿Y si en lugar de emociones fueran determinadas ideas o posturas políticas o socio-religiosas? El lunes 9 de mayo de 2016 la web Gizmodo.com destapó el caso: Facebook altera los resultados en los muros de sus usuarios controlando que el tipo de informaciones que reciben como «tendencias» sean siempre las progresistas (cf. Former Facebook Workers: We Routinely Suppressed Conservative News).

El «modus operandi» lo revelaron ex trabajadores (news curators) que dijeron haber sido obligados a tapar noticias conservadores y resaltar las progresistas; afirmaron que recibían órdenes de destacar sólo las noticias progresistas en la pestaña de «tendencias» (trending news) de la red social.

Pronto un portavoz de Facebook afirmó que las directrices de la empresa no permitían la supresión de determinado tipo de ideas pero no desmintió que algunos empleados pudieran seguir el propio criterio a la hora de seleccionar qué sí y qué no aparece en los muros de los usuarios como noticia relevante.

Unos días después, el miércoles 18 de mayo, Marc Zuckerber se reunió con  representantes de 15 medios de comunicación de cariz conservador de la Unión Americana en el contexto de las revelaciones de algunos de sus ex trabajadores.

En su fanpage el fundador de Facebook anotó que los conservadores eran un segmento demográfico importante para Facebook y reconoció que las recientes noticias habían debilitado la confianza hacia su red social por parte de medios conservadores. «Creo que Facebook entiende que hay un problema», dijo Brent Bozell, presidente del Media Research Center, en declaraciones recogidas por Los Angeles Times («Mark Zuckerberg says many conservatives don’t trust Facebook to show ‘content without a political bias’», 18.05.2016),

No es la primera vez que Facebook está involucrado en casos de sesgo ideológico. El estudio «True Liberty in a New Media Age: An Examination of the Threat of Anti-Christian Censorship and Other Viewpoint Discrimination on New Media Platforms» («Libertad Verdadera en una Nueva Era Mediática: Análisis de la Amenaza de la Censura Anticristiana y de la Discriminación de otras Opiniones en las Nuevas Plataformas de Medios») muestra precisamente cómo Facebook bloquea opiniones cristianas no ofensivas y mantiene sin censura páginas o publicaciones manifiesta y groseramente anti cristianas.

Debe ser que no supimos, poesías de Raysa White Más, Ediciones Verbo(des)nudo, Chile, 2016.
Debe ser que no supimos, poesías de Raysa White Más, Ediciones Verbo(des)nudo, Chile, 2016. Precio: $10.47 USD Envío GRATIS. Solicítalo AQUI

Un ejemplo concreto lo ha vivido el autor de este artículo: el viernes 20 de mayo de 2016 publiqué un post que textualmente decía: «En México el presidente quiere imponer el gaymonio. Te invito a firmar esto», y a continuación venía un enlace. El sábado 21 de mayo la red social me reportaba que había sido bloqueado debido a infringir las normas de la comunidad.

No resulta irrelevante que Facebook se posicione a favor o en contra, exhibiendo u ocultando, determinado tipo de contenidos en vista de que no es un medio editorial sino un distribuidor de contenidos. Y es precisamente aquí donde radica lo preocupante del asunto. Que en la «culture war» Facebook  tome partido y muestre un sesgo ideológico debe constituir una advertencia: por una parte, para no creer que lo relevante que aparece en la red social realmente lo sea y, por otra, para no perder de vista que cuando un medio de comunicación toma partido implica para el usuario el plantearse también el tomar partido por esa u otra red social afín a sus ideas.

Afortunadamente la Comisión de Comercio del senado de los Estados Unidos ya ha invitado a Facebook a ofrecer un relato completo acerca de cómo la compañía opera la alimentación de noticias. En el fondo, se trata de un problema de transparencia.

Share

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Protected by Security by CleanTalk