Cámara de eco. Un reciente estudio publicado en Science, titulado "Exposición a noticias ideológicamente diversas y opinión en Facebook", sustenta que en promedio, las decisiones individuales, más que los algoritmos de la popular red social, son las que limitan la exposición a ese tipo de contenidos que desafían nuestra actitud ("attitude-challenging content"), es decir, noticias, opinión, información relevante para la ciudadanía. Lo que sugieren las conclusiones del estudio es que Facebook no es el principal limitante de los contenidos que vemos, sino nuestra personalización permitida por el medio.
La investigación reconoce que la información de carácter cívico y las noticias están mediadas por las redes sociales, y éstas vienen acompañadas de distintas funciones que permiten de alguno modo editorializar nuestro flujo en la red. Aparte de ello, contenidos que desafíen nuestra visión ideológica y nuestra opinión dependerá de quienes son nuestros contactos (o amigos), qué es lo que ellos comparten, y de qué manera interactuamos con ellos.
Ello en lo que se refiere a la exposición; pero sobre el consumo de contenido este último sí está más influenciado, aunque no tanto, por el algoritmo de FB, el cual afecta nuestra decisión de lectura al ordenar la presentación de los artículos que decidiríamos leer; parámetros involucrados en esto último: el tiempo que usamos Facebook, los amigos con quienes interactuamos, y a qué sitio le hemos hecho clic recientemente, lo que evidencia el fenómeno denominado el "filtro burbuja". Esto último -el modo en que se procesa nuestra decisiones de interacción- es lo que termina por individualizar la exposición de cierto tipo de contenidos.
El diario El País de España resume los números del estudio de la siguiente manera:
Tras estudiar a más de 10 millones de sus usuarios y su interacción con enlaces de noticias políticas, los científicos de Facebook han descubierto que la red social es una caja de resonancia de nuestras propias ideas con pocas ventanas al exterior. Así, de todos los enlaces que ven las personas que se consideran progresistas, apenas un 22% desafían su forma de pensar. Los conservadores ven en sus muros un 33% de noticias que no corresponden con su ideología.
Si no hubiera intervenido el algoritmo, los progresistas hubieran visto un 24% de noticias incómodas y los conservadores un 35%. Es decir, que esa fórmula ideada en los ordenadores de Facebook ayuda a reducir la diversidad ideológica del muro de los usuarios, pero no es la principal culpable. Los usuarios son los responsables de encerrarse en sus propias ideas, según el estudio: si no escogieran a sus amistades como lo hacen, sino de forma aleatoria, verían entre un 45% (los progresistas) y un 40% (los conservadores) de contenido contrario a sus ideas.
Limitaciones del estudio
- Usuarios estadounidenses de Facebook (no Twitter ni de otras redes).
- No existe una diferencia bien delimitada entre exposición y consumo.
- La investigación fue liderada por Eytan Bakshy, científico investigador en el Facebook Data Science Team (lo que permite especular con suspicacia que lo que se quiere probar es que la red social 'no es tan responsable' de la limitada info que vemos).