Facebook manipuló sentimientos de 700.000 usuarios

Somos meros conejillos de Indias y experimentan con nosotros sin que lo sepamos. Al parecer Facebook tiene el poder de ponernos más tristes o más contentos, y lo utiliza a su antojo sin avisarnos. Por lo visto, ni siquiera hace falta que nos pregunten, porque en el contrato de creación de cuentas de Facebook (si, ese que nadie ha leído) le otorgamos permiso para hacerlo. Y esa seguridad y omnipotencia le permite hacer público un estudio como el que revela la revista Forbes, sin inmutarse.

facebook_experimento

Durante toda una semana del mes de enero del año 2012, Facebook experimentó y manipuló los sentimientos de 689.003 usuariossin su consentimiento y sin avisarles a posteriori. Todos sabemos que las emociones son contagiosas. Si una madre o un amigo están tristes, nosotros también nos entristecemos. Si un conocido está muy alegre, seguramente nos pondremos más contentos.

Facebook quiso estudiar si este contagio de los sentimientos se produce también online, en la distancia. En colaboración con la Universidad de California, programó un algoritmo que filtraba los feeds de noticias o mensajes que recibían los usuarios sujetos del experimento, para mostrar sólo mensajes positivos, o negativos.

Durante una semana, unas ratas de laboratorio, perdón, usuarios sujetos del experimento sin su consentimiento, recibieron únicamente feeds de noticias positivas de sus amigos y conocidos, del tipo “15 razones por las que reafirmar tu fe en la Humanidad“.

Al contrario, otros sujetos fueron bombardeados con feeds negativos: un familiar ha perdido el trabajo, ha roto con su pareja, o no ha podido cumplir con sus resoluciones de Año Nuevo, como adelgazar o ahorrar más.

Hay que decir que todos eran mensajes reales enviados a cada usuario concreto por su lista de amigos, pero Facebook mostraba sólo los positivos, o sólo los negativos.

La conclusión del estudio es que, efectivamente, aquellos que recibieron sólo feeds positivos durante varios días, escribían mensajes más alegres, y participaban más en la comunidad. Al contrario, aquellos que había sido bombardeados con mensajes negativos escribían comentarios más tristes, compartían noticias más deprimentes y participaban menos.

Asumiendo que las conclusiones del estudio son ciertas… ¿Se ha parado Facebook a pensar en las consecuencias de enviar sólo mensajes negativos a personas deprimidas, e incluso con tendencias suicidas?

Probablemente nadie fue conducido al suicidio“, medio bromea un profesor asociado al estudio, en un tuit.

Según los expertos que menciona la revista Forbes, este tipo de estudios con implicaciones emocionales requieren la supervisión de un comité ético, que al parecer Facebook si consultó. Pero también suelen acogerse a la Declaración de Helsinki, que indica que los sujetos del experimento deben ser informados de que participan en él, y de los riesgos emocionales. Nada de esto ha ocurrido.

La manipulación de las emociones a escala global es tan viejo como el Hombre, pues la han utilizado los políticos, o la prensa, desde hace siglos. Que lo lleve a cabo una red social sin avisar a los implicados, es preocupante.

Al parecer ni siquiera tenemos derecho a quejarnos, pues Facebook no leyó los mensajes que filtró, al usar un algoritmo, y el contrato de la red social especifica que nuestros datos pueden ser usados en estudios sociales.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *