Manipulación, Emociones y Algoritmos: Somos el Laboratorio de Facebook

Manipulacion Emociones y Algoritmos Somos el Laboratorio de Facebook

En un experimento con gente que usa Facebook, probamos si el contagio emocional ocurre fuera de la interacción personal entre individuos al reducir la cantidad de contenido emocional en el NewsFeed. Cuando se redujeron las expresiones positivas, la gente produjo menos posts positivos y más posts negativos; cuando las expresiones negativas se redujeron, el patrón opuesto ocurrió. Estos resultados indican que las emociones expresadas por otros en Facebook, influyen en nuestras propias emociones, constituyendo evidencia experimental de un contagio [emocional] en escala masiva via redes sociales.

Este es el resumen de un estudio hecho en 2012, publicado por el área de investigación de datos de Facebook en marzo de 2014, pero descubierto hace apenas un par de días. La respuesta no fue exactamente de sorprendida admiración por parte de la comunidad científica, la industria y el público.

Oficialmente Facebook acaba de cruzar una raya a la que, por muchas razones, no debería de haberse siquiera acercado.

Para empezar hay 3 cosas que vale la pena saber:

  • Efectivamente, todos los días somos partes de experimentos en sitios y apps. Sin ningún aviso podemos ser parte de experimentos A/B para probar diferentes diseños y funciones para ver qué es más efectivo. Pero no es lo mismo probar si un botón o texto funcionan mejor para suscribirse a una lista de correos que meterse con el estado emocional de la gente.
  • El experimento no fue transparente. A diferencia de un sitio o blog el Newsfeed es algo mucho más personal. A pesar del algoritmo, es nuestra actividad e intereses y la de nuestros contactos, lo que dicta lo que vemos al entrar en Facebook. El que sea directamente manipulado más allá de anuncios que explícitamente lo son, sienta un precedente muy serio para todos los usuarios. Esto requería haber sido hecho con un consentimiento previo.
  • No fue ilegal, pero si antiético. Estrictamente Facebook puede usar nuestra actividad para experimentos y eso está explícitamente indicado en los términos de servicio. Legalmente son intocables, pero el problema es más serio porque un experimento de esta naturaleza tendría que haber sido efectuado de una forma muy diferente, con consentimiento de los usuarios involucrados

El hecho de usar las redes sociales como laboratorio social y los algoritmos como experimentos no es nada nuevo, pero el llevar a cabo un experimento de este tipo, de la manera en la que se hizo es esencialmente indefendible.

El tema es amplísimo pero les dejo tres enlaces que resultan muy importantes para poder tener un panorama mayor de este tema desde varias perspectivas:

Con la cultura algoritmica, las computadoras y los algoritmos están permitiendo un nuevo nivel de personalización en tiempo real y selección de contenido a nivel individual que no era posible antes. Pero en vez de usar estas herramientas para que sirvan a nuestros intereses, hemos construido un sistema que a menudo sirve a un interés comercial que a menudo no va de acuerdo con nuestros intereses – eso es la personalización corrupta.

De Corrupt Personalization por Christian Sandvig. Extrañamente tocaba un tema estrechamente relacionado hace unas semanas. No podemos pasar por alto la creciente importancia de los algoritmos que nos ayudan a seleccionar, o seleccionan por nosotros la información que vemos. Pero cada algoritmo trae consigo una visión y una serie de valores e intereses que con frecuencia son completamente opacos y no responden totalmente a nuestros deseos. Es inquietante pensar que cada vez lo que se supone era nuestro aliado se vuelve un agente infiltrado.

Analizar datos producidos de manera espontánea o generados por un factor externo independiente es algo que a muy pocos va a molestar […] Si este experimento hubiese tenido lugar seleccionando usuarios que de manera natural estuviesen sometidos a una mayoría de actualizaciones positivas o negativas en su muro, no tendría personalmente ningún problema con él. Es el componente de manipulación, de filtrado voluntario, el que me incomoda profundamente.

La dudosa ética de hacer experimentos psicológicos con tus usuarios por Enrique Dans. El problema de confianza, nunca insignificante, de Facebook podría estar por llegar a puntos críticos. Ya si quienes tradicionalmente le somos mayormente favorables lo vemos con recelo, la situación no puede ser buena. Me pregunto si la salida o el cese de compras de publicidad de varias compañías grandes sería el principio de un cambio muy perjudicial para esta compañía.

Asi que, si, yo digo que debe importarnos si Facebook puede manipular emociones o el comportamiento de los votantes, o si puede modelar nuestra personalidad, o conoce tu red de contactos, sin importar los méritos o fortaleza de los hallazgos de un estudio. Nos debe importar que estos datos son propietarios, con poco acceso para los usuarios, poco conocimiento de quien llega a comprar, usar y manipularnos con este tipo de datos.

Facebook and Engineering the Public por Zeynep Tufekci. El problema no es lo que se publicó, la metodología o incluso los resultados (que en realidad son casi insignificantes), el problema es lo que se hizo y la visión detrás. No podemos tomar esto como algo natural e inevitable. El papel de la comunidad académica en esto es importante.

No sé si las cosas vayan a cambiar, pero al menos nuestra visión sobre ellas y la “normalidad” de las actividades de las compañías que poseen nuestros datos de actividad y los algoritmos que nos muestran la información que vemos diariamente si debería. Vivimos en una época donde las posibilidades tan increíbles que poseemos van templadas con un potencial enorme de abuso por parte de quienes tienen el flujo de información en las manos.

Eso no lo podemos olvidar. Es necesario que también nosotros evolucionemos en nuestro entendimiento de esta dinámica.

Sigo escribiendo.

¿Qué crees que deba hacerse en un caso como este? ¿Qué opinas al respecto?

¿Qué opinas de esto?

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s