La personalización inquietante ocurre cuando los datos están al mismo tiempo demasiado y no lo suficientemente cerca de lo que sabemos de nosotros mismos.
El uso de algoritmos para poder determinar posibles intereses y dirigir más certeramente la publicidad es cosa de todos los días en la web moderna. La promesa de que eventualmente solo veríamos anuncios relevantes para nosotros en base a nuestros hábitos de uso y consumo, cortesía del análisis hecho por estos algoritmos ultrasofisticados es el Santo Grial de la publicidad digital. En muchos casos esta promesa se ha cumplido, pero en la mayoría de los casos todavía deja mucho que desear.
Sin embargo al progresar en su desarrollo, estos algoritmos crean una situación muy curiosa: La información que se nos presenta puede ser lo suficientemente precisa para reconocerla como propia pero al mismo tiempo contiene errores o distorsiones que nos hacen ver una imagen deformada de nuestro yo digital.
Es de este hecho en donde se basa Sara M. Watson para su artículo en The Atlantic: Data Doppelgängers and the Uncanny Valley of Personalization. Watson toma prestado un término de la robótica, el Valle Inquietante, para describir esta situación y crea una analogía bastante apta.
El Valle Inquietante, se da cuando un robot exhibe un grado de similitud tal con los seres humanos que en vez de volverlo más reconocible y familiar, lo vuelve sutilmente repelente. Es claramente reconocible como humanoide, pero nuestros instintos más básicos detectan que hay algo equivocado. Algo así está sucediendo con la imagen que los algoritmos están generando de nosotros.
Es un tema sumamente interesante que merece pensarse un poco. Por el momento puede que sea evidente para los usuarios más avanzados o los que usan ciertas apliaciones o sitios más frecuentemente, pero es algo que no tardará demasiado en expandirse a un público mayor. Watson aborda el tema de que quizá estos algoritmos están fracasando en poder generar una imagen suficientemente exacta de nosotros y por tanto en cumplir la promesa de la relevancia personal. Quizá la base estadística de estos algoritmos, fundamentados en el análisis de grandes poblaciones, no es capaz de ofrecer soluciones a nivel individual. Probablemente tengamos entre manos la versión digital del ya conocido caso de usar una sierra de carpintero cuando lo que se necesita es un escalpelo.
Cuando intentamos averiguar por qué un anuncio incómodo nos sigue por Internet, o por qué ciertos amigos se muestran en nuestros newsfeeds más que otros, es difícil discernir los algoritmos más toscos del aprendizaje de máquina hiperdirigido que puede estar generando la información que vemos. No es frecuente que tengamos la oportunidad de preguntarles a nuestras máquinas, «¿Qué te hace pensar eso de mi?»
Es una pregunta muy interesante sin duda. Que se volverá más y más importante a medida que la sofisticación y volumen de nuestros dispositivos, aplicaciones e Internet misma sigan aumentando.
No se pierdan de leer el artículo completo.
Sigo escribiendo.
¿Alguna vez habías pensado en la imagen digital que los algoritmos en Internet pueden tener de ti?
Pingback: Manipulación, Emociones y Algoritmos: Somos el Laboratorio de Facebook | Ornitorrinco Digital·
Pingback: El Espejismo de la Personalización | Ornitorrinco Digital·
Pingback: El Nuevo Manifiesto Cluetrain para 2015: Una llamada de atención | Ornitorrinco Digital·
Pingback: El Precio de lo Gratuito: El Injusto Intercambio de nuestros Datos Personales | Ornitorrinco Digital·
Pingback: Lo Que Facebook Sabe de Tus Intereses (y cómo modificarlo) | Ornitorrinco Digital·