*

X
Resultados inquietantes que nos hacen preguntar sobre la conveniencia de mantener nuestra vida online

Recientemente, la Universidad de Copenhague realizó una investigación para indagar cómo se sienten las personas al dejar de utilizar Facebook. En total participaron mil 95 personas y se le pidió a la mitad de ellas que continuara con sus hábitos de Facebook, mientras que la otra mitad dejó de usar la red social por 1 semana.

Los resultados: las personas que dejaron de usar Facebook se sintieron mejor consigo mismas, a diferencia de las que continuaron con sus actividades habituales en la red.

Morten Tromholt, quien realizó el informe de esta investigación, menciona que “los usos predominantes de Facebook --como un medio para comunicarse y obtener información sobre otros a manera de pasatiempo-- están afectando negativamente nuestro bienestar en varias dimensiones".

La muestra de población del experimento estaba conformada por un 86% de mujeres distribuidas por toda Dinamarca, con una edad media de 34 años y con un promedio de 350 amigos en Facebook. Durante la semana de abstinencia, el 13% de los participantes admitió usar Facebook, ya sea por una emergencia o por “accidente”.

Al final de la prueba los usuarios de Facebook calificaron su satisfacción de vida como un 7.74 en promedio (en una escala de 10), mientras que quienes dejaron de ser usuarios la calificaron como 8.11 en promedio.

Aunque el estudio no explica por qué mejoró el bienestar de las personas ni bajo qué parámetros se puede calificar subjetiva y numéricamente el “bienestar”, o por qué más del 80% estaba conformado por mujeres, el sentido común nos muestra que las actividades compulsivas, ya sea la televisión, una red social, las compras o cualquier otra similar, propician que el pensamiento ansioso y divagante se dispare.

Empezamos a confundir la representación de algo o alguien con la cosa o la persona en sí, confundimos a nuestros amigos de Facebook con las personas (y toda su complejidad) que están más allá de la enésima foto en la torre Eiffel o detrás del filtro de Instagram y comenzamos a interpretar la realidad a través de nuestra percepción subjetiva de esas imágenes. Lo mismo pasa con nosotros mismos: confundimos el número de “Me gusta” con la interacción significativa con otros. Sin embargo, el problema no es la tecnología en sí: el problema surge cuando dejamos de usar la tecnología y ésta empieza a usarnos a nosotros.

La forma en la que están programadas las plataformas en línea hace que cada uno de nosotros experimente una versión personalizada de la realidad, la cual nos mantiene aislados de versiones que desafían nuestras propias ideas.

En el día después de la votación del Brexit, el activista Tom Steinberg notó un hecho alarmante. Aunque más de la mitad de su país había votado a favor de abandonar la comunidad europea en su Facebook no podía encontrar ningún post sobre alguien que estuviera celebrando el Brexit.

Estoy activamente buscando personas que estén celebrando la victoria del Brexit, pero la burbuja de filtros es tan grande, se extiende incluso a la búsqueda personalizada de Facebook, que no puedo encontrar nadie que realmente esté feliz pese a que la mitad del país claramente está en estado júbilo hoy.

Steinberg incluso hizo un llamado a las personas que trabajan en Facebook para que detuvieran "este problema de una cámara de ecos" donde "tenemos países en los que una mitad simplemente no se entera de la otra mitad". Claro que el problema no puede detenerse por los empleados de Facebook, porque es parte del código más básico de Facebook, gobernado por su complejo algoritmo: darle a las personas más de lo que ya les gusta. Sin embargo, el pleito de Steinberg probó ser ominoso en el caso de Donald Trump, una elección en la que la mitad de un país estaba tan disociada de la otra que nunca espero que pudiera ganar.

Algo similar le pasó a Douglas Rushkoff, quien ha montado este excelente sitio para entender la nueva ecología mediática que ha hecho surgir un nuevo nacionalismo. Explica Rushkoff que el Internet: 

Se ha convertido en un bucle [loop] de retroalimentación que se auto-refuerza, cada elección que hacemos es cuidadosamente notada e integrada por los algoritmos que personalizan nuestros feeds de noticias, así aislándonos cada vez más en nuestras burbujas de filtros ideológicos. Ninguno de los miles de personas que aparecen en mi feed de Twitter apoyaron a Trump o al Brexit. Para aquellos que si lo hicieron, estoy seguro que lo contrario es verdad. 

El término "filter bubble" fue acuñado por el fundador de Upworthy, Eli Pariser en el 2011. "Tu burbuja de filtros es única, un universo de información personalizada para ti por este abanico de filtros". Desde hace algunos años, Erick Schmidt de Google ya había anticipado que "va a ser muy difícil que las personas vean o consuman algo que no haya sido de alguna forma hecho a la medida para ellos".

Actualmente la mayoría de los principales sitios de Internet no ofrecen ya una experiencia igual para todos los usuarios, cada uno se encuentra con una plataforma personalizada y optimizada para satisfacer su experiencia. Por ejemplo, la búsqueda de Google utiliza más de 200 señales para personalizar los resultados que arroja (incluso si no estás logged in en una cuenta de Google). Cada pregunta que le hacemos a Google, buscando que nos ayude a entender la realidad, recibe una respuesta sesgada a nuestros patrones previos de consumo de información.  

Nikki Usher Layser, de la Universidad de George Washington, habla de una nueva "mass self-communication",  (autocomunicación de masas), un entorno mediático en el que "la toma de decisiones autónoma" de los algoritmos define que historias vemos. "No podemos romper con el patrón si sólo consumimos información en línea a través de nuestros feed sociales". Somos como peces pero no en el mar sino en nuestra propia pecera con los otros peces que piensan como nosotros. 

Adam Curtis, en su extraordinario documental Hypernormalization, sugiere que esta burbuja de filtros es parte de todos los sistemas informáticos de la actualidad, consustancial al desarrollo del Big Data y la predicción de comportamientos. Una serie de sistemas de información en los que todos los usuarios constantemente reciben una versión de la realidad basada en lo que de antemano ya les gusta, creando pequeñas bolsas de realidad que sólo afirman las creencias preestablecidas y  los mantienen aislados de ideas que desafían sus nociones básicas (el axioma de los algoritmos es: if you liked that, you will love this). Esto hace que en cierta forma nuestra experiencia con la tecnología moderna sea la de un espejo, que tiende al narcisismo, e incluso a un narcótico: nos empachamos de nosotros mismos y quedamos sedados, aislados en el confort de nuestra burbuja algorítmicamente personalizada del mundo externo --un mundo externo que nos parece frustrante ya que no es como nosotros queremos, por lo cual mejor nos quedamos en la plácida y anestésica comodidad de nuestra versión de la realidad cuidadosamente curada por los algoritmos que conocen lo que nos gusta.

El peligro de esto es que al movernos en una ecología de información personalizada sólo reforzamos lo que ya somos y nos encontramos con información que pueda desafiar nuestra ideología. Adam Curtis ha sugerido que los algoritmos utilizados por los sistemas financieros y las grandes corporaciones digitales tienen programado en su núcleo la noción de evitar los riesgos, maximiza ganancias y mantener la ilusión de que el mundo es simple, por lo cual puede ser enmarcado en narrativas dualistas del tipo bueno o malo, me gusta o no me gusta. Los algoritmos mantienen el orden de lo mismo y nos protegen del caos y la incertidumbre o del enfrentamiento con lo desconocido. En otras palabras, las plataformas digitales han incorporado en sus programas el sistema neoliberal de una economía de crecimiento infinito y consumo de entretenimiento a manera de distracción de los sucesos políticos que desafían su versión de la realidad y que los podrían colocar en contra de este mismo sistema. Como explicó Mark Zuckerberg a una periodista la importancia de su news feed. "Una ardilla muriendo en tu patio trasero puede ser más relevante para tus intereses en este momento que una persona muriendo en África".

Eli Pariser sugiere que hemos pasado de una broadcast society una sociedad de transmisión unidireccional, como ocurría en la TV y en los diarios impresos, a una sociedad digital interactiva de consumo en paquetes discretos de información en la que los usuarios eligen o creen elegir todo lo que consumen. En una primera impresión esto tiene sus aspectos positivos, el paradigma de la transmisión hacía del usuario el receptor de un mensaje que se ajusta a ciertos intereses, con una agenda específica, sin embargo, también permitía que ciertos editores o gatekeepers que controlaran los flujos de información. Al leer un diario o incluso hasta hace unos al visitar un sitio de noticias en línea uno se encontraba con información de mayor variedad, filtrada por expertos, personas que reconocíamos como calificadas para presentar una versión relevante del mundo. Actualmente, según Pariser, se ha producido un relevo de la antorcha de los editores humanos a los editores algorítmicos. Esto es importante ya que los algoritmos no tienen ninguna noción ética, curan el mundo a partir de una única motivación: darle a los usuarios lo que les gusta para que sigan consumiendo más información en la plataforma en la que se encuentran, lo cual a su vez genera útil información que es procesada e integrada para generar mejores anuncios y actualizar esos mismos algoritmos que nos mantienen cautivos. Algoritmos que incluso ya empiezan a saber lo que vamos a hacer incluso antes que nosotros.  

Algunos téoricos de medios han sonado la alarma sobre el posible problema que esto representa para la democracia, incluso se habla de que la "burbuja del filtro" fue un factor importante en la campaña electoral del 2016.  Pero esto podría ser sólo la punta del iceberg, si es que, como creen algunos insiders de Silicon Valley quienes se desviven en elogios por la nueva tecnología de Magic Leap, estamos por entrar a la nueva revolución tecnológica: la realidad virtual o la realidad mixta. Si sumamos los algoritmos personalizados y su burbuja de filtros a una serie de aplicaciones que se mezclan con la realidad o la reemplazan, entonces literalmente enfrentamos la posibilidad de que hagamos realidad lo que ya sospechaban algunos filósofos escépticos: que cada quien sólo experimenta su propia realidad, todos vivimos en nuestra propia burbuja.

< Twitter del autor: @alepholo