Facebook no sólo invade tu privacidad, también programa tu personalidad
   

Facebook no sólo invade tu privacidad, también programa tu personalidad


Hace algunos años (en el 2008), cuando Facebook empezaba a volverse la red social más popular del mundo, un artículo de The Guardian cuestionaba las “amistades” de Facebook. Para dar el salto hacia convertirse en una plataforma de alcance mundial Facebook recurrió en su primera línea de inversionistas a In-Q-Tel (el brazo emprendedor de la CIA) y a Peter Thiel (dueño de Pay Pal de ideas transhumanistas y miembro de Bilderberg). En ese entonces había todavía más preocupación por la privacidad de la información de los usuarios, a la cual se sabía tenían acceso aplicaciones de terceros y agencias de marketing. Hoy en día nos parece poco alarmante entregar nuestra información a Facebook quizás porque, después de las filtraciones de Snowden, sabemos que en cualquier parte estamos vigilados (incluyendo sitios como Facebook que de manera voluntaria o coercitivamente han tenido que entregar información de sus usuarios al NSA). En algún momento no hace mucho, sin embargo, resultaba casi escandaloso pensar en que le abriríamos nuestras vidas, hasta el punto de compartir nuestros más detalles más íntimos, a una compañía cuyo interés es poder ganar más dinero con esa información –por no decir a “amigos” que apenas conocemos. El mismo Zuckerberg lo expresó en conversaciones grabadas poco después de haber lanzado Facebook: “la gente es estúpida simplemente me da su email”.

En enero del 2008, Tom Hodgkinson, el periodista de The Guardian, escribió: “El Departamento de Defensa y la CIA aman la tecnología porque hace el espionaje más sencillo”. Hodgkinson claramente sospechaba que Facebook iba a ser usado con este fin (cuando tenía menos de 60 millones de usuarios; hoy tiene más de mil millones). Efectivamente, Facebook fue usado para espiarnos –de nuevo con su consentimiento o sin, eso es en la práctica lo menos importante– y seguramente está siendo usado para espiarnos. Hay otra prefiguración en la participación de la firma de venture capital de la CIA en los inicios de Facebook: que este sitio se convertiría en un laboratorio social donde se experimentaría con el comportamiento de los usuarios y se manipularía sus interacciones posiblemente como parte de un programa de ingeniería social –o simplemente para poder ganar más dinero, teniendo más clicks y vendiendo más publicidad.  

En junio se dio a conocer que Facebook llevó a cabo un experimento con 700 mil usuarios modificando su algoritmo –el reglamento invisible– para que aparecieran más posts positivos o negativos (según el grupo) en su news feed. Los resultados mostraron que aquellos expuestos a posts positivos se sienten más felices y escriben más posts positivos (y más en total). Esto luego resulta en más clicks, y más ingresos de publicidad.

Este experimento generó cierta alerta entre críticos. Clay Johnson, el co fundador de Blue State Digital, la agencia que manejó la campaña digital de Obama en el 2008, dijo “¿Podría la CIA incitar una revolución en Sudán presionando a Facebook a promover descontento? ¿Debería de ser ilegal? ¿Puede Mark Zuckerberg cambiar el resultado de una elección promoviendo ciertos sitios?” Preguntas que son todavía más alarmantes cuando sabemos que Facebook duerme con la CIA (al menos con una prima cercana).

Pero en realidad la “mala prensa” poco afectó a Facebook, cuyas acciones se encuentran en su punto más alto. Como apunta el siempre crítico Evgeny Morozov, en realidad nada afecta a Facebook, al menos ningún cuestionamiento ético. Pero el experimento si provee información valiosa para Zuckerberg y sus socios: pueden ganar dinero incluso permitiendo a los usuarios un mínimo respiro de  privacidad, siempre que sigan multiplicándose los clicks. Ahora Facebook, la compañía que lanzó la idea de que la privacidad era cosa del pasado y que todos deberíamos de abrazar lo social como una ubicua envoltura transparente, tiene una herramienta para avisar los usuarios si éstan “sobrecompartiendo” (oversharing) o les permite ver cómo están siendo medidos.

Esto parece ser de nuevo una estrategia con una agenda velada, como ha ocurrido antes en la historia de Facebook. Morozov, acusado de una radical tecnofobia (pero probablemente uno de los más lúcidos observadores de la Red), advierte que a la par Facebook está comprando compañías y desarrollando aplicaciones que registran los movimientos online y offline de los usuarios, lo cual significa que podrá hacer aparecer contenido más relevante –contenido especialmente dirigido a una persona que está corriendo, manejando o andando en bicicleta, por ejemplo, como ocurre con la app Moves.

El asunto de fondo es que Facebook no parece tener ningún reparo en manipular su algoritmo si este beneficia su plan de negocios o su agenda social, y no existe un mecanismo para hacerle rendir cuentas. Otro ejemplo de la alteración del algoritmo, aparentemente inocuo y loable, fue en el 2012 cuando alteró su configuración para que los usarios puedieran expresar un status de donador de órganos, lo cual produjo más de 13 mil registros en el primer día. El poder de decidir que tipo de iniciativa es buena para la sociedad y cual no es enorme. Escribe Morozov:

La razón por la cual debemos de temer a Facebook y a su clase no es porque violan nuestra privacidad. Es que definen los parámetros de la gris y mayormente invisible infraestructura tecnológica que moldea nuestra identidad. Todavía no tienen el poder de hacernos felices o tristes pero seguramente lo harán pronto si hacernos felices o tristes les ayudan a generar más ingresos.

Esta visión no está lejana de un tono distópico –una distopia totalitaria no sólo sería inmersiva sino probablemente ocurriría sin que nos hayamos dado cuenta que está sucediendo. Morozov nos pide que nos preguntemos “¿qué tanto nuestra identidad está siendo modificada por los algoritmos, bases de datos y apps que extienden los esfuerzos políticos, comerciales y estatales para hacernos –como dice la canción distópica de Radiohead– ‘más aptos, más felices, más productivos”‘ (fitter, happier, more productive).

Paralelamente, desde hace unos meses, Facebook ha venido realizado cambios en su algoritmo, apretándolo de tal manera que los posts de las fan pages aparecen en menos cantidad a menos usuarios, claramente para hacer que las compañías que buscan recibir tráfico o dar a conocer sus mensajes masivamente tengan que pagar para que sus posts aparezcan. Esta medida ha golpeado a numerosos sitios de noticias, hasta el punto de hacer que algunos prácticamente desaparezcan. ¿Cómo estar seguros de que Facebook no privilegia en su algoritmo a sitios que pagan más o que le son más afines ideológicamente o simplemente que le generan mayores ingresos al fomentar una especie de ecosistema favorable para promover esta “felicidad” digital que se traduce en clicks?

Facebook es, al menos en potencia, una máquina de alcance orewelliano capaz de censurar y delimitar la realidad. Poco notamos que esto está suciendo, viviendo ya un “efecto pecera” dentro de su sistema.  El algoritmo traspasa la vida digital y se convierte en parte de nuestra personalidad.

Twitter del autor: @alepholo