18 de abril de 2018
Facebook está matando a la democracia con el manejo de nuestros datos
Un gran porcentaje de los 2,13 mil millones de usuarios de Facebook deben haber visto a sus amigos compartir los resultados de unas -aparentemente inofensivas- encuestas en línea. A veces son molestas, absurdas y en general una pérdida de tiempo. Pero suelen ser irresistibles, un pasatiempo. Parecen una diversión inocente, pero está lejos de serlo.
La cosa según Summers empieza con una distracción inocua que nos llega a cada rato por Facebook. A través de esos cuestionarios para desocupados, la compañía obtiene datos que luego explota. Tal cual, Facebook los recoge, los organiza y luego los vende a los anunciantes.
Facebook está en el negocio de explotar sus datos. La compañía vale miles de millones de dólares y eso se debe a que los recoge y los vende a los anunciantes. Se alienta a los usuarios a que coloquen un “me gusta”, lo compartan y de pasada comenten sus vidas. Los usuarios lo hacen desprevenidamente porque piensan que simplemente se están conectando con familiares y amigos. Sin embargo, hay mucho más en la historia. El fundamento de la democracia moderna está en juego.
Estás siendo psicográficamente perfilado
La mayoría de la gente ha oído hablar de la demografía, el término utilizado por los anunciantes para dividir un mercado por edad, género, etnia y otras variables para ayudarlos a comprender a los clientes. Por el contrario, los psicográficos miden la personalidad, los valores, las opiniones, las actitudes, los intereses y los estilos de vida de las personas. Ayudan a los anunciantes a comprender la forma en que actúa y quién es usted.
Históricamente, los datos psicográficos fueron mucho más difíciles de recopilar y emplear que los datos demográficos. Hoy, Facebook es el tesoro más grande del mundo de estos datos. Todos los días, miles de millones de personas le dan a la empresa una enorme cantidad de información sobre sus vidas y sueños.
Esto no es un problema cuando los datos se usan de forma ética, como cuando una empresa le muestra un anuncio de un par de gafas de sol que ha buscado recientemente.
Sin embargo, importa mucho cuando los datos se usan maliciosamente: segmentando a la sociedad en cámaras de eco desconectadas, y elaborando mensajes confusos a medida para manipular las opiniones y acciones de las personas. Eso es exactamente lo que Facebook permitió que sucediera.
Leer su mente y predecir su decisión política
Informes recientes han revelado cómo Cambridge Analytica, una compañía británica propiedad de un enigmático multimillonario y liderada en su momento por el asesor clave del candidato Donald Trump, Steve Bannon, utilizó datos psicográficos de Facebook para perfilar a los votantes estadounidenses en los meses previos a las elecciones presidenciales de 2016. ¿Qué pretendían? Dirigirse a ellos con mensajes políticos personalizados e influir en su comportamiento electoral.
Christopher Wylie, quien fue director de Cambridge Analytica, describió en detalle cómo la compañía explotó a los usuarios de Facebook al recopilar sus datos y crear modelos para ” atacar a sus demonios internos “.
¿Cómo permitió Facebook que esto sucediera?
La compañía hace más que vender sus datos. Desde principios de la década de 2000, Facebook ha proporcionado acceso a investigadores académicos que desean estudiar estos bancos de datos. Muchos psicólogos y científicos sociales han hecho sus carreras analizando formas de predecir su personalidad e ideologías haciendo preguntas simples. Estas preguntas, como las que se usan en los cuestionarios de las redes sociales, no parecen tener conexiones obvias con la política. Incluso una decisión como qué navegador web está utilizando para leer este artículo está lleno de pistas sobre su personalidad.
En 2015, Facebook dio permiso al investigador académico Aleksandr Kogan para desarrollar un cuestionario propio. Al igual que otras pruebas, la suya fue capaz de capturar toda su información pública, incluyendo nombre, foto de perfil, edad, sexo y cumpleaños; todo lo que has publicado en tu línea de tiempo; toda tu lista de amigos; todas tus fotos y las fotos en las que estás etiquetado; Historia de la Educación; ciudad natal y ciudad actual; todo lo que siempre te ha gustado; e información sobre el dispositivo que está utilizando, incluido su navegador web y el idioma preferido.
Kogan compartió los datos que recopiló con Cambridge Analytica, con la que trabajaba desde 2014, lo cual era contrario a la política de Facebook, pero aparentemente la compañía rara vez hizo cumplir sus reglas.
Ahora conocemos tu debilidad
Analizando estos datos, Cambridge Analytica determinó temas que intrigarían a los usuarios, a qué tipo de mensaje político eran susceptibles, cómo enmarcar los mensajes, el contenido y el tono para motivarlos y cómo lograr que lo compartan con los demás. Recopiló una lista rasgos a partir de las compras que realizaban los consumidores y de esos rasgos extrajo las predicciones acerca de los comportamientos políticos de los votantes.
Luego, la compañía pudo crear sitios web, anuncios y blogs que atraerían a los usuarios de Facebook y los alentaría a correr la voz. Así es como los votantes estadounidenses fueron blanco de noticias falsas, información engañosa y mensajes contradictorios con la intención de influir en cómo votaron, o si votaron en absoluto.
Así es como se explotan las relaciones de los usuarios de Facebook con familiares y amigos para obtener ganancias monetarias y obtener beneficios políticos, lo hacen con total conocimiento y poniendo a los usuarios en riesgo.
Facebook podría haber hecho más para proteger a los usuarios.
La compañía alentó a los desarrolladores a crear aplicaciones para su plataforma. A cambio, las aplicaciones tenían acceso a grandes cantidades de datos de usuario, supuestamente sujetos a esas reglas que rara vez se aplicaban. Pero Facebook recaudó el 30 por ciento de los pagos realizados a través de las aplicaciones, por lo que su interés comercial hizo que quisiera más aplicaciones, haciendo más cosas.
Las personas que no completaron los cuestionarios también eran vulnerables. Facebook permitió a compañías como la ya mencionada, recopilar datos personales de amigos de los examinadores, sin su conocimiento o consentimiento. Se recolectaron datos de millones de personas, y muchos más usuarios de Facebook podrían haber sido afectados por otras aplicaciones.
Cambia la cultura y cambiará la política
En 2017, el CEO de Cambridge Analytica Alexander Nix, se jactó públicamente de que era “capaz de usar datos para identificar … grandes cantidades de votantes persuadibles … que podrían ser influenciados para votar por la campaña de Trump “. Eso es exactamente lo que Facebook permitió. En una entrevista en video con The Observer, Wylie explicó “la política fluye de la cultura … tienes que cambiar a la gente para cambiar la cultura”
Para ejercer esa influencia, la compañía británica que afirma tener 5,000 datos de cada estadounidense, los estimuló psicológicamente a modificar sus comportamientos de manera predecible. Por esta guerra psicológica, la campaña Trump pagó millones de dólares. Esto incluyó las que se conocieron como “noticias falsas”. En una investigación encubierta, el canal 4 británico registró a los ejecutivos de esta firma, expresando su disposición a diseminar información errónea, como dijo Nix, “estas son cosas no necesariamente tienen que ser verdad, pero si deben poder ser creíbles”.
La sociedad de los EE. UU. no estaba preparada: el 62 por ciento de los adultos estadounidenses se enteran de las noticias en las redes sociales y muchas de ellos que ven noticias falsas afirman que las creen. Así que las tácticas de Cambridge Analytica funcionaron: 115 historias falsas a favor de Trump se compartieron en Facebook un total de 30 millones de veces. De hecho, las historias de noticias falsas más populares se compartieron más ampliamente en Facebook que las noticias (ciertas) más populares.
Tus temores matarán la democracia
La historia de EE. UU. Está llena de casos en los que las personas comparten sus pensamientos en la plaza pública. Cualquier transeúnte si está interesado, puede venir y escuchar e incluso compartir la experiencia de la narración.
Mediante la combinación de perfiles psicográficos, análisis de big data y micro-targeting publicitario, el discurso público en los EE. UU. ha entrado en una nueva era. Lo que solía ser un intercambio público de información y diálogo democrático es ahora una campaña de susurros personalizada: el manejo perverso de la información puede dividir a los estadounidenses. Susurrarles al oído a todos y cada uno de los usuarios, empujarlos en función de sus miedos y alentarlos a susurrarle a otros que comparten esos miedos.
Un ejecutivo de C. A. lo explicó : “Hay dos factores humanos fundamentales … esperanzas y temores … y muchos de ellos son tácitos e incluso inconscientes. No sabías que era un miedo hasta que viste algo que evocó esa reacción tuya. Nuestro trabajo es … comprender esos temores subyacentes realmente arraigados. No sirve de nada pelear una campaña electoral sobre los hechos porque en realidad todo se trata de emoción “.
La información que compartiste en Facebook expuso tus esperanzas y temores. Esa prueba de Facebook de aspecto inocente no lo es tanto.
El problema no es que estos datos psicográficos hayan sido explotados a gran escala. Es que las plataformas como Facebook permiten que los datos de las personas se usen de formas que quitan el poder a los votantes y se lo dan a los activistas que analizan los datos.
En mi opinión -dice Summers- esto mata a la democracia. Incluso Facebook puede ver eso, diciendo en enero que, en el peor de los casos, las redes sociales ” permiten a las personas difundir información errónea y corroer la democracia “.