Predecir, generar e imponer: nuevos arsenales digitales en la disputa por nuestra atención

 

Diego Arredondo / profesor de visualización y análisis de datos, coordinador de desarrollo tecnológico en Signa_Lab

Podría parecer inofensivo detenernos a pensar en lo que nos encontramos en la Internet esta mañana o cuánto tiempo le dedicamos a la pantalla. Nos hemos acostumbrado a consumir, generar e interactuar con enormes cantidades de información que, dada su inmediatez, apenas podemos recordar y, tal vez en menor medida, reconocer el impacto agregado que tienen sobre nuestra opinión y estado de ánimo.

Cada día miles de millones de personas repartimos nuestra atención entre un puñado de plataformas digitales que nos sirven una dieta de contenidos seleccionados a la medida de lo que han aprendido sobre nuestro comportamiento desde los datos que damos o pueden inferir.[1]

Las empresas que nos ofrecen estas plataformas basan sus negocios en modelos predictivos entrenados a partir de una observación sostenida, masiva y exhaustiva de nuestros rastros al utilizarlas. Estos sistemas algorítmicos se sustentan en métodos cada vez más avanzados de aprendizaje automático (machine learning), que se extienden con una alarmante ubicuidad sobre distintas dimensiones de la vida humana. Desde este paradigma predictivo los caminos lógicos de la máquina no son explícitamente programados sino que, a partir de un objetivo preestablecido y una ingesta masiva de datos, la máquina identifica patrones en la información que le permiten hacer sus propias apuestas hacia su consecución, muchas veces desde una complejidad peligrosamente inaccesible para la comprensión humana.[2]

En el caso de estos algoritmos de selección, capaces de atinar nuestras afinidades, anhelos y preocupaciones antes de habérselos contado, el objetivo preestablecido para optimizarse está en medir y retener nuestra atención frente a una selección personalizada de información.

La masividad y efectividad de su alcance es tal que no solo llegan a perfilar con mucha precisión lo que retiene nuestra atención, sino que son capaces de moldearla a escala, con el fin de facilitar la confiabilidad de sus predicciones, lo cual pinta un panorama cada vez más fragmentado de la realidad, que no solo sesga nuestra lectura de ella sino que está imposibilitando el debate público.[3]

Esta pulverización del marco común de información, además de coartar las condiciones para el diálogo, abre camino a nuevas configuraciones para el poder autoritario, donde la censura se ejerce desde la vigilancia, la descalificación, el hostigamiento y la invisibilización, y el adoctrinamiento, desde la sofisticación en las tácticas de influencia personalizada, basadas en predicciones hechas desde la observación constante, que en su sutileza esconden su imposición.

La notoriedad de estas tecnologías ha crecido en años recientes por su aprovechamiento como arsenales de influencia sobre la opinión pública a gran escala, con un especial impacto alrededor de procesos electorales por el mundo. Se han documentado en cada vez más países, como Estados Unidos, Brasil, Reino Unido o México, casos en los que son evidentes acciones digitales coordinadas para acrecentar la crispación e incitar el odio o al miedo a través de operaciones de influencia con mensajes personalizados, que echan mano de los mismos algoritmos que, en una tergiversación de su capacidad publicitaria, se presentan como la mejor herramienta para la ingeniería social.

En la última década, a partir del auge de métodos más sofisticados, a los que de manera generalizada se suele referir como aprendizaje profundo, las posibilidades de medir e intervenir sobre lo que se asume como realidad han escalado exponencialmente su precisión y alcance.

Uno de estos métodos emergentes, al que se le llama redes generativas antagónicas (gan, por sus siglas en inglés), acerca a pasos agigantados un escenario donde los contenidos que recibimos no solo se seleccionan a la medida de nuestra atención sino que también se pueden generar artificialmente para capturarla y forjarla. Al contraponer la capacidad de un modelo predictivo que ha sido entrenado para reconocer ciertos patrones de información, como lo pueden ser rostros humanos[4] o conversación textual,[5] con otro que ha sido entrenado para generarlos, esta técnica permite producir sintéticamente texto, imágenes, video y audio a la medida de los datos que se le alimentaron.

El uso de estas herramientas, apuntalado hacia operaciones de influencia propagandística, abre nuevas vulnerabilidades para los ya debilitados sistemas democráticos actuales. Además de refinar la evidenciada capacidad de predecir y moldear nuestras reacciones emotivas, ahora se escalan las posibilidades para la fabricación dirigida de identidades digitales, conversación, fuentes de información e incluso materiales audiovisuales que se presentan como hechos o voces reales.

Estamos frente a un escenario que no hemos enfrentado, donde se desdibuja nuestra capacidad compartida de reconocer lo que es real, aun teniendo de frente lo que hasta ahora hemos acordado como evidencia suficiente.

Las inercias actuales en el desarrollo tecnológico no parecen tener incentivos o elementos para desacelerar y cuestionar el alcance de los sistemas que construyen. Los intereses que impulsan su desarrollo, cada vez más ávidos por delegarles sus marcos de operación y decisión, no parece que admitirán frenar motores o cambiar la ruta sin una enorme batalla.

Con una sociedad que pasa por un aislamiento obligado sin precedentes ni certezas, cuyo acceso al mundo compartido se limita cada vez más a una mediación a través de pantallas personales, con una discusión regulatoria casi imposible de empatar al ritmo del desarrollo de tecnología y con la vulnerabilidad creciente que han demostrado los sistemas (no tan) inteligentes que rigen las plataformas que los gigantes tecnológicos nos ofrecen para interactuar, ya sea por falta de voluntad, por su incapacidad, negligencia o ignorancia, es decisivo encontrar nuevas formas de reconocer y ratificar nuestro entendimiento compartido de la realidad. Aprender a identificar en la información que consumimos a diario los mecanismos para influir sobre nuestra atención e inversión emocional puede ser el primer paso para recuperar nuestro control sobre esta realidad en disputa.

 

 

[1] Tufekci, Zeynep. How recommendation algorithms run the world. Wired Magazine, 2019. Disponible en: https://cutt.ly/GfvGIbV

[2] Russell, Stuart. Human compatible. Artificial intelligence and the problem of control. Penguin Random House, Londres, 2019.

[3] Tufekci, Zeynep. We’re building a dystopia just to make people click on ads. ted, 2019. Disponible en: https://cutt.ly/6fvGOo7

[4] Karras, Tero et al. Analyzing and improving the image quality of stylegan. 2019. Disponible en: https://arxiv.org/abs/1912.04958

[5] Brown, Tom B. et al. Language models are few–shot learners. 2020. Disponible en: https://arxiv.org/abs/2005.14165