Cristián Huepe: “Se da la ironía de que la Comisión contra la Desinformación no pudo manejar la desinformación sobre sí misma”

Foto: Nicole La Due

Físico teórico radicado en Chicago desde 2000, el investigador y codirector del Social Listening Lab de la UC aborda los alcances de la comisión asesora gubernamental, al tiempo que las emprende contra las lógicas prevalentes en redes sociales. Propone, de hecho, hackear “virtuosamente” los algoritmos.


Si se le pregunta al Diccionario Larousse de 2016 por “desinformación”, dirá en primer lugar, acudiendo a la sociología, que se trata de una “manipulación”. De una “supresión” y un “falseamiento” de la información. La segunda de las dos acepciones, en tanto, es “ignorancia, carencia de información”.

De momento, esta es de las pocas cosas que pueden hoy decirse en Chile sobre el tema sin andar pisando callos. Que lo diga si no el gobierno, que creó una comisión asesora contra la desinformación que ya será impugnada ante el TC por una mayoría del Senado. Y Cristián Huepe podría refrendarlo, por su parte, pero lo suyo es más bien examinar el asunto en su complejidad. No por accidente es físico teórico especializado en sistemas complejos.

Vía Zoom desde Chicago, donde vive hace 23 años, el investigador asociado de la Northwestern University y codirector del Social Listening Lab de la UC (Sol-UC) apunta a las estructuras de comunicación, especialmente las de redes sociales, a las que ha dedicado investigaciones ancladas en ítems diversos, desde la vacunación en pandemia hasta el plebiscito de 2022. Piensa en “las posverdades, que son creencias que no se basan en la evidencia, sino en la emotividad”. Y dado que la gente “tiende a creerles, esencialmente, a sus círculos de información”, la desinformación encarna esos nuevos círculos, “donde puedes escoger qué fuentes quieres tener, y esas fuentes pueden, intencionalmente o no, entregarte información que no es verídica”.

Por el contrario, si hay la posibilidad “de creerles a distintas fuentes, puede haber elementos falsos en la información que se recibe, pero no vas a estar desinformado, por así decirlo. Antiguamente, si se le ocurría a alguien que la Tierra era plana porque así le parecía al mirar el horizonte, les preguntaba a sus vecinos, y la probabilidad de que le dijeran ‘déjate de hablar tonteras’ era muy alta, y entonces el asunto quedaba ahí. Esto no se transformaba en una fuente de desinformación. Pero hoy, una persona va a YouTube y encuentra mucha gente que dice que la Tierra es plana, y empieza a crearse una fuente de desinformación que se transforma en una comunidad de desinformación que, intencionalmente o no, termina desinformando a otras personas”.

Cuando se habla de desinformación, siempre son otros, no uno, quienes la padecen o quienes desinforman. ¿Qué dificultades se plantean ahí?

Es el problema de estas burbujas de información: uno crea lazos en los medios digitales, y cada vez más, incluso más fuertemente desde la pandemia, los círculos de información son muy digitales. Uno crea esos espacios de información y está convencido de que ese universo es la realidad, lo que puede llevarlo a convencerse de cosas que no tienen nada que ver con la realidad, porque uno no compara opiniones con otra gente, sino que se cierra en ese círculo. Por eso hoy es tan importante escuchar y conversar con las redes de información de una manera muy distinta.

¿Qué manera puede ser esa?

Las redes sociales nos han transformado en animales de atención: estamos todos en función de la economía de la atención. La tendencia humana a querer informarse y a querer estar entretenidos, asombrados, incluso escandalizados, ha sido explotada por las grandes plataformas sociales, que absorben nuestra atención de manera cada vez más inmediata. Y esto es un círculo vicioso porque, a su vez, todas las medidas comerciales que se aplican en las redes sociales están basadas en métricas de engagement [implicación del usuario], muy de mercadotecnia. En marketing, lo que interesa es que la persona vea el aviso y compre, y lo único que interesa escuchar de las redes sociales es cuánta gente está hablando de ti, cuánta gente está viéndote, durante cuánto tiempo tienes su atención.

Por todo esto, lo que hemos hecho desde 2017 en Sol-UC, que codirijo con Eduardo Arriagada, es empezar a ver medidas de análisis de cómo la gente está conversando: qué información se puede extraer de las redes sociales más allá de las métricas de engagement. En estas redes tenemos un gran potencial que, desafortunadamente, se desaprovecha.

Uno sólo sabe cuánta gente opina de algo, o cuánta gente le presta atención a un aviso por más tiempo, o cuánta gente menciona un nombre, que es de lo que muchos organismos, marcas y políticos están preocupados, sino que también qué estructuras de conversación existen: qué comunidades de conversación existen, qué asociaciones lingüísticas crea la gente. Se puede ver qué tipo de emociones usa la gente para expresar ciertas ideas, se puede saber quiénes son los guías de opinión emergentes en un tema. Toda esa información se está perdiendo.

¿Cómo ve lo que ha pasado con la Comisión Asesora contra la Desinformación?

La idea de tener este tipo de comisión, en términos generales, es buena, pero desafortunadamente me parece que el decreto fue mal ejecutado y mal interpretado.

Es muy importante que conversemos sobre la desinformación, porque es un problema complejo que requiere cambiar nuestra perspectiva de cómo entendemos la comunicación y las redes sociales. Ahora, tener una postura sobre la desinformación, cómo abordarla y qué tipo de leyes se pueden generar, me parece una buena cosa. Y si uno lee el decreto, todo está orientado en esa dirección.

Entre los objetivos de esta comisión no está generar nuevas leyes, no está censurar ni definir información o desinformación basándose en los medios. De hecho, si uno lo mira en detalle, esto es mucho más amplio y se basa más en el fenómeno de la desinformación en las redes sociales que en la prensa tradicional.

La desinformación produce muchas suspicacias, y no sólo en Chile. En EE.UU. el gobierno de Biden trató de crear una mesa asesora y tuvo la misma reacción de la oposición que en Chile: tuvo muchos problemas y hubo que ponerla en pausa. El error acá, probablemente, estuvo en no haberlo presentado de manera más abierta: los miembros de la comisión fueron designados sin gran discusión pública y el decreto apareció sin gran discusión previa. Y el propio gobierno ha tenido ciertas historias de llamarles desinformación a las cosas que no le gustan, por así decirlo, con lo que producía suspicacia adicional. Entonces, esto fue un poco una oportunidad perdida. Un tema tan delicado se debiera haber planteado de manera más cuidadosa para no producir un problema respecto del cual va a ser muy difícil volver atrás.

¿Por dónde pasa ese problema?

Por cómo se manejan los algoritmos en las redes sociales. Las grandes redes sociales no van a cambiar sus políticas por lo que diga Chile. En ese sentido, Chile no existe en esta conversación y no tenemos mucho poder para cambiar las tendencias. Las plataformas sociales han abordado este problema desde un punto de vista que me parece equivocado: más que afinar sus algoritmos para no proveer desinformación, o incluso para promover una diversidad de información, que es una vacuna natural contra la desinformación, lo que están haciendo es tener grupos que tratan de regular el contenido. Pero según los Facebook files que aparecieron hace un par de años, Facebook dedica el 87% de su presupuesto para tratar de regular contenido en habla inglesa, cuando solamente el 9% de los usuarios es de habla inglesa. Lo que recibimos en Chile es la peor versión de estas redes sociales y, por ello, la versión más peligrosa de la desinformación. Entonces, es muy importante que Chile tenga una postura a nivel internacional, y este era uno de los objetivos de esta comisión.

Yo participé en una iniciativa de la Unesco que trata de analizar la “antropología digital”: de utilizar las conversaciones digitales para entender cómo se comporta el ser humano. Y mi postura fue un poco la perspectiva que hemos desarrollado en Sol-UC: que si uno entiende las estructuras complejas de comunicación de la plaza pública digital, puede conversar con ella de manera más virtuosa. Este tipo de iniciativas producen curiosidad internacional, y Chile podría ser un líder, pero para ello tiene que tener una postura que en el sur global no existe.

Como tenemos muy poca o ninguna influencia en lo que van a hacer las redes sociales con nosotros, debemos buscar la forma de hackear de manera virtuosa los algoritmos que nos están entregando esa información. Que nuestra conversación con esta nueva plaza pública digital se base en una comprensión distinta. Y para hacer eso tenemos que desarrollar conocimiento y desarrollar ciertos consensos sobre qué es bueno y qué es malo en este tipo de conversaciones, más allá de una opinión o de una noticia específica.

El decreto mandata a la comisión a ocuparse del impacto de la desinformación en la calidad de la democracia, de la alfabetización digital y de la desinformación en las plataformas; también, de las buenas prácticas internacionales y de las políticas públicas, aunque decía en off uno de sus miembros que “reducir el daño en redes sociales” era un objetivo central. ¿Cómo ve la convergencia de estos fines?

Si uno mira los objetivos de la comisión en una perspectiva constructiva, sin presumir intenciones, se da cuenta de que apuntan a mejorar la manera en que interactuamos con las redes de información, hoy altamente representadas por las redes sociales. En este contexto, los medios tradicionales deberían ser un aliado más que un contrincante, justamente porque han desarrollado métodos para combatir la desinformación básica -más allá de sus líneas editoriales, que son públicas-, porque tenemos una manera de conversar con ellos, porque saben cómo regularse, etc., mientras las redes sociales son un espacio vacío.

Entender cómo conectarse con esas redes sociales, que van desde los grupos de WhatsApp hasta Facebook o Twitter, es fundamental para relacionarse con la desinformación, y si uno ve los objetivos [de la comisión asesora], todos van para allá. Me parece que hay una lectura virtuosa que no implica censura.

Foto: Nicole La Due

La ausencia de precisiones y definiciones en el decreto, ¿ha sido una desventaja para la comisión?

Ahí se da la ironía de que la Comisión contra la Desinformación no pudo manejar la desinformación sobre sí misma. Una de las cosas que uno aprende mirando las redes sociales es que si uno no se define, te definen. Entonces, a nivel de ejecución debiera haberse planteado muy tempranamente que el objetivo último es el desarrollo de políticas públicas, y que en él tienen que intervenir todos los actores -del gobierno, de la sociedad civil, incluso internacionales-, pero que el objetivo de esta comisión es un primer paso, porque este desarrollo de políticas públicas es un proceso muy largo.

En la comisión el objetivo no era terminar con un diálogo, sino empezarlo, y haberlo dicho de manera mucho más explícita habría permitido que la comisión se definiera. Al no hacerlo, el lenguaje de la información contemporánea la definió, y en el imaginario de mucha gente terminó convirtiéndose en algo que, si uno lee el texto [del decreto], no necesariamente es.

Cuando florecen los mensajes y discursos “de odio”, ya hay algoritmos eliminando posteos en redes y distintos sectores pidiendo más acciones de este tipo.

Por eso es muy importante entender cómo funcionan las redes para conversar virtuosamente con ellas, más que censurar. En cuanto a la restricción de discursos de odio, es un problema global donde, como decía, las redes sociales se preocupan más en inglés que en español. Y no lo vamos a solucionar “pegándole al topo”, porque siempre va a aparecer uno en otro lado. Hay que evitar que se generen sinergias que hagan que esas comunidades crezcan, que las comunidades que generan discursos de odio tengan capacidad de aglomerar gente en su entorno, para que esos discursos no se normalicen ni se amplifiquen.

Ahora, los algoritmos de las compañías tratan de censurar el discurso de odio, pero por otro lado favorecen a la gente más fanática. Hay experimentos clásicos: si uno escribe, por ejemplo, que le gusta la bandera, YouTube le va a ir mostrando videos cada vez más fanáticos, hasta llegar a videos ultranacionalistas. La tendencia natural de los algoritmos es a impulsarnos a esos discursos más extremos, y los discursos más extremos contienen discursos de odio.

¿Cómo se define un discurso de odio? Es complejo, y por eso incluso las grandes compañías no son capaces de llegar y censurar.

¿Cómo se aborda eso desde Chile?

Hackeando un poco, como decía, las interacciones con el algoritmo. Haciendo que la gente que tiene cierto poder en las redes, pero también los gobiernos, los partidos, las instituciones educacionales, etc., mejoren su comunicación para favorecer la diversidad de interacciones. Yo diría que, casi más importante que eliminar el discurso de odio, es que alguien opine en contra de manera argumentativa, que mucha gente diversa lo haga. Porque si no, esos discursos de odio van a desaparecer de las redes y se van a ir a WhatsApp, y ahí no podemos hacer nada, no hemos ganado nada más que esconder el problema.

Pero el hábito tuitero de ningunear moral o intelectualmente a quien nos contradice no se irá muy fácilmente ni muy luego...

Absolutamente. Por eso es súper importante que esto no se transforme en dos polos tirándose flechas. Que se transforme en una conversación más multidimensional. Investigando, uno se da cuenta de que a veces, cuando sale a planos diversos de conversación, la gente tiene muchas más cosas en común de las que se da cuenta.

Una persona que está en el polo opuesto de otras en cuanto a las vacunas puede ser amante de los gatos, y por ahí puede llegar a generar conversaciones más complejas, que tienden a ser más virtuosas. Las conversaciones dicotómicas son las que tienden a generar más extremismo.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.