2. ¿La culpa es del algoritmo?

Sesgos, cámaras, burbujas, verdades atomizadas y posverdades

En el grupo de WhatsApp del condominio donde vive Sofía circularon varios mensajes de dudosa procedencia antes de las elecciones regionales y municipales del 2021: encuestas que posicionaban a Javier Bertucci casi con tanta popularidad como Rafael Lacava en Carabobo; un tuit de Laidy Gómez en el que renunciaba públicamente a la candidatura a la reelección en el Táchira; foto de un aspirante opositor a una alcaldía de Nueva Esparta que portaba la franela roja del partido de gobierno; una imagen de la coalición opositora que informaba la declinación de Carlos Ocariz para favorecer a David Uzcátegui. Muchos comentarios y cero desmentidos en el grupo. Y todos los mensajes anteriores eran falsos.

Ilustración del OEV

¿Por qué rueda el círculo vicioso de la desinformación? ¿Qué hace que prospere? Distintos estudios convergen en la necesidad del ser humano de juntarse con otros correligionarios para reforzar sus propios prejuicios político-partidistas.

En la década de 1960, el psicólogo cognitivo Peter Cathcart Wason demostró con base en experimentos que la gente tiende, de forma natural, a buscar información que confirme sus creencias existentes. De él es el concepto de sesgo de confirmación: un tipo de sesgo cognitivo que implica la tendencia a buscar y considerar de forma más intensa y selectiva aquella información que confirme lo que ya pensamos. Así, interpretamos más positivamente aquellos hechos que básicamente respalden nuestras opiniones previas. Un prejuicio que nos incita a seguir de acuerdo con nuestras creencias, para así evitar entrar en contradicción con nosotros mismos, expone la psicóloga española Marta Guerri.

Llamamos, también, cámaras de eco a los espacios en línea donde solo interactuamos con otros usuarios que comparten nuestras mismas ideas y creencias. De esto han escrito desde hace más de 15 años Kathleen Hall Jamieson y otros autores.

Las burbujas de filtro son técnicas conducidas por la inteligencia artificial que mantienen a los usuarios en las redes sociales encerrados en sus cámaras de eco consumiendo contenidos que validan sus propias opiniones y reduciendo el acceso a otros diferentes puntos de vista.

En este mismo sentido, otros investigadores como Eric Sadin, filósofo francés, definen la atomización de la verdad como “un proceso en el que cada individuo forma su verdad plegándose a sus propias frustraciones, dificultades, fracasos o angustias y, encima, con la capacidad de crear sus propias redes informacionales”.

La mezcla de la hiper individualización con la posibilidad de estar dotados de “plataformas de la expresividad”, como Sadin prefiere llamar a las redes sociales, instauran la primacía de la propia persona a través de instrumentos de interferencia entre los individuos, a un punto tal que conducen a “un estado de aislamiento colectivo”, porque las acciones de la vida humana, incluida la propaganda electoral, se realizan cada vez más a distancia a través de pantallas.

Sandin pronostica luchas contra un “tecnoliberalismo” que solo apunta a acentuar la curva mediante la inteligencia artificial, la interpretación de los comportamientos, que él llama “la organización algorítmica de la existencia”, con la meta de racionalizar a la sociedad. Este, según él, será el gran combate por la civilización para este y el siguiente decenio.

Otro concepto que también orbita por estos tiempos es la posverdad, en desarrollo desde que, en 2004, lo usara Ralph Keyes. Elegida la palabra internacional de 2016 por el diccionario Oxford, se define como la distorsión deliberada de una realidad, que manipula creencias y emociones con el fin de influir en la opinión pública y en actitudes sociales. De ahí que algunos la conozcan también como “mentira emotiva”, en tanto implica la distorsión de la realidad primando las emociones y las creencias personales frente a los datos objetivos.

Así, por ejemplo, en una parte del electorado venezolano han quedado sembradas narrativas de supuestos fraudes electorales que no aguantan evidencias empíricas, pero que perviven empapadas de emocionalidad.

En materia comunicacional los seres humanos escondemos esa necesidad de querer estar en lo cierto, de querer pertenecer a grupos dentro de las sociedades.

En el fondo, lo que aguardan estos mensajes es que excitan o remueven las emociones básicas universales: la rabia, la tristeza, el asco, el miedo y la alegría. Este pareciera ser el combustible detrás de lo viral.

“El drama, el escándalo, la tragedia y los chismes resultan muy atractivos para los seres humanos, y los expertos del clickbait lo saben demasiado bien”, dijo Albertina Piterbarg, experta electoral en la UNESCO e instructora principal de un curso masivo sobre información y elecciones en la era digital que ofreció el Centro Knight en octubre de 2022 y que sirvió de base para esta parte del Aula Electoral.

Y ¿qué es el clickbait? Piterbarg lo definió en el curso como una trampa, como contenido que despierta interés por manipulación emocional para que la gente lo comparta, le dé “me gusta” y/o lo comente. Y nosotros agregamos: el clásico título que dice y al mismo tiempo no dice, y que se suele acompañar de expresiones como “mira lo que descubrió tal o cual político”…

El gobierno del algoritmo

“Que el algoritmo no nos defina el voto”, clamaba en un artículo de opinión la presidenta ejecutiva de la organización Proantioquia, María Bibiana Botero, antes de las elecciones presidenciales Colombia 2022. ¿Tiene sentido su clamor?

Lo tiene, y mucho. Para comentar este tema el antecedente quizás obligatorio sea el llamado escándalo Facebook-Cambridge Analytica. En la década pasada, la consultora británica Cambridge Analytica recopiló datos de millones de usuarios sin su consentimiento por medio de una aplicación, para usarlos principalmente con fines de propaganda política. Recopilaron datos de hasta 87 millones de perfiles de Facebook, y Cambridge Analytica luego los utilizó para proporcionar asistencia analítica a las campañas del senador y precandidato Ted Cruz y del candidato Donald Trump para las presidenciales de Estados Unidos en 2016.

Periodista especializada en la intersección entre la tecnología y el poder, la española Marta Peirano dijo sobre el caso Brasil:en 2018, Jair Bolsonaro convirtió WhatsApp en un medio de comunicación de masas clandestino, capaz de llevar su propaganda a los bolsillos de 100 millones de usuarios a través de un canal encriptado, lejos de la fiscalización de la prensa y la justicia y, por lo tanto, de nuestra comprensión.

Que los algoritmos intervienen en los procesos electorales no es un secreto. Ocurrió en Estados Unidos y, como arroja indicios el periodista especializado en tecnología Álvaro Montes, también ocurrió en países como Colombia antes de su votación presidencial de 2022.

Montes revisó durante una semana la información electoral que aparecía en Google Noticias, el poderoso canal informativo presente en casi todos los celulares por cuenta de la omnipresencia del buscador más popular del mundo. Google Noticias indexa información extraída de varios medios de comunicación, y ofrece un servicio informativo permanente en cada país.

Aunque navegó en modo incógnito, para evitar al máximo que el algoritmo le mostrara lo que a él le gustaría ver, encontró:

a) la sobrerrepresentación positiva de su candidato y la sobrerrepresentación negativa del otro;

b) que los titulares no se ordenan por el criterio de más recientes primero, tanto así que hubo titulares que mantuvieron encabezando secciones durante dos días, mientras otros más recientes estuvieron abajo y por poco tiempo;

c) que tampoco se ordenan en función de lo que aparece de manera mayoritaria en los medios de los que Google extrae las informaciones, porque vio noticias publicadas en El Tiempo y CityTV que nunca llegaron al canal de Google, a pesar de su relativa relevancia.

¿Cómo interpretó Montes esto? No se trata en absoluto de intenciones políticas de Google, aclara. “No es que el CEO Sundar Pichai tenga interés alguno en el destino político de cada uno de los países en donde hace negocios”, dice. Tampoco hay humanos decidiendo qué titulares aparecen en su canal de noticias en ningún país. “La decisión la toma un algoritmo, esto es, unas líneas que describen el razonamiento que la plataforma seguirá para cada tarea que deba realizar”.

El problema es que poco o nada sabemos de cómo trabajan por dentro los algoritmos, apunta el periodista colombiano. Son propiedad privada de empresas que perfeccionan la arquitectura de los algoritmos para mejorar su desempeño. Esto es, no cabe duda, un problema que enfrentan las democracias, relacionado con la representación digital de la opinión pública.

“Lo que mayor éxito tiene en las redes no es lo que informa acerca del voto, sino lo que genera más reacciones en mayor número de ciudadanos, más rápidamente; eso es lo que premia el algoritmo”, le explicó a Montes Cristina Vélez, directora y cofundadora de Linterna Verde, una organización que analiza cómo se construye opinión pública en línea a partir del estudio de grandes cantidades de datos.

El algoritmo, entonces, no tiene color político, sino hambre de clics, tráfico y enganche. Los algoritmos no son neutrales; diversos estudios demuestran que se parcializan por sexo, raza, ideología, política y paremos de contar…

¿Y cómo es el modelo de negocio de esas redes sociales dominantes? Sus ingresos provienen de la venta de publicidad con altos niveles de segmentacion, para lo cual usan tus datos. Por tanto, es objetivo de la red mantenerte enganchado, pues mientran más tiempo el usuario permanezca contectado, se le muestra más publicidad. El algoritmo usa los datos de los propios usuarios para determinar los contenidos que maximizan la probabilidad de captar su atención y mantenerlo conectado a la red.

Sobre las redes sociales, la misma Vélez utiliza estas analogías para explicar cómo operan: Twitter es como un bar, en donde en cada mesa hay conversaciones, pero la mesa más bulliciosa es escuchada por todos los demás. Facebook o Instagram, en cambio, funcionan como un edificio de apartamentos, en donde cada usuario solo puede leer los contenidos de las cuentas que sigue y para seguir una cuenta debe esperar la aceptación respectiva.

Este nuevo modelo, concluye Montes, sedujo a millones a creer que hay más democracia hoy por el hecho de que todos pueden publicar lo que quieran, pero también trajo nuevas discusiones sobre quién y cómo se define la agenda pública. “De los tiempos en que un editor en un gran diario decidía lo que importaba a los lectores, pasamos a los tiempos en los que un algoritmo lo hace, y no los ciudadanos, como nos prometió la era digital”, remata.

1.

No me mientas

VER LECCIÓN
3.

Estrategias sobre el terreno

VER LECCIÓN