<
>

Los académicos que rastrean las redes sociales ven los esfuerzos para deslegitimar las elecciones, poniendo en peligro la democracia

El equipo interdisciplinario que dirige el Centro para un público informado de la Universidad de Washington, de izquierda a derecha: Ryan Calo, Chris Coward, Kate Starbird, Emma Spiro y Jevin West. (Foto de la Universidad de Washington)

Kate Starbird, de la Universidad de Washington, se ha estado sumergiendo en la desinformación electoral, y lo que ha descubierto es profundamente preocupante. Al rastrear tweets, publicaciones de Facebook e historias de noticias, Starbird y sus colegas académicos han documentado un esfuerzo continuo y a largo plazo para sembrar las preocupaciones de que la votación de 2020 está plagada de fraudes, sentando las bases para que algunos rechacen el resultado de las elecciones.

El daño potencial, dijo Starbird, se extiende mucho más allá de esta carrera.

“La democracia fracasa si perdemos la confianza en el proceso. Si no podemos confiar en los resultados de nuestras elecciones, entonces ya no tenemos democracia ”, dijo Starbird, profesor asociado del Centro para un Público Informado (CIP) de la UW en una reciente discusión transmitida en vivo con colegas.

Desde su lanzamiento en el otoño de 2019, el CIP ha estado rastreando el intercambio y la promoción de información errónea y la desinformación más malintencionada, que son falsedades que son deliberadamente engañosas.

Durante las elecciones, se incluyeron historias erróneas sobre las boletas de California arrojadas a los contenedores de basura (eran sobres vacíos de 2018), así como una historia reciente que afirma que el candidato presidencial Joe Biden tenía conexiones sospechosas con Ucrania a través de su hijo (el periódico sensacionalista se basó en el abogado del presidente Trump, Rudy Giuliani, como fuente y en el historia no ha sido corroborada en otra parte).

 Kate Starbird
Kate Starbird del Centro para un Público Informado de la Universidad de Washington, en la Cumbre GeekWire en O ctober 2015. (Foto de GeekWire)

El lunes, el grupo emitió advertencias que explicaban cómo la desinformación podría alterar el día de las elecciones. Incluyen la difusión de imágenes de largas filas de votación, temores de COVID-19 y amenazas de violencia para disuadir a la gente de ir a las urnas; y éxitos y fracasos anecdóticos en el proceso de votación que se pueden enfatizar demasiado para respaldar diferentes agendas. El informe del CIP incluye consejos para los periodistas y el público para limitar el daño causado por estos esfuerzos.

Este verano, el CIP multidisciplinario también se asoció con investigadores de la Universidad de Stanford, el Laboratorio de Investigación Forense Digital y Graphika para crear el Election Integrity Partnership.

El grupo es un equipo de respuesta rápida, falsedades electorales tipo SWAT, que analiza rápidamente la desinformación, rastrea sus fuentes y pide a las plataformas de redes sociales que la marquen o eliminen.

Algunas de las claves Los hallazgos de la asociación incluyen:

  • La evolución de una metanarrativa que en 2019 introdujo la noción de una “revolución de color”, una afirmación sin una base fáctica de que los demócratas están tratando de robar las elecciones. La historia se entreteje en eventos inconexos, incluidas las protestas sociales de este año y las afirmaciones infundadas de fraude electoral para respaldar la narrativa falsa. Proporciona un marco para agregar rumores e informes aleatorios como “evidencia” para respaldar la conspiración de la revolución.
  • La difusión de desinformación proviene menos de fuentes extranjeras y más de individuos y organizaciones nacionales que en 2016.
  • Publicaciones en redes sociales dividir en cuatro estrategias generales para socavar la elección: interferencia de procedimiento, como compartir información incorrecta sobre cuándo y dónde votar; interferencia en la participación, como generar preocupaciones sobre la seguridad de los votantes y alentar a los observadores electorales no autorizados; fraude, incluido el fomento del voto ilegal y las historias sobre papeletas destruidas; y la deslegitimación de los resultados electorales.

Los investigadores rastrearon los orígenes de la revolución del color hasta los medios de comunicación controlados por el estado ruso y otros medios de comunicación. Gradualmente ganó fuerza con la ayuda del estratega conservador Steve Bannon, el comentarista Glenn Beck y un ex redactor de discursos de Trump en una entrevista de Fox News. Este mes, Q, el cabecilla detrás de la comunidad de la teoría de la conspiración de QAnon, compartió una publicación sobre la revolución del color que cree que Trump está luchando contra una camarilla oculta de pedófilos satánicos con vínculos demócratas.

Starbird y otros con la asociación advirtieron que la aceptación generalizada de la narrativa crea la base para rechazar los resultados de las elecciones y para la confusión del 3 de noviembre que está lista para ser explotada.

Eso incluye una desconfianza en los recuentos de votos si la ventaja de un candidato disminuye o fluye a medida que se cuentan más papeletas. Los expertos hablan de un “cambio azul” para describir un fenómeno en el que un candidato republicano podría tener un mejor desempeño en los primeros resultados que incluyen más votaciones en persona, pero a medida que se cuentan las boletas por correo, los números de los demócratas mejoran. Los ciudadanos dispuestos a creer que los demócratas son los cerebros de una revolución podrían ver el cambio azul como el cumplimiento de esa profecía, en lugar de un artefacto en el que las papeletas se cuentan primero.

Sin embargo, simplemente identificar y generar conciencia sobre la metanarrativa es no lo suficiente como para detener su propagación en las redes sociales.

“Es un desafío muy importante para las empresas de plataformas”, dijo Renée DiResta, gerente de investigación del Observatorio de Internet de Stanford, durante una sesión informativa esta semana. “No hay un solo incidente aislado que puedan enviar a sus socios de verificación de datos. Y muchos de estos videos y artículos que alegan este fenómeno se basan en una letanía de eventos encadenados, que requieren que cada uno sea evaluado ”.

Pero las plataformas de redes sociales tienen un papel que desempeñar, y la asociación ha estado analizando las políticas que las empresas están aprovechando para tratar de que los usuarios conozcan la información sospechosa, guiarlos hacia fuentes confiables y prohibir por completo las publicaciones más atroces.

La información errónea y la desinformación se pueden agrupar en cuatro tipos:

Cuadro vía Election Integrity Partnership. [19659002] El grupo revisó y categorizó las políticas de las plataformas de acuerdo con tres categorías que describen sus respuestas a los diferentes tipos de publicaciones: ninguna, indica que no hay política; no exhaustivo, lo que significa que no está claro qué tipo de lenguaje se cubre; y exhaustivo, lo que indica que la política es directa en cuanto al tipo de lenguaje que se cubre.

La asociación realizó su análisis de políticas en agosto y lo actualizó esta semana. Las entradas rojas indican políticas que se cambiaron entre ese período de tiempo. Los enfoques varían ampliamente:

Gráfico a través de la Asociación de Integridad Electoral

Si bien Facebook y Twitter tienen políticas integrales para abordar publicaciones problemáticas, su enfoque para evaluar el contenido es diferente. Facebook, que en el gráfico incluye Instagram, se está asociando con fuentes externas, incluido el no partidista PolitiFact, para ayudar con su verificación de datos. Twitter hace la llamada utilizando experiencia interna, un enfoque llamado “ad hoc” por un experto.

Los investigadores coincidieron en que las plataformas han mejorado con el tiempo, tomando medidas más agresivas para la información policial. Uno de los cambios notables es la decisión de etiquetar o extraer publicaciones de los líderes políticos, así como de los usuarios promedio.

Un desafío continuo es la velocidad a la que una plataforma responde a un tweet o publicación que viola la política. A principios de este verano, un sitio podría tardar cuatro horas en responder, y eso se redujo a una hora más recientemente, dijo Starbird, pero incluso eso puede ser demasiado largo. Para una cuenta de Twitter con una gran cantidad de seguidores, un tweet falso puede propagarse rápidamente en cuestión de minutos y el daño ya está hecho en gran medida.

Incluso cuando estas políticas apuntan de manera más agresiva a la desinformación, hay un problema subyacente más grande a considerar, dijo Starbird, quien es profesor asociado de Diseño e Ingeniería Centrados en Humanos en la Universidad de Washington.

“Necesitamos pensar, '¿Por qué estas empresas tienen tanto poder en nuestro discurso democrático y nosotros tenemos tan poca capacidad para dar forma a lo que está sucediendo? ¿allí?” dijo durante un panel de discusión reciente. “Todavía parece que hay algo desequilibrado aquí en nuestra sociedad”.

Nota del editor: Los fondos para la serie Impact de GeekWire los proporciona la Fundación de la Familia Singh en apoyo del periodismo de servicio público. Los editores y reporteros de GeekWire operan de forma independiente y mantienen un control editorial total sobre el contenido.

Etiquetas

Siguiente

Deja tu comentario