Simple Science

Ciencia de vanguardia explicada de forma sencilla

# Informática# Redes sociales y de información

La Influencia Oculta de los Algoritmos de Redes Sociales en la Política

Analizando cómo los algoritmos moldean el contenido político en las redes sociales a medida que se acercan las elecciones.

Jinyi Ye, Luca Luceri, Emilio Ferrara

― 8 minilectura


Algoritmos y ContenidoAlgoritmos y ContenidoPolíticoen nuestras opiniones políticas.Examinando cómo los algoritmos influyen
Tabla de contenidos

En la previa a las elecciones presidenciales de EE. UU. de 2024, las redes sociales se han convertido en la gran carpa donde todos -desde comentaristas políticos serios hasta tu tío que comparte memes de gatos- vienen a hablar de política. Pero aquí está lo interesante: gran parte del Contenido político que ves en estas plataformas no es solo de las personas que sigues. De hecho, ¡casi la mitad de los tuits en la línea de "Para ti" provienen de cuentas que ni siquiera sabes que existen! Entonces, ¿qué pensamientos políticos se están colando en tu feed y cómo influye esto en nuestras conversaciones democráticas?

El Truco Mágico del Algoritmo

Los Algoritmos de redes sociales son como magos tensos trabajando detrás de las cortinas. Deciden qué tuits aparecen en nuestras pantallas, todo mientras nosotros tomamos café y pasamos el dedo. No es de extrañar que tratar de entender cómo funcionan estos algoritmos sea como intentar adivinar el próximo truco de un mago. Estudios anteriores muestran que ciertas voces Políticas se amplifican dentro de los tuits de las cuentas que seguimos. Pero, ¿qué pasa con esos tuits misteriosos de cuentas que no seguimos? Ahí es donde está la verdadera curiosidad.

A medida que nos preparamos para las elecciones, necesitamos investigar cómo estos algoritmos influyen en el contenido político que consumimos y qué significa eso para nuestros puntos de vista.

El Experimento de los "Sock-Puppets"

Para llegar al fondo de este lío algorítmico, creamos 120 cuentas "sock-puppet" -básicamente, cuentas falsas con diferentes inclinaciones políticas. Las soltamos en la selva de las redes sociales para ver qué contenido político se les exponía durante tres semanas. ¿Nuestro objetivo? Averiguar si los usuarios con diferentes creencias políticas recibían distintos tipos de contenido político y si había algún sesgo en las recomendaciones que recibían.

Alerta de spoiler: encontramos algunos resultados intrigantes. Resulta que el algoritmo tiende a favorecer unas pocas cuentas populares en general, pero los usuarios de derecha recibieron una peor propuesta cuando se trató de desigualdad de Exposición. Tanto los usuarios de izquierda como de derecha vieron más de lo que estaban de acuerdo y menos de lo que no les gustaba.

¿Cómo Funciona Esto?

Entonces, ¿cómo elige el algoritmo qué tuits destacar? En 2023, Twitter (ahora llamado X) dejó caer un poco de información al abrir algunos detalles sobre su algoritmo de recomendaciones. En términos simples, utiliza una mezcla de datos de participación y redes neuronales sofisticadas para elegir qué tuits mostrar, pero no nos pidas que expliquemos cómo funciona todo porque incluso nosotros estamos un poco confusos con los detalles.

Lo que sí sabemos es que estudios pasados han mostrado un patrón: el algoritmo tiende a empujar contenido político más inclinado a la derecha que a la izquierda. Esto significa que si eres un usuario de derecha, podrías estar recibiendo más tuits de derecha, mientras que los usuarios de izquierda verán más contenido de su lado. ¡Habla de una cámara de eco política!

La Estrategia de los "Sock-Puppets"

Para llevar a cabo nuestra investigación, creamos cuatro grupos de cuentas: inclinación izquierda, inclinación derecha, equilibradas y neutrales. Cada grupo siguió una mezcla de medios y figuras políticas para representar sus inclinaciones políticas con precisión. Luego, monitoreamos los tuits de estas cuentas cada pocas horas para ver qué recomendaba el algoritmo.

Al final de nuestra recolección de datos, teníamos una cantidad jugosa de datos que consistía en más de 5 millones de tuits. Pudimos ver cómo diferentes perfiles políticos experimentaban la exposición de contenido fuera de su red.

Echando un Vistazo a la Desigualdad de Exposición

A medida que se comparte contenido político en plataformas sociales, algunos usuarios reciben más exposición que otros. Esto se llama sesgo de popularidad. Piénsalo como un concurso de popularidad: si eres querido por mucha gente, obtienes más atención. Nuestros sock-puppets no fueron la excepción a esta regla. Notamos que los usuarios de derecha experimentaron la mayor desigualdad en lo que veían en comparación con los usuarios de izquierda y neutros.

Usamos un indicador elegante llamado coeficiente de Gini para medir qué tan uniformemente se distribuía el contenido político entre los usuarios. Un alto coeficiente de Gini significa que unas pocas cuentas populares están dominando la conversación, mientras que un puntaje bajo sugiere una distribución más equitativa. Descubrimos que los usuarios de derecha recibieron la mayor parte del pastel de desigualdad.

Cuentas Populares: ¿Quién Está en el Punto de Mira?

Ahora que sabíamos que la exposición estaba sesgada, dirigimos nuestra atención a las cuentas que aparecían más en los feeds de nuestros sock-puppets. ¿Y adivina qué? Las cuentas de derecha fueron recomendadas más frecuentemente que las de izquierda. En términos de porcentajes, los usuarios de derecha estaban obteniendo alrededor del 30% de la visibilidad, mientras que los usuarios de izquierda estaban más cerca del 29%.

Pero Espera, ¡Hay Más!: Amplificando y Desamplificando Voces Políticas

Los algoritmos pueden amplificar ciertas voces mientras silencian otras. Esto significa que si sigues cuentas de derecha, el algoritmo es más propenso a mostrarte contenido similar. Mientras tanto, los puntos de vista opuestos pueden ser excluidos de tu línea de tiempo. Sumamos las proporciones medias de amplificación para ver cuánto contenido político estaba siendo destacado -o empujado al fondo- según las inclinaciones políticas de los usuarios.

Lo que encontramos fue fascinante: las cuentas de izquierda vieron un aumento en la exposición de las cuentas que se alineaban con sus creencias, mientras que las cuentas de derecha enfrentaron un momento más difícil. ¡Esto no fue solo un pequeño empujón; la diferencia en amplificación fue significativa! Parece que la plataforma adora mantener las cosas cómodas para los usuarios que ya están de acuerdo entre sí.

Implicaciones para la Democracia

Entonces, ¿por qué importan estos hallazgos? Simple. A medida que las redes sociales juegan un papel importante en dar forma a las discusiones políticas, la forma en que los algoritmos amplifican ciertos mensajes puede influir no solo en las opiniones individuales, sino también en el discurso público en general. Cuando a los usuarios se les muestra principalmente contenido que coincide con sus puntos de vista, puede generar cámaras de eco donde las perspectivas diversas están ausentes.

Con las elecciones que se aproximan, deberíamos ser cautelosos sobre cómo los algoritmos pueden moldear opiniones. Si nuevos usuarios o cuentas neutrales están expuestas a más perspectivas conservadoras, podrían no obtener una visión equilibrada del panorama político. Esto podría tener un impacto sutil pero duradero en sus opiniones.

La Creciente Influencia de Voces No Tradicionales

Otro giro en la historia es que las plataformas parecen estar dando más exposición a comentaristas políticos e influencers en lugar de solo a políticos u organizaciones de noticias. Esta tendencia se adentra en la idea de que las voces individuales -especialmente aquellas que crean contenido atractivo- están volviéndose más significativas en el ámbito político. Esto podría afectar cómo se forman las opiniones, especialmente para usuarios casuales que podrían ser influenciados por comentarios sensacionalistas.

Manteniendo un Ojo en el Algoritmo

Dadas todas estas revelaciones, está claro que rastrear el comportamiento algorítmico y su impacto en la exposición de contenido es esencial. A medida que estas plataformas continúan evolucionando, asegurar la transparencia ayudará a prevenir posibles abusos, especialmente durante eventos significativos como elecciones. Revisiones y balances regulares pueden ayudar a mantener la integridad de los procesos democráticos y garantizar que los usuarios estén informados con una visión equilibrada.

Conclusión: El Show Debe Continuar

Al concluir este viaje a través del mundo de los algoritmos de redes sociales y el contenido político, es evidente que lo que vemos en línea juega un papel crucial en la configuración de nuestras opiniones políticas. Los algoritmos tienen el poder de dictar lo que vemos, y los resultados pueden llevar a una exposición desigual en general.

Así que la próxima vez que desplaces tu feed, solo recuerda: los tuits que ves pueden no ser toda la historia y podrían reflejar las maquinaciones ocultas de los algoritmos. Esperemos por un futuro donde las voces diversas sean escuchadas y el discurso político sea saludable, atractivo e inclusivo para todos.

Fuente original

Título: Auditing Political Exposure Bias: Algorithmic Amplification on Twitter/X Approaching the 2024 U.S. Presidential Election

Resumen: Approximately 50% of tweets in X's user timelines are personalized recommendations from accounts they do not follow. This raises a critical question: what political content are users exposed to beyond their established networks, and how might this influence democratic discourse online? Due to the black-box nature and constant evolution of social media algorithms, much remains unknown about this aspect of users' content exposure, particularly as it pertains to potential biases in algorithmic curation. Prior research has shown that certain political groups and media sources are amplified within users' in-network tweets. However, the extent to which this amplification affects out-of-network recommendations remains unclear. As the 2024 U.S. Election approaches, addressing this question is essential for understanding the influence of algorithms on online political content consumption and its potential impact on users' perspectives. In this paper, we conduct a three-week audit of X's algorithmic content recommendations using a set of 120 sock-puppet monitoring accounts that capture tweets in their personalized ``For You'' timelines. Our objective is to quantify out-of-network content exposure for right- and left-leaning user profiles and to assess any potential biases in political exposure. Our findings indicate that X's algorithm skews exposure toward a few high-popularity accounts across all users, with right-leaning users experiencing the highest level of exposure inequality. Both left- and right-leaning users encounter amplified exposure to accounts aligned with their own political views and reduced exposure to opposing viewpoints. Additionally, we observe a right-leaning bias in exposure for new accounts within their default timelines.

Autores: Jinyi Ye, Luca Luceri, Emilio Ferrara

Última actualización: 2024-11-11 00:00:00

Idioma: English

Fuente URL: https://arxiv.org/abs/2411.01852

Fuente PDF: https://arxiv.org/pdf/2411.01852

Licencia: https://creativecommons.org/licenses/by/4.0/

Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.

Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.

Más de autores

Artículos similares