Los hablantes de amhárico enfrentan desafíos en YouTube
La investigación revela la exposición a contenido dañino para los hablantes de amhárico en YouTube.
― 8 minilectura
Tabla de contenidos
- La Necesidad de Entender
- El Auge de YouTube y Sus Desafíos
- Moderación de Contenido y Sus Desafíos
- El Caso Específico de los Usuarios de Amárico
- Estudio 1: Entrevistas con Usuarios
- Estudio 2: Análisis de Datos de YouTube
- El Papel de los Creadores de Contenido
- Reacciones de los Usuarios y Mecanismos de Afrontamiento
- El Impacto en las Comunidades
- Recomendaciones para la Mejora
- Conclusión
- Fuente original
- Enlaces de referencia
Las plataformas en línea como YouTube llegan a millones de Usuarios en todo el mundo. Sin embargo, no hay mucha información sobre cómo los hablantes de idiomas menos comunes utilizan estas plataformas, especialmente en lo que respecta al contenido perjudicial. Para entender mejor este asunto, nos enfocamos en el Amárico, un idioma hablado ampliamente en Etiopía.
La Necesidad de Entender
Realizamos dos tipos de estudios para investigar esto. Primero, entrevistamos a 15 usuarios de YouTube que hablan amárico para conocer sus experiencias. En segundo lugar, analizamos datos de YouTube, incluyendo resultados de búsqueda, recomendaciones, comentarios y canales relacionados con contenido sexual perjudicial en amárico.
Nuestra investigación mostró varios hallazgos importantes. Los usuarios que hablan amárico consideran YouTube importante para muchas partes de sus vidas. Sin embargo, reportaron haberse expuesto a contenido sexual perjudicial cuando buscaban videos inocentes. Esto es preocupante porque los creadores de contenido malo se aprovechan de la falta de herramientas efectivas para gestionar contenido en idiomas menos comunes.
El Auge de YouTube y Sus Desafíos
YouTube es el sitio de compartición de videos más grande en muchas naciones, influyendo significativamente en cómo la gente consume información y entretenimiento. En los últimos años, ha surgido más contenido en idiomas distintos al inglés. Sin embargo, esta expansión trae consigo sus problemas.
Aunque YouTube ofrece contenido entretenido, también tiene aspectos dañinos. Muchos gobiernos en todo el mundo están intentando crear reglas para controlar el contenido en línea. Desafortunadamente, hay ambigüedad sobre qué constituye "contenido perjudicial" ya que puede incluir material legal e ilegal. Como resultado, YouTube se basa mayormente en sus propias pautas para gestionar el contenido compartido en su plataforma. A pesar de estos esfuerzos, muchos usuarios aún pueden encontrarse con contenido perjudicial debido a procesos de monitoreo ineficaces.
Moderación de Contenido y Sus Desafíos
YouTube emplea una combinación de sistemas automatizados y moderadores humanos para gestionar el contenido que se sube a su plataforma. Sin embargo, surgen problemas, especialmente para idiomas menos comunes. Con datos digitales limitados para idiomas como el amárico, la moderación efectiva a menudo es escasa. Además, muchas de las personas encargadas de moderar contenido no hablan estos idiomas con fluidez.
Los usuarios en contextos de idiomas de bajos recursos a menudo experimentan una moderación deficiente de su contenido. Esto lleva a una falta de entendimiento sobre cómo se gestiona el contenido en línea en sus idiomas, exponiéndolos a un riesgo de exposición dañina.
El Caso Específico de los Usuarios de Amárico
Para profundizar, nos enfocamos en los usuarios que hablan amárico y sus experiencias con contenido sexual en YouTube. El amárico es hablado por más de 25 millones de personas, principalmente en Etiopía. Datos anteriores mostraron que el contenido sexual es uno de los tipos de material más vistos en plataformas como YouTube. Nuestro objetivo era responder dos preguntas principales:
- ¿Cuáles son las experiencias de los usuarios que hablan amárico con contenido sexual perjudicial?
- ¿Cuáles son las características del contenido sexual perjudicial en amárico?
Estudio 1: Entrevistas con Usuarios
En nuestro primer estudio, entrevistamos a 15 hablantes de amárico. Estas entrevistas se dieron en varias plataformas en línea, asegurando que los participantes se sintieran seguros y cómodos. Las conversaciones duraron alrededor de una hora, y nuestro objetivo era entender cómo estos usuarios se encontraron con contenido perjudicial.
Descubrimos que los participantes usaban YouTube para propósitos educativos y de entretenimiento. Sin embargo, sus experiencias de búsqueda a menudo eran frustrantes e improductivas. Muchos usuarios mencionaron que tenían que filtrar resultados irrelevantes para encontrar el contenido que buscaban.
Curiosamente, al buscar temas comunes, varios usuarios reportaron haber encontrado videos sexuales. Por ejemplo, un participante mencionó que se sorprendió al ver contenido explícito al buscar música religiosa. Esto ilustra cómo el contenido perjudicial puede aparecer inesperadamente mientras los usuarios buscan información inofensiva.
Los participantes también notaron que ocasionalmente recibían recomendaciones para contenido sexual basadas en sus hábitos de visualización anteriores. Esto era particularmente preocupante porque algunos usuarios informaron haberse expuesto a este material simplemente al navegar por videos relacionados.
Estudio 2: Análisis de Datos de YouTube
Para la segunda parte de nuestra investigación, recopilamos y analizamos datos directamente de YouTube. Reunimos resultados de búsqueda, recomendaciones y comentarios relacionados con contenido sexual en amárico. Esto implicó revisar miles de videos para entender el comportamiento del algoritmo de la plataforma.
Descubrimos que muchas consultas de búsqueda inofensivas estaban devolviendo videos sexuales no deseados. Para un número significativo, encontramos que consultas populares resultaban en contenido inapropiado apareciendo en los primeros resultados. Esto muestra lo fácil que puede ser que material perjudicial se infiltre en búsquedas seguras.
Además, examinamos los videos que el sistema de recomendaciones ofrecía a los usuarios. En nuestro análisis, muchos usuarios que abrían videos sexuales se les presentaba aún más contenido sexual como recomendaciones. Este ciclo perpetúa la exposición a material perjudicial.
El Papel de los Creadores de Contenido
Durante nuestra investigación, identificamos varios creadores de contenido que subían material perjudicial en amárico. Estos creadores a menudo usaban diversas estrategias para evadir la moderación de contenido de YouTube. Algunos usaban programas de televisión populares o nombres de celebridades en sus descripciones de videos para atraer más vistas, mientras que otros incorporaban lenguaje explícito en sus miniaturas para ganar atención.
También notamos que varios de estos canales tenían afirmaciones engañosas en sus descripciones, presentándose como si ofrecieran contenido útil o educativo. Esta manipulación dificultaba que los usuarios identificaran videos perjudiciales y conducía a una mayor exposición a material inapropiado.
Reacciones de los Usuarios y Mecanismos de Afrontamiento
Los participantes compartieron cómo a menudo se sentían impotentes al reportar contenido perjudicial. Algunos reportaron experiencias agotadoras al intentar que se eliminaran videos. A pesar de reportar material dañino, muchos expresaron dudas sobre la efectividad del sistema de reportes.
Los usuarios describieron sentirse abrumados y frustrados por la falta de respuestas suficientes a sus reportes. Algunos perdieron la esperanza tras intentos repetidos de reportar contenido perjudicial, sintiendo que sus problemas no eran tomados en serio por la plataforma.
Para sobrellevar estas frustraciones, algunos participantes habían desarrollado estrategias personales. Esto incluía usar la función de "No recomendar" en YouTube para evitar la exposición a material no deseado y crear cuentas separadas para diferentes intereses. Este comportamiento refleja el deseo de los usuarios de gestionar mejor sus experiencias y minimizar el daño al interactuar con la plataforma.
El Impacto en las Comunidades
Nuestros hallazgos muestran un patrón preocupante donde los usuarios-especialmente grupos vulnerables como mujeres y trabajadores migrantes-están en riesgo de ser expuestos a contenido perjudicial. La falta de herramientas efectivas de moderación para idiomas de bajos recursos permite que creadores maliciosos apunten a estos usuarios.
Las experiencias compartidas de los participantes sugieren la necesidad de que plataformas como YouTube brinden mejor apoyo a los hablantes de idiomas menos comunes. Debe haber esfuerzos incrementados para asegurar que las políticas se apliquen adecuadamente y que los usuarios estén protegidos de contenido perjudicial.
Recomendaciones para la Mejora
Basándonos en nuestra investigación, proponemos varias recomendaciones para YouTube y otras plataformas en línea:
Mejorar la Moderación de Contenido: Las plataformas deberían invertir en mejores herramientas y más recursos dedicados a monitorear contenido en idiomas de bajos recursos. Esto incluye contratar moderadores que hablen estos idiomas con fluidez.
Mejorar los Sistemas de Reporte de Usuarios: Mecanismos de retroalimentación más sólidos son vitales para los usuarios que reportan contenido perjudicial. Esto puede ayudar a construir confianza en el sistema y animar a los usuarios a seguir reportando materiales problemáticos.
Guías Culturalmente Relevantes: Desarrollar pautas que tengan en cuenta las diferencias culturales puede ayudar a las plataformas a gestionar mejor el contenido. Entender el contexto de los usuarios es importante para moderar el material de manera efectiva.
Campañas de Concientización: Las plataformas pueden trabajar con organizaciones locales para educar a los usuarios sobre los riesgos asociados con el contenido en línea y empoderarlos para tomar decisiones más seguras.
Compromiso Comunitario: Colaborar con usuarios y comunidades puede ayudar a las plataformas a entender mejor sus experiencias y mejorar las prácticas de moderación de contenido.
Conclusión
Nuestro estudio destaca los desafíos significativos que enfrentan los hablantes de amárico y otros usuarios de idiomas de bajos recursos en plataformas como YouTube. Aunque estas plataformas ofrecen recursos valiosos, también exponen a los usuarios a contenido perjudicial debido a una moderación inadecuada. Al tomar medidas para mejorar la seguridad del usuario y fortalecer la moderación de contenido, las plataformas pueden crear una mejor experiencia para todos, particularmente para aquellos en comunidades vulnerables.
De cara al futuro, se necesita más investigación para explorar las experiencias de usuarios en otros idiomas y contextos culturales. Entender el impacto del idioma en las interacciones en línea será crucial para desarrollar entornos digitales más inclusivos y seguros.
Título: "I Searched for a Religious Song in Amharic and Got Sexual Content Instead": Investigating Online Harm in Low-Resourced Languages on YouTube
Resumen: Online social media platforms such as YouTube have a wide, global reach. However, little is known about the experience of low-resourced language speakers on such platforms; especially in how they experience and navigate harmful content. To better understand this, we (1) conducted semi-structured interviews (n=15) and (2) analyzed search results (n=9313), recommendations (n=3336), channels (n=120) and comments (n=406) of policy-violating sexual content on YouTube focusing on the Amharic language. Our findings reveal that -- although Amharic-speaking YouTube users find the platform crucial for several aspects of their lives -- participants reported unplanned exposure to policy-violating sexual content when searching for benign, popular queries. Furthermore, malicious content creators seem to exploit under-performing language technologies and content moderation to further target vulnerable groups of speakers, including migrant domestic workers, diaspora, and local Ethiopians. Overall, our study sheds light on how failures in low-resourced language technology may lead to exposure to harmful content and suggests implications for stakeholders in minimizing harm. Content Warning: This paper includes discussions of NSFW topics and harmful content (hate, abuse, sexual harassment, self-harm, misinformation). The authors do not support the creation or distribution of harmful content.
Autores: Hellina Hailu Nigatu, Inioluwa Deborah Raji
Última actualización: 2024-05-26 00:00:00
Idioma: English
Fuente URL: https://arxiv.org/abs/2405.16656
Fuente PDF: https://arxiv.org/pdf/2405.16656
Licencia: https://creativecommons.org/licenses/by-nc-sa/4.0/
Cambios: Este resumen se ha elaborado con la ayuda de AI y puede contener imprecisiones. Para obtener información precisa, consulte los documentos originales enlazados aquí.
Gracias a arxiv por el uso de su interoperabilidad de acceso abierto.
Enlaces de referencia
- https://twitter.com/seraphinagt/status/1711383231566692633
- https://dl.acm.org/ccs.cfm
- https://storage.googleapis.com/transparencyreport/report-downloads/pdf-report-27_2023-8-28_2023-9-10_en_v1.pdf
- https://www.youtube.com/intl/ALL_ca/howyoutubeworks/our-commitments/managing-harmful-content/
- https://transparencyreport.google.com/youtube-policy/views?hl=en
- https://support.google.com/transparencyreport/answer/9209072#zippy=%2Chow-is-violative-view-rate-vvr-calculated
- https://doi.org/10.1145/3290605.3300683
- https://dl.acm.org/doi/10.1145/3544548.3580953
- https://dl.acm.org/doi/10.1145/3491102.3517643
- https://docs.google.com/spreadsheets/d/1R-bV_WkHgz0qObwD1yQDZl1Fc_jACf0O8OVTl8Fzg4E/edit#gid=618115236
- https://t.me/
- https://www.youtube.com
- https://en.wikipedia.org/wiki/555