Désinfo sur la santé mentale : le défi en ligne
Examinons comment le contenu trompeur affecte la sensibilisation à la santé mentale sur les plateformes vidéo.
― 9 min lire
Table des matières
- Santé mentale et désinformation
- Questions de recherche
- Méthodologie
- Collecte de Données
- Nettoyage des données
- Annotation
- Analyse de l'engagement
- Résultats
- Modèles linguistiques dans les commentaires
- Accord avec la désinformation
- Stigma envers la santé mentale
- Recommandations
- Améliorer la conception des plateformes
- Soutenir les utilisateurs
- Aborder le stigma
- Limitations et recherches futures
- Conclusion
- Source originale
- Liens de référence
Plus d'un adulte sur cinq aux États-Unis a des problèmes de Santé mentale. Avec moins de pros dispo en personne et des ressources limitées, beaucoup se tournent vers les vidéos courtes en ligne pour du soutien et des infos. Si ces vidéos peuvent aider, elles risquent aussi de répandre de fausses infos. C'est dangereux parce que les mauvaises idées sur la santé mentale peuvent mener à de mauvaises décisions, comme se diagnostiquer mal ou retarder un traitement.
Pour aborder ce problème, on a regardé comment les gens interagissent avec les infos et la désinfo sur la santé mentale sur des plateformes vidéo populaires, comme YouTube et Bitchute. Notre étude a impliqué la création d'un nouveau dataset appelé MentalMisinfo, qui contient des vidéos et des Commentaires axés sur la Désinformation en santé mentale. On a découvert que les modèles de langage avancés peuvent aider à détecter efficacement la désinformation dans les vidéos. On a aussi remarqué que les spectateurs s'engagent avec du contenu trompeur d'une manière qui peut aggraver le stigma autour de la santé mentale.
Santé mentale et désinformation
Beaucoup de gens cherchent du soutien via les réseaux sociaux comme YouTube et Reddit. Ces plateformes peuvent créer un sentiment de communauté, mais elles peuvent aussi diffuser des infos nuisibles sur la santé mentale. La désinformation peut entraîner de sérieux problèmes, y compris l'aggravation des symptômes et la réticence à demander de l'aide. Malgré ces risques, il y a eu peu de recherche sur la diffusion de la désinformation en santé mentale sur les réseaux sociaux comparé à d'autres sujets de santé.
Notre étude vise à combler cette lacune en examinant comment la désinformation sur la santé mentale apparaît en ligne et comment les gens y réagissent. On veut découvrir quelles idées trompeuses sont populaires et explorer la connexion entre désinformation et stigma.
Questions de recherche
On s'est concentrés sur trois questions principales dans notre étude :
- Comment les commentaires sur des vidéos trompeuses se comparent-ils à ceux sur des vidéos précises ?
- Les gens sont-ils plus ou moins d'accord avec des vidéos trompeuses qu'avec des précises ?
- Les commentaires sur des vidéos trompeuses sont-ils plus susceptibles de promouvoir le stigma contre les problèmes de santé mentale ?
Méthodologie
Données
Collecte deOn a regardé du contenu sur deux plateformes : YouTube et Bitchute. YouTube est une plateforme vidéo bien connue avec un large public, tandis que Bitchute a gagné de l'attention pour son contenu plus controversé avec moins de modération. On s'est spécifiquement concentrés sur des vidéos courtes, car elles sont faciles à créer et à consommer.
On a collecté des vidéos en cherchant des mots-clés pertinents liés à la santé mentale, ce qui nous a aidés à trouver des vidéos qui pourraient inclure de la désinformation. Pour Bitchute, on a rassemblé des vidéos de moins de cinq minutes qui correspondaient à nos mots-clés.
Nettoyage des données
Ensuite, on a vérifié que les vidéos collectées étaient en anglais et liées à la santé mentale. On a enlevé les vidéos qui ne correspondaient pas au contenu qu'on recherchait. Après avoir filtré des milliers de vidéos, on a fini avec une bonne sélection pour notre analyse.
Annotation
Comme il n'y avait pas de directives claires existantes pour identifier la désinformation en santé mentale, on a créé notre propre système avec l'aide d'experts du domaine. On a décidé que la désinformation en santé mentale est toute info trompeuse qui prétend se rapporter à la santé mentale mais qui est partiellement ou complètement fausse.
Ensuite, on a fait passer des pros formés dans les vidéos sélectionnées pour les étiqueter comme contenant ou non de la désinformation sur la base de trois critères principaux : précision sur les traitements, alignement avec les vues médicales et promotion de pratiques basées sur des preuves. Ce processus a aidé à garantir la fiabilité de notre dataset.
Analyse de l'engagement
On a examiné comment les utilisateurs interagissaient avec les vidéos en regardant les commentaires laissés. En utilisant des outils qui mesurent les motifs de langage dans les commentaires, on a pu analyser les mots et phrases utilisés au lieu de simplement compter les commentaires ou les likes.
Résultats
Modèles linguistiques dans les commentaires
Notre analyse a révélé des différences notables dans la manière dont les gens interagissent avec la désinformation par rapport à l'information précise. Par exemple, les commentaires sur les vidéos trompeuses contenaient plus de termes liés au risque et à la mort. En revanche, les commentaires sur les vidéos précises montraient plus de souci pour la santé globale.
On a remarqué que les commentateurs masculins étaient plus susceptibles de s'engager avec du contenu trompeur et utilisaient souvent un ton plus agressif. Cela suggère que les personnes qui s'identifient à certains stéréotypes pourraient être plus sensibles à croire à la désinformation.
De plus, une quantité significative de langage religieux est apparue dans les commentaires sur les vidéos trompeuses. Cela indique que certains peuvent s'appuyer sur des vues basées sur la foi lorsqu'ils parlent de santé mentale, au lieu d'infos scientifiques.
Accord avec la désinformation
Quand on a regardé si les gens étaient d'accord avec le contenu trompeur, on a trouvé que les utilisateurs de YouTube étaient plus susceptibles de désavouer les vidéos trompeuses que les vidéos précises. Sur Bitchute, par contre, c'était l'inverse ; les utilisateurs étaient plus enclins à être d'accord avec des vidéos trompeuses. Cela suggère des comportements et systèmes de croyance différents sur ces plateformes.
Les données ont montré qu'un grand pourcentage des commentaires sur des vidéos trompeuses sur les deux plateformes contenait de l'accord, ce qui indique une tendance inquiétante dans l'acceptation de la désinformation.
Stigma envers la santé mentale
Notre analyse finale s'est concentrée sur comment le stigma était présent dans les réponses aux vidéos trompeuses. On a trouvé que les commentaires sur les vidéos trompeuses montraient des vues beaucoup plus stigmatisantes sur la santé mentale comparé aux commentaires sur des vidéos précises. C'est préoccupant car cela souligne comment la désinformation peut contribuer à des perceptions négatives des problèmes de santé mentale.
Globalement, les résultats de notre étude soulignent le besoin urgent de s'attaquer à la désinformation sur la santé mentale. L'engagement significatif avec du contenu nuisible suggère que les plateformes doivent trouver de meilleures manières de gérer les informations partagées.
Recommandations
Améliorer la conception des plateformes
Pour lutter contre la désinformation en santé mentale, on recommande que les plateformes agissent pour limiter la visibilité du contenu trompeur. Cela peut inclure le retrait de vidéos qui répandent clairement de la désinformation ou la fourniture de meilleures ressources pour que les utilisateurs trouvent des informations précises.
Les plateformes pourraient aussi utiliser des modèles de langage avancés pour aider à identifier plus efficacement le contenu trompeur. Cependant, elles doivent être prudentes car ces modèles ne sont pas parfaits. Utiliser des modérateurs humains en plus de ces modèles peut aider à garantir que la désinformation est correctement identifiée.
Soutenir les utilisateurs
Une autre étape importante est de donner aux utilisateurs les moyens de chercher des informations précises sur la santé mentale. Les plateformes pourraient fournir des ressources qui connectent les utilisateurs avec des services et organisations de santé mentale fiables. Mettre en œuvre des fonctionnalités comme des marqueurs vérifiés pour les pros de santé mentale peut aider à guider les utilisateurs vers un contenu de confiance.
C'est aussi essentiel de créer des programmes qui promeuvent la création de contenu de qualité sur la santé mentale. Les plateformes devraient inciter les experts en santé mentale à partager des informations précises, potentiellement par le biais de partenariats ou de récompenses pour produire des vidéos informatives.
Aborder le stigma
Enfin, il y a un besoin pressant de s'attaquer au stigma entourant la santé mentale. Cela peut être accompli par des campagnes éducatives qui promeuvent des discussions ouvertes sur la santé mentale, couplées à des efforts pour contrer la désinformation. En normalisant les conversations autour de la santé mentale, on peut réduire le stigma qui accompagne souvent ces sujets.
Limitations et recherches futures
Bien que notre étude offre des insights précieux, il est aussi important de reconnaître ses limites. Notre recherche s'est principalement concentrée sur du contenu en anglais, donc les résultats peuvent varier selon les langues et cultures. Les études futures devraient explorer comment la désinformation en santé mentale est perçue et abordée dans des communautés diverses.
D'autres recherches pourraient aussi se pencher sur des plateformes populaires auprès des jeunes, comme TikTok et Instagram, où la propagation de la désinformation pourrait avoir un impact significatif sur la santé mentale des adolescents. De plus, il serait bénéfique de mener des études qui engagent directement les utilisateurs pour mieux comprendre leurs expériences et perspectives concernant le contenu sur la santé mentale.
Conclusion
La désinformation sur la santé mentale est une préoccupation croissante, surtout à mesure que de plus en plus de gens recherchent des infos en ligne. Notre étude a éclairé comment les individus interagissent avec du contenu trompeur sur les plateformes vidéo et les conséquences de cet engagement. En comprenant ces interactions, on peut commencer à développer des stratégies efficaces pour lutter contre la désinformation et soutenir les individus dans leur parcours en santé mentale.
En résumé, les plateformes doivent prendre des mesures proactives pour garantir que les utilisateurs puissent accéder à des informations sur la santé mentale précises, sans désinformation nuisible. Avec la collaboration d'experts en santé mentale et de chercheurs, on peut créer un espace en ligne plus sûr pour ceux qui cherchent de l'aide.
Titre: Supporters and Skeptics: LLM-based Analysis of Engagement with Mental Health (Mis)Information Content on Video-sharing Platforms
Résumé: Over one in five adults in the US lives with a mental illness. In the face of a shortage of mental health professionals and offline resources, online short-form video content has grown to serve as a crucial conduit for disseminating mental health help and resources. However, the ease of content creation and access also contributes to the spread of misinformation, posing risks to accurate diagnosis and treatment. Detecting and understanding engagement with such content is crucial to mitigating their harmful effects on public health. We perform the first quantitative study of the phenomenon using YouTube Shorts and Bitchute as the sites of study. We contribute MentalMisinfo, a novel labeled mental health misinformation (MHMisinfo) dataset of 739 videos (639 from Youtube and 100 from Bitchute) and 135372 comments in total, using an expert-driven annotation schema. We first found that few-shot in-context learning with large language models (LLMs) are effective in detecting MHMisinfo videos. Next, we discover distinct and potentially alarming linguistic patterns in how audiences engage with MHMisinfo videos through commentary on both video-sharing platforms. Across the two platforms, comments could exacerbate prevailing stigma with some groups showing heightened susceptibility to and alignment with MHMisinfo. We discuss technical and public health-driven adaptive solutions to tackling the "epidemic" of mental health misinformation online.
Auteurs: Viet Cuong Nguyen, Mini Jain, Abhijat Chauhan, Heather Jaime Soled, Santiago Alvarez Lesmes, Zihang Li, Michael L. Birnbaum, Sunny X. Tang, Srijan Kumar, Munmun De Choudhury
Dernière mise à jour: 2024-07-02 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2407.02662
Source PDF: https://arxiv.org/pdf/2407.02662
Licence: https://creativecommons.org/licenses/by-sa/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.