Chiffrement de bout en bout et modération de contenu : un équilibre délicat
Examiner les défis de la modération de contenu dans les applis de messagerie chiffrées.
― 8 min lire
Table des matières
- Le défi de la Modération de contenu
- Comprendre le chiffrement de bout en bout
- L'impact de l'E2EE sur la modération de contenu
- Méthodes de détection existantes
- Nouvelles propositions pour la modération
- Systématiser la modération de contenu en E2EE
- Comprendre le contexte du problème
- Méthodes de détection en E2EE
- Mécanismes de réponse
- Transparence dans la modération de contenu
- Conclusion
- Source originale
- Liens de référence
Les applis de messagerie utilisent maintenant le Chiffrement de bout en bout (E2EE) comme une fonctionnalité standard, rendant les conversations privées. Même si c'est un bon pas pour la sécurité et la vie privée, ça pose des défis pour les services en ligne qui essaient de gérer le contenu nuisible. Comme ils ne peuvent pas voir les données réelles, ils doivent trouver de nouvelles façons de traiter des problèmes comme la haine, la désinformation et d'autres contenus problématiques.
Le défi de la Modération de contenu
La modération de contenu se réfère aux pratiques que les services utilisent pour filtrer le contenu nuisible. Avec l'E2EE, les plateformes ne peuvent pas accéder aux messages en clair, ce qui complique leur façon de gérer ces problèmes. Ce document discute de différentes perspectives sur la modération de contenu en E2EE et met en avant les domaines qui nécessitent plus de recherche.
Les préoccupations de politique publique
Les discussions politiques aux États-Unis et dans l'Union Européenne se concentrent principalement sur la sécurité des enfants et la désinformation. Cependant, beaucoup d'autres sujets méritent d'attirer l'attention. Une modération efficace nécessite une compréhension plus large des différents types de contenu nuisible, y compris le spam et les malware.
Comprendre le chiffrement de bout en bout
L'E2EE sécurise les données en garantissant que seul l'expéditeur et le destinataire peuvent lire les messages. Ça veut dire que même le fournisseur de service ne peut pas voir le contenu. Même si ça protège les utilisateurs des menaces extérieures, ça limite aussi la capacité d'un service à traiter le contenu problématique.
Caractéristiques clés de l'E2EE
- Confidentialité : Le service ne peut pas lire les messages, assurant la vie privée.
- Intégrité : Les destinataires peuvent vérifier que les messages n'ont pas été modifiés.
- Authentification : Les expéditeurs et les destinataires peuvent confirmer leurs identités respectives.
L'impact de l'E2EE sur la modération de contenu
L'E2EE offre de la vie privée, mais ça protège aussi le contenu nuisible de la Détection. Par exemple, si quelqu'un partage du matériel d'abus d'enfants via un service E2EE, la plateforme ne peut pas trouver ou bloquer ce contenu sans intervention. Le défi consiste à développer des méthodes de détection qui respectent la vie privée des utilisateurs.
Perspectives des forces de l'ordre
La montée de l'E2EE a rendu plus difficile pour les forces de l'ordre de surveiller l'activité en ligne. Ils ont exprimé des préoccupations sur le fait qu'ils sont en train de "devenir invisibles" à cause de l'utilisation croissante du chiffrement. Ça a entraîné des appels à trouver des méthodes pour détecter le contenu nuisible tout en maintenant le chiffrement.
Méthodes de détection existantes
Une méthode pour détecter le contenu nuisible est le hash matching. Cela implique de créer une empreinte unique pour certains contenus, comme des images d'abus d'enfants connues, puis de comparer le contenu utilisateur avec cette empreinte. Même si ça fonctionne bien pour certains types de contenu, ça ne peut pas être facilement appliqué dans un environnement E2EE.
Hash Matching
Le hash matching est un système qui fonctionne en comparant un hash de données utilisateurs à une liste de contenus nuisibles connus. Cependant, cette méthode ne peut pas être mise en œuvre dans des environnements E2EE sans sacrifier la vie privée des utilisateurs.
Nouvelles propositions pour la modération
Les propositions récentes visent à créer des exceptions où la modération pourrait se faire même dans des contextes E2EE. Ces propositions incluent des systèmes qui permettraient la signalisation sélective de médias correspondant à un certain ensemble de contenus.
Le débat autour des nouvelles propositions
Certains intervenants sont prudents face à ces nouvelles méthodes car elles pourraient mener à des violations de la vie privée. La peur est que ces systèmes s'étendent à surveiller plus de types de contenus sous la pression des gouvernements ou de l'opinion publique.
Systématiser la modération de contenu en E2EE
Ici, on décrit un processus pour la modération de contenu dans des contextes E2EE. Notre approche est basée sur la littérature antérieure mais adaptée aux défis uniques que présente l'E2EE.
Modèle en quatre parties pour la modération de contenu
- Contexte du problème : Identifier le préjudice sociétal causé par des types de contenus spécifiques.
- Détection : Comment trouver du contenu nuisible tout en assurant la vie privée des utilisateurs.
- Réponse : Actions entreprises une fois le contenu nuisible détecté.
- Transparence : Permettre aux utilisateurs de comprendre comment les décisions de modération sont prises.
Comprendre le contexte du problème
Le contexte du problème établit le cadre pour la modération. Il définit l'objectif, comme protéger les enfants en ligne ou combattre la désinformation. Selon le problème, différentes méthodes de détection et de réponse peuvent s'appliquer.
Méthodes de détection en E2EE
Trouver des moyens de détecter du contenu problématique sans compromettre la vie privée des utilisateurs est essentiel. Différentes méthodes ont été proposées, chacune avec ses avantages et inconvénients.
Correspondance exacte
Les systèmes de correspondance exacte cherchent des contenus nuisibles spécifiques connus en comparant les hashes. Même si cette méthode peut garantir la vie privée, ça peut ne pas être suffisant pour les environnements E2EE.
Hashing perceptuel
Le hashing perceptuel permet aux systèmes de détecter des contenus similaires qui pourraient avoir été légèrement modifiés. Même si ça aide à attraper des contenus nuisibles modifiés, ça peut aussi entraîner des faux positifs.
Classification par apprentissage automatique
L'apprentissage automatique a été utilisé pour tenter de détecter du contenu. Ces modèles peuvent atteindre une haute précision mais peuvent mener à des taux élevés de faux positifs. Il faut prendre soin de s'assurer que ces systèmes respectent les principes de l'E2EE.
Mécanismes de réponse
Une fois que le contenu nuisible est détecté, les services doivent décider comment répondre. Les réponses peuvent aller du blocage de contenu à la délivrance d'avertissements et au signalement aux autorités.
Confidentialité dans les réponses
Maintenir la vie privée des utilisateurs dans les mécanismes de réponse est crucial. Les systèmes doivent garantir que les réponses ne divulguent pas les données des utilisateurs sans consentement.
Transparence dans la modération de contenu
La transparence est vitale pour établir la confiance entre les utilisateurs et les services. Les utilisateurs devraient savoir comment les décisions de modération sont prises et comprendre les systèmes en place pour détecter le contenu nuisible.
Vérification du système
Les clients doivent pouvoir vérifier que les services fonctionnent comme promis. Ça peut impliquer des audits et des rapports de transparence réguliers.
Conclusion
À mesure que l'E2EE devient plus courant, il est de plus en plus urgent de s'attaquer aux défis de la modération de contenu dans ces systèmes. Même s'il y a des obstacles importants à surmonter, la recherche continue sur de nouvelles méthodes de détection qui respectent la vie privée des utilisateurs pourrait mener à des solutions viables. La voie à suivre doit équilibrer sécurité et vie privée tout en permettant une modération efficace du contenu.
Directions futures
D'autres études devraient se concentrer sur le développement de méthodes qui améliorent la modération de contenu sans compromettre les principes fondamentaux du chiffrement de bout en bout. La recherche sur la modération pilotée par les utilisateurs et les solutions communautaires pourrait aussi offrir des voies innovantes pour relever ces défis.
Avec la bonne approche, il est possible de développer des systèmes qui protègent les utilisateurs tout en atténuant les risques associés au contenu nuisible en ligne. En favorisant la collaboration entre chercheurs, décideurs et entreprises technologiques, on peut créer des environnements en ligne plus sûrs qui respectent les droits et la vie privée des utilisateurs.
Titre: SoK: Content Moderation for End-to-End Encryption
Résumé: Popular messaging applications now enable end-to-end-encryption (E2EE) by default, and E2EE data storage is becoming common. These important advances for security and privacy create new content moderation challenges for online services, because services can no longer directly access plaintext content. While ongoing public policy debates about E2EE and content moderation in the United States and European Union emphasize child sexual abuse material and misinformation in messaging and storage, we identify and synthesize a wealth of scholarship that goes far beyond those topics. We bridge literature that is diverse in both content moderation subject matter, such as malware, spam, hate speech, terrorist content, and enterprise policy compliance, as well as intended deployments, including not only privacy-preserving content moderation for messaging, email, and cloud storage, but also private introspection of encrypted web traffic by middleboxes. In this work, we systematize the study of content moderation in E2EE settings. We set out a process pipeline for content moderation, drawing on a broad interdisciplinary literature that is not specific to E2EE. We examine cryptography and policy design choices at all stages of this pipeline, and we suggest areas of future research to fill gaps in literature and better understand possible paths forward.
Auteurs: Sarah Scheffler, Jonathan Mayer
Dernière mise à jour: 2023-03-07 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2303.03979
Source PDF: https://arxiv.org/pdf/2303.03979
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.
Liens de référence
- https://www.dragonflai.co/
- https://dl.acm.org/conference/ccs/proceedings
- https://dblp.org/
- https://ieeexplore.ieee.org/Xplore/home.jsp
- https://www.usenix.org/publications/proceedings
- https://arxiv.org/search/cs
- https://eprint.iacr.org/search
- https://web.archive.org/web/20210805200549/
- https://www.apple.com/child-safety/
- https://support.google.com/messages/
- https://support.signal.org/hc/en-us
- https://faq.whatsapp.com/