Comment les modèles de langue gèrent les questions controversées
Une étude révèle que les modèles de langage privilégient la pertinence par rapport à la qualité des preuves.
― 5 min lire
Table des matières
- L'Étude
- Preuve et Convaincante
- Processus de Collecte de Données
- Évaluation de la Convaincante
- Résultats Clés
- Impact de la Pertinence
- Jugements Humains vs. Modèles
- Mise en Place Expérimentale
- Caractéristiques Affectant la Convaincante
- Analyse Contre-factuelle
- Conclusion
- Remerciements
- Source originale
- Liens de référence
Les modèles de langage sont utilisés pour répondre à des questions qui peuvent être controversées ou avoir des opinions contradictoires. Par exemple, des requêtes comme "Est-ce que l'aspartame est lié au cancer ?" nécessitent une attention particulière sur de nombreux éléments d'information. Pour cela, ces modèles parcourent de nombreux sites web pour trouver des faits et des opinions qui soutiennent différentes réponses.
L'Étude
Dans cette étude, on a créé un ensemble de données pour voir à quel point les modèles gèrent ce genre de questions. On a associé diverses questions controversées avec des documents du monde réel qui contiennent des faits et des arguments contradictoires. Notre but était de découvrir quels types de Preuves ces modèles jugent fiables et pourquoi.
Preuve et Convaincante
Les humains se demandent souvent quelles preuves sont convaincantes face à des questions complexes. Ils vérifient les faits, pensent à d'où vient l'information et analysent les arguments présentés. Les modèles de langage ne suivent pas toujours ces étapes. Nos résultats suggèrent que, bien que les modèles prennent en compte la Pertinence d'une page web par rapport à la requête, ils négligent souvent des éléments que les humains trouvent importants, comme l'utilisation de références scientifiques ou un ton neutre dans l'écriture.
Processus de Collecte de Données
Pour construire notre ensemble de données, on a commencé par identifier une liste de questions controversées sur divers sujets. On a ensuite cherché en ligne pour trouver des paragraphes qui présentent des vues conflictuelles sur ces questions. Pour chaque requête, on a collecté des preuves soutenant à la fois une réponse "Oui" et une réponse "Non". On a utilisé des moteurs de recherche pour récupérer ces documents, en veillant à obtenir une large gamme d'arguments et de faits.
Évaluation de la Convaincante
Pour l'Analyse, on a regardé à quelle fréquence les prédictions d'un modèle correspondaient au point de vue présenté dans différents documents. On appelle ce taux le "taux de victoire". En mesurant cela, on pouvait évaluer quels types de paragraphes étaient plus convaincants pour le modèle.
Résultats Clés
Notre recherche a montré que les modèles de langage préfèrent les preuves basées sur la pertinence plutôt que sur le style. Par exemple, quand on a fait des changements simples pour rendre un texte plus pertinent par rapport à la question, le taux de victoire du modèle a considérablement augmenté. Cependant, ajouter des caractéristiques stylistiques, comme des références ou améliorer le ton du texte, n'a pas eu le même effet positif.
Impact de la Pertinence
Les résultats indiquent que les modèles surestiment la pertinence des documents qu'ils lisent, ignorant souvent la valeur du style et de la crédibilité. Quand on a modifié un site web pour clarifier sa pertinence par rapport à la question, les prédictions du modèle se sont améliorées plus que quand on s'est concentré sur des éléments stylistiques.
Jugements Humains vs. Modèles
Fait intéressant, il y a un écart notable entre la façon dont les humains et les modèles évaluent la convaincante d'un texte. Les humains peuvent lire un texte et former un jugement sur sa crédibilité. En revanche, les modèles ont du mal à faire de même quand ils sont présentés avec des preuves en isolation.
Mise en Place Expérimentale
Pour explorer davantage comment les modèles évaluent les preuves, on a testé plusieurs modèles de langage différents, à la fois open-source et closed-source. On leur a posé les mêmes questions conflictuelles et on a collecté leurs réponses binaires "Oui" ou "Non". Ça nous a aidés à évaluer comment ils perçoivent différents types de preuves.
Caractéristiques Affectant la Convaincante
On a examiné divers facteurs pour voir ce qui influence le jugement d'un modèle. Cela inclut la lisibilité, le sentiment, l'unicité des mots et à quel point le paragraphe est lié à la question. La corrélation la plus forte avec la convaincante venait de la similarité entre la question et le paragraphe.
Analyse Contre-factuelle
On a aussi modifié des documents existants pour voir comment les changements pouvaient affecter leur convaincante. Par exemple, en ajoutant des informations pour clarifier une position ou en ajustant le document pour le rendre plus pertinent, on pouvait évaluer comment ces modifications impactaient le taux de victoire du modèle.
Conclusion
En conclusion, notre travail éclaire la manière dont les modèles de langage augmentés par des systèmes de recherche évaluent la convaincante de l'information. Ces modèles ont tendance à se concentrer plus sur la pertinence des matériaux plutôt que sur les éléments stylistiques qui influencent le jugement humain. Il est crucial de peaufiner la façon dont ces modèles sont entraînés et quels types d'informations ils mettent en avant pour combler l'écart entre les évaluations des modèles et des humains.
Remerciements
On remercie tous ceux qui nous ont soutenus durant la recherche et le développement de cette étude. Les contributions de diverses personnes et collaborations ont rendu ce projet possible.
Titre: What Evidence Do Language Models Find Convincing?
Résumé: Retrieval-augmented language models are being increasingly tasked with subjective, contentious, and conflicting queries such as "is aspartame linked to cancer". To resolve these ambiguous queries, one must search through a large range of websites and consider "which, if any, of this evidence do I find convincing?". In this work, we study how LLMs answer this question. In particular, we construct ConflictingQA, a dataset that pairs controversial queries with a series of real-world evidence documents that contain different facts (e.g., quantitative results), argument styles (e.g., appeals to authority), and answers (Yes or No). We use this dataset to perform sensitivity and counterfactual analyses to explore which text features most affect LLM predictions. Overall, we find that current models rely heavily on the relevance of a website to the query, while largely ignoring stylistic features that humans find important such as whether a text contains scientific references or is written with a neutral tone. Taken together, these results highlight the importance of RAG corpus quality (e.g., the need to filter misinformation), and possibly even a shift in how LLMs are trained to better align with human judgements.
Auteurs: Alexander Wan, Eric Wallace, Dan Klein
Dernière mise à jour: 2024-08-08 00:00:00
Langue: English
Source URL: https://arxiv.org/abs/2402.11782
Source PDF: https://arxiv.org/pdf/2402.11782
Licence: https://creativecommons.org/licenses/by/4.0/
Changements: Ce résumé a été créé avec l'aide de l'IA et peut contenir des inexactitudes. Pour obtenir des informations précises, veuillez vous référer aux documents sources originaux dont les liens figurent ici.
Merci à arxiv pour l'utilisation de son interopérabilité en libre accès.