Nuovo dataset svela intuizioni sulla plausibilità degli eventi
Un dataset che esamina come le persone giudicano la plausibilità degli eventi in base al linguaggio.
― 5 leggere min
Indice
- Perché la plausibilità è importante
- Il dataset
- Risultati sul giudizio umano
- Come abbiamo costruito il dataset
- Valutazione dell'astrattezza
- Processo di Annotazione Umana
- Analisi delle valutazioni
- L'impatto dell'astrattezza sulle valutazioni
- Riassunto della struttura del dataset
- Direzioni future della ricerca
- Conclusione
- Fonte originale
- Link di riferimento
Introduciamo un nuovo dataset che esplora come le persone pensano se gli eventi siano possibili o meno. Questo dataset include frasi reali tratte da Wikipedia. Si concentra su due tipi di eventi: quelli che sono diretti e quelli più astratti. Abbiamo creato esempi di eventi che le persone potrebbero trovare strani o poco plausibili e abbiamo chiesto loro di giudicarli. Il nostro obiettivo è capire meglio come gli esseri umani giudicano ciò che è plausibile e come le idee astratte influenzano quel giudizio.
Perché la plausibilità è importante
Essere in grado di capire se qualcosa è plausibile o meno è fondamentale, soprattutto per compiti legati all'elaborazione del linguaggio naturale. Questo significa insegnare ai computer a comprendere meglio il linguaggio umano. La maggior parte dei lavori precedenti si è concentrata su eventi fisici, come se sia ragionevole che un gatto mangi una sardina. Ma noi andiamo oltre includendo concetti astratti e il loro impatto sulla plausibilità.
Il dataset
Abbiamo creato il nostro dataset a partire da frasi che si trovano naturalmente nella lingua inglese. Abbiamo filtrato queste frasi per identificare eventi e determinato quanto siano astratte o concrete le parole usate in quegli eventi. Abbiamo poi prodotto esempi che sono probabilmente poco plausibili e annotato l'astrattezza del loro linguaggio.
Per garantire qualità, abbiamo chiesto alle persone di categorizzare la plausibilità di questi eventi. Dopo aver raccolto le loro risposte, abbiamo ripulito i dati mantenendo solo annotazioni di alta qualità.
Risultati sul giudizio umano
Abbiamo scoperto che la maggior parte delle persone tende a pensare che le cose siano plausibili piuttosto che implausibili e che i disaccordi siano più comuni quando si tratta di eventi implausibili. Questo mostra che, mentre alcuni eventi possono apparire chiaramente plausibili o implausibili, c'è spesso ambiguità, specialmente con frasi più astratte.
Nella nostra analisi, abbiamo anche scoperto che l'astrattezza delle parole ha un effetto chiaro su quanto le persone trovino plausibili gli eventi. Gli eventi che presentano elementi concreti hanno maggiori probabilità di essere giudicati come implausibili.
Come abbiamo costruito il dataset
Per creare il nostro dataset, siamo partiti da un'ampia gamma di eventi di linguaggio naturale estratti da articoli di Wikipedia. Abbiamo preso frasi strutturate come triple soggetto-verbo-oggetto. Ogni parola in queste triple è stata valutata in base a quanto sia astratta o concreta.
Abbiamo poi generato esempi di eventi che erano improbabili o implausibili tenendo traccia di quanto fosse astratto il loro linguaggio. Per valutare questi eventi, abbiamo raccolto Giudizi da persone online.
Attraverso questo processo, abbiamo raccolto un gran numero di giudizi sulla plausibilità di diverse combinazioni di eventi, assicurandoci che il dataset fosse sia diversificato che affidabile.
Valutazione dell'astrattezza
L'astrattezza si riferisce a concetti che non possono essere percepiti attraverso i sensi, come "fortuna" o "libertà," a differenza di idee concrete come "mela" o "casa." Comprendere l'astrattezza è importante perché si ricollega strettamente a come le persone giudicano la plausibilità.
Durante la nostra analisi, abbiamo osservato che parole più astratte tendevano a portare a valutazioni di plausibilità più elevate. Questo suggerisce che il linguaggio astratto può aprire a più possibili interpretazioni, permettendo una maggiore flessibilità nel modo in cui pensiamo agli eventi.
Annotazione Umana
Processo diPer valutare la plausibilità delle nostre triple di eventi, abbiamo chiesto alle persone di valutarle usando una scala mobile da implausibile a plausibile. Abbiamo raccolto le valutazioni attraverso una piattaforma online popolare, assicurandoci di filtrare per risposte di alta qualità.
Ogni evento è stato valutato da più persone per garantire accuratezza. Abbiamo implementato controlli rigorosi per mantenere la qualità dei dati, incluso il filtraggio delle risposte anomale e la conduzione di assicurazione della qualità con casi di controllo.
Analisi delle valutazioni
Dopo aver raccolto i dati, abbiamo analizzato le valutazioni per vedere come gli esseri umani giudicano la plausibilità. Abbiamo trovato una chiara tendenza per cui le persone tendono a valutare gli eventi come plausibili più spesso che no. Interessantemente, c'era un notevole livello di disaccordo quando le persone valutavano eventi considerati implausibili.
Questo disaccordo ha evidenziato la complessità del giudizio umano, in particolare quando si tratta di eventi astratti.
L'impatto dell'astrattezza sulle valutazioni
Abbiamo ulteriormente esplorato come l'astrattezza delle parole nelle triple di eventi influenzasse il giudizio. I nostri risultati suggeriscono che gli eventi con una maggiore proporzione di parole astratte ricevono valutazioni più plausibili. Al contrario, gli eventi dominati da parole concrete tendevano a essere valutati come implausibili.
Queste osservazioni indicano che la natura delle parole scelte per descrivere un evento può influenzare significativamente il modo in cui le persone percepiscono la sua plausibilità.
Riassunto della struttura del dataset
Il nostro dataset consiste in triple di eventi sia plausibili che implausibili, coprendo un'ampia gamma di livelli di astrattezza. Include esempi diretti accanto a quelli più complessi e astratti, permettendo un'esplorazione ricca di come gli esseri umani valutano diversi tipi di eventi.
Ci siamo assicurati di fornire non solo le valutazioni grezze ma anche aggregazioni utili che i ricercatori possono utilizzare per le proprie analisi.
Direzioni future della ricerca
Date le nostre scoperte, incoraggiamo ulteriori ricerche per esplorare le sfumature della plausibilità e dell'astrattezza in modo più approfondito. Studi futuri potrebbero indagare come diversi contesti e complessità nella struttura delle frasi potrebbero influenzare i giudizi.
Crediamo che il nostro dataset possa servire come una risorsa preziosa per esaminare come le persone pensano al linguaggio e le potenziali sovrapposizioni con i compiti nell'elaborazione del linguaggio naturale.
Conclusione
In conclusione, abbiamo presentato un dataset che aiuta a capire come le persone percepiscono la plausibilità degli eventi, in particolare in relazione all'astrattezza del linguaggio utilizzato. Analizzando le interazioni tra concetti concreti e astratti, speriamo di contribuire alla conversazione in corso sulla comprensione e percezione linguistica.
Il dataset è progettato per essere accessibile ai ricercatori interessati a esplorare la relazione tra linguaggio e plausibilità, prestando particolare attenzione a come il disaccordo tra annotatori rifletta la complessità del giudizio umano.
Questo lavoro getta le basi per ulteriori esplorazioni nella affascinante relazione tra linguaggio e pensiero, e speriamo che ispiri future indagini nel campo.
Titolo: A Dataset for Physical and Abstract Plausibility and Sources of Human Disagreement
Estratto: We present a novel dataset for physical and abstract plausibility of events in English. Based on naturally occurring sentences extracted from Wikipedia, we infiltrate degrees of abstractness, and automatically generate perturbed pseudo-implausible events. We annotate a filtered and balanced subset for plausibility using crowd-sourcing, and perform extensive cleansing to ensure annotation quality. In-depth quantitative analyses indicate that annotators favor plausibility over implausibility and disagree more on implausible events. Furthermore, our plausibility dataset is the first to capture abstractness in events to the same extent as concreteness, and we find that event abstractness has an impact on plausibility ratings: more concrete event participants trigger a perception of implausibility.
Autori: Annerose Eichel, Sabine Schulte im Walde
Ultimo aggiornamento: 2024-04-05 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2404.04035
Fonte PDF: https://arxiv.org/pdf/2404.04035
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.