Simple Science

Scienza all'avanguardia spiegata semplicemente

# Finanza quantitativa# Sistemi multiagente# Intelligenza artificiale# Informatica e teoria dei giochi# Apprendimento automatico# Economia generale# Economia

Imparare le regole di voto attraverso approcci guidati dai dati

Nuovi metodi migliorano il processo decisionale nei gruppi usando modelli probabilistici.

Leonardo Matone, Ben Abramowitz, Nicholas Mattei, Avinash Balakrishnan

― 12 leggere min


Nuovi meccanismi di votoNuovi meccanismi di vototramite apprendimentovoto.efficace le sfide tradizionali delI metodi innovativi affrontano in modo
Indice

Quando gruppi di persone devono prendere una decisione insieme, spesso affrontano la sfida di unire diverse preferenze individuali in una scelta collettiva. Questo può essere un processo complicato in campi come l'informatica, dove è fondamentale sviluppare sistemi per cose come raccomandazioni, giochi e altro.

I ricercatori hanno studiato come prendere queste Decisioni Collettive per un bel po' di tempo, soprattutto attraverso la lente della Teoria della Scelta Sociale. Questa teoria esamina i migliori modi per creare algoritmi che possono raccogliere e elaborare le preferenze individuali secondo determinati standard, noti come assiomi. Tuttavia, creare questi algoritmi può essere molto difficile e a volte si è addirittura dimostrato impossibile.

Invece di programmare questi algoritmi passo dopo passo, c'è un nuovo approccio: imparare a prendere decisioni dai dati esistenti. Questo metodo si concentra principalmente sulle Regole di Voto, che sono un modo popolare per i gruppi di raggiungere decisioni. Tuttavia, gli sforzi passati in questo campo hanno incontrato problemi come la necessità di modelli enormi o di essere limitati nei modi di rappresentare le preferenze individuali.

Stiamo proponendo un metodo che vede la creazione di una buona regola di voto come un apprendimento da esempi, specificamente utilizzando modelli probabilistici. Questi modelli aiutano a produrre una gamma di possibili scelte anziché un solo vincitore. La chiave del nostro metodo è utilizzare reti neurali, un tipo di programma informatico che imita il funzionamento del nostro cervello, per imparare quelle che vengono chiamate funzioni di scelta sociale probabilistiche.

La nostra ricerca dimostra che utilizzare rappresentazioni personalizzate delle preferenze degli elettori ci aiuta a imparare le regole di voto esistenti in modo più efficace. Questo è particolarmente vero quando la rappresentazione si allinea con gli obiettivi di apprendimento specifici. Inoltre, abbiamo scoperto che queste regole apprese possono essere adattate per creare nuove regole di voto che hanno proprietà migliori secondo gli assiomi stabiliti. In una delle nostre scoperte, mostriamo che modificare le regole di voto attuali può aiutare a affrontare problemi come il Paradosso dell'Assente, dove un elettore può ottenere un risultato più favorevole non votando affatto.

Comprendere i Meccanismi di Decisione

Nella decisione collettiva, gli individui esprimono le loro preferenze per varie opzioni, e ci vuole un sistema per combinare tutto questo in un unico risultato. La progettazione di questi sistemi è un argomento centrale in campi come la Scelta Sociale Computazionale e la Teoria dei Giochi Algoritmici. L'obiettivo è creare meccanismi che non solo funzionino bene, ma che rispettino anche determinati principi o assiomi.

Una scoperta importante in questo campo è il Teorema di Impossibilità Generale di Arrow. Questo teorema spiega che è impossibile per qualsiasi processo decisionale soddisfare tutti gli assiomi desiderati contemporaneamente. Dai lavori di Arrow, i ricercatori hanno identificato quali assiomi vari meccanismi possono soddisfare, insieme a quali combinazioni portano all'impossibilità. Inoltre, questi studi approfondiscono gli aspetti algoritmici, analizzando quanto efficientemente questi processi possano essere realizzati.

Trovare regole di voto che soddisfino specifici assiomi può essere un compito arduo, soprattutto quando non è chiaro se una tale regola esista. Recentemente, c'è stato un passaggio verso l'uso di metodi di apprendimento automatico per creare nuovi meccanismi che soddisfino i requisiti. Questa filosofia è stata adottata in vari campi, incluse aste e sistemi di voto.

Tuttavia, i tentativi precedenti di utilizzare l'apprendimento automatico per le regole di voto hanno affrontato barriere significative. Le difficoltà includevano la necessità di reti neurali estese e complesse, disponibilità limitata di dati e l'incapacità di considerare appieno le implicazioni delle decisioni di design.

Il nostro approccio cerca di migliorare l'apprendimento delle regole di voto esistenti e nuove utilizzando rappresentazioni ben progettate dalla letteratura sulla scelta sociale. Queste rappresentazioni semplificano il processo di apprendimento, consentendo meno parametri e una migliore scalabilità quando si lavora con gruppi più grandi. Il nostro metodo riduce la dimensione dell'input per la Rete Neurale, il che riduce notevolmente il numero di parametri richiesti. Lavori passati hanno scoperto che i loro progetti di rete neurale erano limitati da una dimensione di input fissa, il che li ha portati a creare architetture più complesse per aumentare la scala e aggiungere padding per profili più piccoli. Al contrario, le nostre rappresentazioni consentono di mantenere la dimensione dello strato di input flessibile, facilitando la generalizzazione man mano che aumenta il numero di elettori.

In linea con studi precedenti, riconosciamo che i meccanismi di decisione possono essere valutati considerando quali informazioni utilizzano o trascurano dai profili di preferenza. Un importante contributo del nostro studio è migliorare la consapevolezza di come la scelta della rappresentazione si relazioni a quanto efficacemente questi sistemi apprendono e funzionano. I nostri esperimenti hanno sollevato nuove domande teoriche su quante informazioni vengano mantenute da queste rappresentazioni e il loro effetto sull'apprendimento delle regole.

Come Si Presenta il Voto

Quando molte persone pensano al voto, spesso visualizzano regole tradizionali che prendono le preferenze da un piccolo gruppo e producono un solo vincitore. In realtà, il mondo della scelta sociale è molto più ampio, composto da meccanismi che possono gestire vari tipi di input e output di dati. Ad esempio, gli elettori possono utilizzare valutazioni di approvazione, classificare i candidati o assegnare pesi alle loro scelte. I risultati possono includere un singolo vincitore, un insieme di vincitori o un elenco ordinato di candidati, tra le altre opzioni.

Siamo particolarmente interessati alle funzioni di scelta sociale probabilistiche (PSCF), che prendono un insieme di preferenze e forniscono una distribuzione di probabilità sui candidati. Le PSCF hanno diversi vantaggi quando si tratta di apprendere regole di voto utilizzando reti neurali rispetto alle tradizionali regole di singolo vincitore. Producendo una distribuzione, eliminiamo le complicazioni introdotte dai pareggi. Anche il pareggio casuale non è qualcosa che può essere appreso efficacemente.

Il nostro primo compito è dimostrare come le regole consolidate possano essere apprese in modo efficiente attraverso queste rappresentazioni. Dopo di che, affrontiamo la sfida di perfezionare le regole esistenti per migliorare le loro proprietà in base agli assiomi stabiliti. Ci concentriamo specificamente sul Paradosso dell'Assente, che si verifica quando un elettore può ottenere un risultato migliore non votando.

Alcune regole tradizionali come Pluralità, Borda e Simpson-Kramer sono note per soddisfare l'assioma di Partecipazione, il che significa che nessun elettore può trarre vantaggio dall'astensione, evitando così il paradosso. Tuttavia, molte altre regole di voto comuni cadono vittima di questo problema. Nei nostri esperimenti, prendiamo modelli addestrati su PSCF esistenti e li regoliamo usando una funzione di perdita che incorpora una versione rilassata dell'assioma di Partecipazione, mostrando come le regole possano essere modificate per ridurre la vulnerabilità al paradosso senza perdere accuratezza.

L'assioma di Partecipazione è chiamato assioma inter-profili poiché richiede di considerare cosa potrebbe essere successo se gli elettori avessero agito diversamente. Questo tipo di assioma è particolarmente impegnativo per l'apprendimento perché aumenta la complessità computazionale del calcolo delle funzioni di perdita. Richiede anche che il modello gestisca profili di dimensioni variabili, cosa che le nostre rappresentazioni facilitano.

La Relazione Tra Agenti e Preferenze

Nel nostro scenario di ricerca, definiamo un gruppo di elettori e un insieme di candidati. Ogni elettore fornisce una classificazione rigorosa di tutti i candidati, rappresentando la propria preferenza. Questa classificazione crea un profilo, che è semplicemente la raccolta di tutte le schede degli elettori.

Il numero di classificazioni possibili è immenso, dando luogo a molti profili diversi. La sfida sta nel creare una funzione nota come funzione di scelta sociale probabilistica (PSCF) che prenda un profilo e restituisca una lotteria (una distribuzione di probabilità) sui candidati. Ogni PSCF può essere utilizzata per stabilire una regola di voto non deterministica selezionando casualmente un vincitore dalla lotteria data.

Una PSCF deterministica selezionerà sempre lo stesso candidato per ogni profilo. In molti casi, le lotterie che consideriamo producono risultati che mostrano pari opportunità per diversi candidati, portando a risultati più complessi rispetto a semplicemente scegliere un vincitore.

Per le reti neurali che apprendono regole basate sul profilo completo, la necessità di uno strato di input di dimensioni fisse complica le cose. Man mano che aumenta il numero di elettori, aumenta anche la dimensione dell'input, il che può ostacolare la scalabilità. Se il numero di elettori diminuisce, richiede un padding attento per mantenere l'integrità del modello. Per superare questa sfida, creiamo rappresentazioni che mantengono informazioni rilevanti pur mantenendo una dimensione fissa, consentendo flessibilità nel numero di elettori che possono essere inclusi nei dati di input. Ogni tipo di rappresentazione conserva diverse quantità di informazioni del profilo originale, influenzando quanto bene la rete possa apprendere varie regole.

Le nostre tre rappresentazioni traggono spunto dalla letteratura sui meccanismi di voto, anche se non sono ampiamente riconosciute nella comunità dell'apprendimento automatico. Ogni rappresentazione deriva da un profilo di voto ma varia nella quantità di informazioni che preservano.

Le Nostre Funzioni di Scelta Sociale Probabilistiche

Abbiamo diversi tipi di PSCF che esploriamo. Ad esempio, abbiamo regole di punteggio come Borda e Pluralità. Il risultato di queste regole di punteggio può essere calcolato direttamente dai profili. Il punteggio Borda per un candidato è determinato sommando i voti dai profili, mentre il punteggio della Pluralità sceglie semplicemente il candidato classificato più alto dalla maggior parte degli elettori.

Altri metodi, come Copeland e Simpson-Kramer, sono generalmente classificati come regole da torneo poiché il loro output può essere derivato dalle rispettive matrici di confronti di preferenze.

Nella nostra analisi, prestiamo particolare attenzione alla preservazione delle PSCF da parte di varie rappresentazioni. Una rappresentazione è considerata preservare una PSCF se mantiene abbastanza informazioni affinché la funzione rimanga intatta quando vista attraverso la lente della rappresentazione.

Alcune rappresentazioni, come quelle che ordinano gli ordini di preferenza, preservano tutte le informazioni necessarie per certe funzioni. Altre potrebbero mancare della completezza richiesta, il che evidenzia l'importanza di selezionare la rappresentazione giusta per varie regole.

Apprendere dalle Funzioni di Scelta Sociale Probabilistiche

Nei nostri esperimenti, dimostriamo che con rappresentazioni appropriate, possiamo apprendere PSCF che riflettono le regole di voto comunemente usate senza la necessità di design complessi di reti neurali. Abbiamo addestrato e testato diverse coppie di regole e rappresentazioni per confrontare le loro performance, illustrando quanto sia cruciale la scelta della rappresentazione per un apprendimento efficace.

Abbiamo addestrato le nostre PSCF utilizzando profili generati in modo casuale, assicurandoci una combinazione diversificata di preferenze. Gli embedding che abbiamo impiegato hanno fornito diversi vantaggi, riducendo notevolmente la dimensione dello strato di input nelle nostre reti neurali. Questa caratteristica unica ci ha consentito di utilizzare la stessa architettura per tutte le sessioni di addestramento.

Abbiamo utilizzato una specifica struttura multilivello per le nostre reti, incorporando funzioni di attivazione moderne per produrre output efficaci. I nostri esperimenti hanno illustrato che quando le regole sono abbinate a rappresentazioni adeguate, l'apprendimento di quelle regole avviene in modo più rapido e accurato.

Ad esempio, regole come Pluralità e Borda hanno mostrato tassi di apprendimento rapidi, convergendo rapidamente verso bassi tassi di errore. Tuttavia, abbiamo anche notato che alcune rappresentazioni funzionano meglio per regole specifiche mentre faticano con altre.

Quando abbiamo scalato i nostri modelli per gestire diversi conteggi di elettori, le prestazioni variavano. Anche se potrebbe esserci stata una certa diminuzione dell'accuratezza con gruppi più grandi, la maggior parte delle regole ha mantenuto tassi di errore relativamente bassi attraverso le diverse rappresentazioni. Questa flessibilità di adattarsi a diversi numeri di elettori senza alterare la dimensione dello strato di input è stata una caratteristica utile delle nostre rappresentazioni.

Affrontare il Paradosso dell'Assente

Il Paradosso dell'Assente rappresenta una sfida per molte regole di voto. Questo paradosso si verifica quando un elettore trae vantaggio dall'astensione anziché esprimere il proprio voto. Abbiamo affrontato questa questione riaddestrando i nostri modelli per concentrarci sulla minimizzazione degli effetti di questo paradosso mantenendo la precisione.

Nei nostri test, abbiamo esaminato come diverse PSCF si siano comportate nel trattare il Paradosso dell'Assente. I risultati hanno rivelato che alcune regole a vincitore singolo come Borda e Pluralità evitano del tutto questo paradosso, mentre altre hanno incontrato difficoltà.

Il nostro riaddestramento ha comportato l'aggiunta di un termine al processo di apprendimento che mirava specificamente a superare il Paradosso dell'Assente. Questo metodo ha fornito intuizioni su quanto fosse efficace ciascuna regola di voto nel resistere a potenziali comportamenti strategici da parte degli elettori.

Attraverso la nostra analisi, abbiamo raccolto risultati affascinanti. Anche se alcune regole soddisfano naturalmente l'assioma di Partecipazione, i modelli appresi di queste regole hanno mostrato perdite di partecipazione simili a quelle di altre più vulnerabili al paradosso. I livelli di perdite di partecipazione indicano che le regole apprese richiedono una comprensione di come minimizzare gli incentivi degli elettori ad astenersi.

Utilizzare meno elettori per il riaddestramento è stata una scelta strategica che ha anche consentito una computazione più efficiente. Data la complessità di valutare le perdite basate su alternative potenziali, questo aggiustamento ha migliorato la nostra capacità di analizzare quanto bene le nostre PSCF potessero adattarsi all'assioma di Partecipazione.

Intuizioni e Direzioni Future

In sintesi, abbiamo dimostrato che è possibile apprendere in modo efficiente funzioni di scelta sociale probabilistiche note, migliorandole anche in modi che i metodi di design tradizionali non hanno raggiunto. La nostra attenzione sulle giuste rappresentazioni per le preferenze degli elettori ci ha aiutato a ottenere risultati efficaci nell'apprendimento e nella progettazione di nuove regole.

Come prossimo passo, miriamo a esplorare se possono essere create altre rappresentazioni che superino quelle che abbiamo già derivato dalla letteratura sulla scelta sociale. Questa esplorazione potrebbe offrire nuove intuizioni, specialmente per regole che potrebbero essere difficili o costose da analizzare in modi tradizionali.

Nel complesso, il nostro lavoro apre la strada a ricerche continue che combinano l'apprendimento automatico con i principi di scelta sociale consolidati, con il potenziale di perfezionare i meccanismi attraverso i quali vengono prese le decisioni in contesti di gruppo diversi.

Fonte originale

Titolo: DeepVoting: Learning Voting Rules with Tailored Embeddings

Estratto: Aggregating the preferences of multiple agents into a collective decision is a common step in many important problems across areas of computer science including information retrieval, reinforcement learning, and recommender systems. As Social Choice Theory has shown, the problem of designing algorithms for aggregation rules with specific properties (axioms) can be difficult, or provably impossible in some cases. Instead of designing algorithms by hand, one can learn aggregation rules, particularly voting rules, from data. However, the prior work in this area has required extremely large models, or been limited by the choice of preference representation, i.e., embedding. We recast the problem of designing a good voting rule into one of learning probabilistic versions of voting rules that output distributions over a set of candidates. Specifically, we use neural networks to learn probabilistic social choice functions from the literature. We show that embeddings of preference profiles derived from the social choice literature allows us to learn existing voting rules more efficiently and scale to larger populations of voters more easily than other work if the embedding is tailored to the learning objective. Moreover, we show that rules learned using embeddings can be tweaked to create novel voting rules with improved axiomatic properties. Namely, we show that existing voting rules require only minor modification to combat a probabilistic version of the No Show Paradox.

Autori: Leonardo Matone, Ben Abramowitz, Nicholas Mattei, Avinash Balakrishnan

Ultimo aggiornamento: 2024-08-24 00:00:00

Lingua: English

URL di origine: https://arxiv.org/abs/2408.13630

Fonte PDF: https://arxiv.org/pdf/2408.13630

Licenza: https://creativecommons.org/licenses/by/4.0/

Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.

Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.

Altro dagli autori

Articoli simili