Ottimizzare i Metodi Ensemble in AutoML: Uno Studio
Questo studio confronta CMA-ES e GES per costruire migliori ensemble di modelli.
― 5 leggere min
Indice
L'Apprendimento Automatico Automatizzato (AutoML) è diventato importante per tante applicazioni perché aiuta gli utenti a costruire modelli senza bisogno di conoscenze tecniche approfondite. Uno dei passaggi chiave in AutoML è unire modelli per migliorare l'accuratezza. Questo processo è spesso chiamato "ensambling". In questo contesto, l'ensambling post hoc implica la selezione e combinazione dei modelli dopo che sono stati creati.
Un modo popolare per creare questi ensemble è tramite un metodo chiamato selezione greedy dell'ensemble (GES). Questo approccio sceglie i modelli in un modo che mira a ridurre gli errori in base alle loro performance sui dati di validazione. Tuttavia, utilizzare solo dati di validazione di bassa qualità può portare a problemi come l'Overfitting, dove un modello funziona bene sul set di validazione ma male su dati non visti.
In questo studio, investigiamo come una tecnica di ottimizzazione specifica, la strategia di evoluzione adattativa della matrice di covarianza (CMA-ES), si confronta con GES nella costruzione di ensemble. Vogliamo vedere se CMA-ES può superare GES e in quali condizioni ciò avviene. Esploriamo anche tecniche per migliorare CMA-ES per ridurre l'overfitting.
Contesto
L'ensambling è un metodo in cui più modelli contribuiscono a una previsione finale. L'idea comune è che modelli diversi possono coprire le debolezze degli altri. GES è stato ampiamente accettato nei sistemi AutoML poiché può creare ensemble con performance migliori in modo efficiente. Tuttavia, si è notato che questo metodo potrebbe non essere sempre il migliore, soprattutto quando si tratta di overfitting.
CMA-ES è un algoritmo di ottimizzazione che ha guadagnato popolarità per vari problemi nel machine learning. Mira a migliorare la selezione dei pesi per i modelli in un ensemble. Confrontando CMA-ES con GES utilizzando dati di validazione di alta qualità, speriamo di comprendere meglio i loro punti di forza e di debolezza.
Confronto dei Metodi
Per valutare la nostra domanda di ricerca, abbiamo condotto esperimenti usando 71 dataset di classificazione. In questi esperimenti, abbiamo confrontato le performance di CMA-ES e GES, misurando quanto bene hanno creato gli ensemble. Il nostro obiettivo era capire come ciascun metodo funzionasse in base a diverse metriche, in particolare ROC AUC e accuratezza bilanciata.
Panoramica dei Risultati
I nostri risultati hanno rivelato che l'efficacia di CMA-ES e GES dipende notevolmente dalla metrica utilizzata. Quando abbiamo impiegato ROC AUC come misura di performance, abbiamo scoperto che CMA-ES tendeva a sovradattarsi, funzionando male quando valutato sui dati di test. Al contrario, GES manteneva le sue performance su entrambi i set di validazione e di test.
In confronto, quando abbiamo valutato i modelli usando l'accuratezza bilanciata, CMA-ES ha superato GES in modo significativo. Questo suggerisce che la scelta della metrica può influenzare quale metodo di ensemble sia più adatto per il compito a portata di mano.
Affrontare l'Overfitting
L'overfitting è un problema che sorge quando un modello impara il rumore o le fluttuazioni casuali nei dati di addestramento piuttosto che il modello sottostante. Questo può portare a performance scadenti su nuovi dati non visti. Per affrontare questo problema, abbiamo mirato a modificare CMA-ES in modo che non si sovradatti quando valutato usando ROC AUC.
Il nostro approccio ha coinvolto la normalizzazione delle previsioni fatte da CMA-ES. Facendo questo, abbiamo cercato di garantire che gli output rimanessero coerenti e ridurre le probabilità di overfitting, simile ai principi di GES. Abbiamo implementato diverse Tecniche di normalizzazione e le abbiamo confrontate per valutarne l'efficacia nella riduzione dell'overfitting.
Tecniche di Normalizzazione
Abbiamo proposto tre metodi di normalizzazione per CMA-ES:
Normalizzazione Softmax: Questo metodo implica l'applicazione di una funzione softmax ai pesi prodotti da CMA-ES prima di aggregare le previsioni. Questo aiuta a mantenere una distribuzione di probabilità dei pesi del modello.
Normalizzazione GES Implicita: Questo metodo simula un vettore di pesi simile a quello prodotto da GES arrotondando i pesi alla frazione più vicina. In questo modo, creiamo una rappresentazione che mantiene le proprietà di sparcity e discrezionalità.
Normalizzazione GES Esplicita: Questa tecnica ritaglia esplicitamente i modelli di base impostando certi pesi a zero in base a una soglia definita. Facendo questo, garantiamo che il vettore di pesi si allinei strettamente con le proprietà di GES.
Valutazione delle Performance
Dopo aver implementato i metodi di normalizzazione, abbiamo ripetuto i nostri esperimenti per vedere come si comportava CMA-ES con ciascun approccio. Abbiamo confrontato i risultati con quelli di GES e del miglior modello singolo, che ha servito come nostro baseline.
In generale, i risultati hanno mostrato che tutti i metodi di normalizzazione miglioravano le performance di CMA-ES considerando ROC AUC. Tra i tre metodi, la normalizzazione GES esplicita ha prodotto i risultati migliori, riducendo significativamente l'overfitting e permettendo a CMA-ES di produrre risultati comparabili a GES.
Conclusione
Il nostro confronto tra GES e CMA-ES suggerisce che entrambi i metodi hanno i loro punti di forza nell'automatizzare il processo di selezione dei modelli. Mentre GES eccelle spesso con dati di validazione di bassa qualità, CMA-ES può offrire migliori performance con dati di qualità più alta e tecniche di normalizzazione adeguate.
Le intuizioni ottenute da questa ricerca contribuiscono alla comprensione di come utilizzare efficacemente le strategie di ensambling nei sistemi AutoML. I lavori futuri potrebbero concentrarsi sul continuo affinamento di questi metodi ed esplorare tecniche aggiuntive per ottimizzare la selezione dei modelli e le performance.
Con l'evoluzione di AutoML, queste scoperte sono fondamentali per praticanti e ricercatori che cercano di sfruttare al massimo il potenziale dell'apprendimento automatico automatizzato nelle applicazioni reali.
Titolo: CMA-ES for Post Hoc Ensembling in AutoML: A Great Success and Salvageable Failure
Estratto: Many state-of-the-art automated machine learning (AutoML) systems use greedy ensemble selection (GES) by Caruana et al. (2004) to ensemble models found during model selection post hoc. Thereby, boosting predictive performance and likely following Auto-Sklearn 1's insight that alternatives, like stacking or gradient-free numerical optimization, overfit. Overfitting in Auto-Sklearn 1 is much more likely than in other AutoML systems because it uses only low-quality validation data for post hoc ensembling. Therefore, we were motivated to analyze whether Auto-Sklearn 1's insight holds true for systems with higher-quality validation data. Consequently, we compared the performance of covariance matrix adaptation evolution strategy (CMA-ES), state-of-the-art gradient-free numerical optimization, to GES on the 71 classification datasets from the AutoML benchmark for AutoGluon. We found that Auto-Sklearn's insight depends on the chosen metric. For the metric ROC AUC, CMA-ES overfits drastically and is outperformed by GES -- statistically significantly for multi-class classification. For the metric balanced accuracy, CMA-ES does not overfit and outperforms GES significantly. Motivated by the successful application of CMA-ES for balanced accuracy, we explored methods to stop CMA-ES from overfitting for ROC AUC. We propose a method to normalize the weights produced by CMA-ES, inspired by GES, that avoids overfitting for CMA-ES and makes CMA-ES perform better than or similar to GES for ROC AUC.
Autori: Lennart Purucker, Joeran Beel
Ultimo aggiornamento: 2023-07-01 00:00:00
Lingua: English
URL di origine: https://arxiv.org/abs/2307.00286
Fonte PDF: https://arxiv.org/pdf/2307.00286
Licenza: https://creativecommons.org/licenses/by/4.0/
Modifiche: Questa sintesi è stata creata con l'assistenza di AI e potrebbe presentare delle imprecisioni. Per informazioni accurate, consultare i documenti originali collegati qui.
Si ringrazia arxiv per l'utilizzo della sua interoperabilità ad accesso aperto.