Esaminare come i LLM stanno cambiando la scrittura e il parlare nei contesti accademici.
Mingmeng Geng, Caixi Chen, Yanru Wu
― 6 leggere min
Scienza all'avanguardia spiegata semplicemente
Esaminare come i LLM stanno cambiando la scrittura e il parlare nei contesti accademici.
Mingmeng Geng, Caixi Chen, Yanru Wu
― 6 leggere min
I robot adesso possono rispondere alle domande usando la memoria a lungo termine.
Abrar Anwar, John Welsh, Joydeep Biswas
― 6 leggere min
Questo articolo esamina nuovi approcci per migliorare i LLM utilizzando funzioni di perdita dalla visione artificiale.
Daniele Rege Cambrin, Giuseppe Gallipoli, Irene Benedetto
― 7 leggere min
SemDI migliora l'accuratezza nell'identificare la causalità degli eventi usando il contesto.
Haoran Li, Qiang Gao, Hongmei Wu
― 5 leggere min
MaPPER offre un nuovo metodo per comprendere in modo efficiente le immagini e il testo.
Ting Liu, Zunnan Xu, Yue Hu
― 5 leggere min
La ricerca valuta quanto bene la tecnologia interpreta le immagini satiriche.
Abhilash Nandy, Yash Agarwal, Ashish Patwa
― 5 leggere min
Un approccio automatico migliora l'analisi dei log e la diagnosi dei guasti nei servizi online.
Junjie Huang, Zhihan Jiang, Jinyang Liu
― 8 leggere min
Un nuovo approccio migliora la profondità della narrazione concentrandosi sulla rappresentazione dei personaggi.
Danyang Liu, Mirella Lapata, Frank Keller
― 6 leggere min
I ricercatori sviluppano metodi per un codice di wrangling dei dati automatizzato migliore tramite esempi ricchi di contesto.
Junjie Huang, Daya Guo, Chenglong Wang
― 6 leggere min
Un nuovo metodo aiuta i modelli linguistici a dimenticare informazioni specifiche in modo efficace.
Anmol Mekala, Vineeth Dorna, Shreya Dubey
― 6 leggere min
La ricerca sviluppa sistemi che si adattano ai vari tipi di domande per risposte migliori.
Mohanna Hoveyda, Arjen P. de Vries, Maarten de Rijke
― 6 leggere min
Questa ricerca migliora i robot SAR integrando il contributo umano nei loro processi di apprendimento.
Dimitrios Panagopoulos, Adolfo Perrusquia, Weisi Guo
― 7 leggere min
Nuovi metodi migliorano i Grandi Modelli Linguistici grazie a un'elaborazione delle informazioni più efficiente.
Sourav Verma
― 5 leggere min
Un nuovo framework valuta quanto bene i modelli linguistici riconoscono e rispondono alle emozioni.
Yuyan Chen, Hao Wang, Songzhou Yan
― 6 leggere min
Esaminare il ruolo delle emozioni nel migliorare le interazioni con i modelli linguistici.
Yuyan Chen, Yanghua Xiao
― 6 leggere min
Un nuovo dataset valuta la capacità dei modelli di linguaggio di gestire informazioni consapevoli del tempo.
David Herel, Vojtech Bartek, Tomas Mikolov
― 5 leggere min
SLaVA-CXR migliora la generazione dei referti delle radiografie toraciche per una maggiore efficienza clinica.
Jinge Wu, Yunsoo Kim, Daqian Shi
― 5 leggere min
GAProtoNet migliora la classificazione del testo aumentando l'interpretabilità senza perdere precisione.
Ximing Wen, Wenjuan Tan, Rosina O. Weber
― 6 leggere min
Un nuovo metodo per creare dati etichettati nella generazione di frasi chiave usando i contesti di citazione.
Florian Boudin, Akiko Aizawa
― 7 leggere min
Un sistema che impara e si adatta attraverso l'interazione continua con il suo ambiente.
Yu Wang, Chi Han, Tongtong Wu
― 8 leggere min
Un nuovo approccio per addestrare i modelli linguistici migliora l'efficienza e le prestazioni.
Yinmin Zhong, Zili Zhang, Bingyang Wu
― 7 leggere min
Un nuovo framework valuta la conoscenza medica nei modelli linguistici di grandi dimensioni.
Yuxuan Zhou, Xien Liu, Chen Ning
― 6 leggere min
Nuovo framework migliora la pianificazione dell'IA potenziando la comprensione visiva e il ragionamento.
Yew Ken Chia, Qi Sun, Lidong Bing
― 6 leggere min
Nuovo dataset migliora la capacità dell'IA di gestire i malintesi nelle conversazioni.
Javier Chiyah-Garcia, Alessandro Suglia, Arash Eshghi
― 7 leggere min
Mantenere il significato mentre si modifica i dati è fondamentale per la privacy e l'accuratezza.
Muhan Zhang
― 5 leggere min
Un nuovo metodo migliora i piccoli modelli per rispondere a domande nel settore delle telecomunicazioni.
Blessed Guda, Gabrial Zencha A., Lawrence Francis
― 6 leggere min
Nuove intuizioni su come il contesto e la somiglianza influenzano le prestazioni dei modelli linguistici.
Stefan Arnold, Marian Fietta, Dilara Yesilbas
― 5 leggere min
Esaminando come BERT interpreta le parole con significati multipli.
Soniya Vijayakumar, Josef van Genabith, Simon Ostermann
― 6 leggere min
Questo studio affronta le sfide nei modelli audio per le lingue a basso supporto.
Potsawee Manakul, Guangzhi Sun, Warit Sirichotedumrong
― 6 leggere min
Esaminando come i modelli linguistici apprendono conoscenze fattuali e i loro limiti.
Xiao Zhang, Miao Li, Ji Wu
― 7 leggere min
Il metodo GroupDebate riduce i costi mentre migliora l'accuratezza nelle discussioni tra agenti.
Tongxuan Liu, Xingyu Wang, Weizhe Huang
― 6 leggere min
Questo studio migliora i sistemi di riconoscimento delle emozioni per lingue meno comuni usando dati ad alta risorsa.
Hsi-Che Lin, Yi-Cheng Lin, Huang-Cheng Chou
― 7 leggere min
Questo documento valuta quanto bene i modelli linguistici spiegano i concetti scientifici.
Prasoon Bajpai, Niladri Chatterjee, Subhabrata Dutta
― 5 leggere min
Il pooling dei token migliora lo stoccaggio dei dati mantenendo la precisione del recupero.
Benjamin Clavié, Antoine Chaffin, Griffin Adams
― 6 leggere min
Un modello migliora i compiti di parlare in contesti multilingue, affrontando le sfide del code-switching.
Jing Xu, Daxin Tan, Jiaqi Wang
― 6 leggere min
Un nuovo approccio migliora l'apprendimento dei robot combinando istruzioni linguistiche dettagliate con i dati.
Yinpei Dai, Jayjun Lee, Nima Fazeli
― 6 leggere min
Uno studio sulle performance dei LLM usando l'istruzione di tuning e l'apprendimento in contesto.
Taihang Wang, Xiaoman Xu, Yimin Wang
― 6 leggere min
Un nuovo modello migliora l'efficienza nella raccolta di dati linguistici durante il lavoro sul campo.
Aso Mahmudi, Borja Herce, Demian Inostroza Amestica
― 6 leggere min
Questo studio analizza come i modelli di linguaggio creano titoli efficaci per articoli di ricerca partendo dagli abstract.
Tohida Rehman, Debarshi Kumar Sanyal, Samiran Chattopadhyay
― 5 leggere min
Questo studio esamina l'efficacia degli Sparse Autoencoders nel comprendere le caratteristiche dei modelli linguistici.
David Chanin, James Wilken-Smith, Tomáš Dulka
― 6 leggere min