PEDRO migliora l'efficienza nel perfezionamento dei grandi modelli di linguaggio con vettori regolabili.
Tianfang Xie, Tianjing Li, Wei Zhu
― 5 leggere min
Scienza all'avanguardia spiegata semplicemente
PEDRO migliora l'efficienza nel perfezionamento dei grandi modelli di linguaggio con vettori regolabili.
Tianfang Xie, Tianjing Li, Wei Zhu
― 5 leggere min
Un nuovo dataset per migliorare i modelli linguistici focalizzati su testi legati al business.
Siyan Wang, Bradford Levy
― 5 leggere min
Un metodo per migliorare l'allineamento dei modelli linguistici con le preferenze umane.
Zhixuan Liu, Zhanhui Zhou, Yuanfu Wang
― 5 leggere min
Uno sguardo su come valutare l'affidabilità delle spiegazioni dell'IA attraverso la sensibilità agli attacchi.
Supriya Manna, Niladri Sett
― 7 leggere min
Un nuovo metodo migliora il ragionamento dell'IA concentrandosi sulla semantica gerarchica.
Qin Wang, Jianzhou Feng, Yiming Xu
― 5 leggere min
Un nuovo metodo migliora i ranking di ricerca usando meno esempi.
Nilanjan Sinhababu, Andrew Parry, Debasis Ganguly
― 6 leggere min
P4Q combina il fine-tuning e la quantizzazione per performance efficienti dei modelli visivi-linguistici.
Huixin Sun, Runqi Wang, Yanjing Li
― 5 leggere min
Usare diversi punti di vista degli annotatori può migliorare i modelli di classificazione del testo.
Jin Xu, Mariët Theune, Daniel Braun
― 5 leggere min
MIPO ottimizza i modelli di linguaggio adattando l'influenza del modello di riferimento in base all'allineamento dei dati.
Cheolhun Jang
― 6 leggere min
Un nuovo metodo migliora le capacità di ragionamento logico nei modelli linguistici usando la logica proposizionale.
Tongxuan Liu, Wenjiang Xu, Weizhe Huang
― 5 leggere min
Un nuovo metodo migliora l'addestramento dei modelli linguistici usando feedback auto-generato.
Ruijie Xu, Zhihan Liu, Yongfei Liu
― 6 leggere min
SimVG migliora il grounding visivo collegando il testo a zone specifiche dell'immagine in modo più efficace.
Ming Dai, Lingfeng Yang, Yihao Xu
― 6 leggere min
Un metodo per migliorare la gestione dei dati nell'addestramento di grandi modelli linguistici.
Hao Liang, Keshi Zhao, Yajie Yang
― 6 leggere min
Un nuovo metodo migliora il ragionamento comune nell'IA, specialmente in situazioni con pochi dati.
Yu Fu, Jie He, Yifan Yang
― 5 leggere min
Introducendo un metodo innovativo per etichettare i ruoli retorici nei testi legali.
T. Y. S. S. Santosh, Apolline Isaia, Shiyu Hong
― 6 leggere min
Esplorando il divario di prestazioni dei modelli generali nei compiti finanziari.
Yixuan Tang, Yi Yang
― 6 leggere min
Un nuovo metodo migliora l'efficienza della messa a punto dei modelli utilizzando metriche rapporto segnale-rumore.
Haolin Chen, Philip N. Garner
― 6 leggere min
Un nuovo framework migliora la qualità dei dataset video-lingua attraverso un raffinamento iterativo.
Xiao Wang, Jianlong Wu, Zijia Lin
― 5 leggere min
Un'analisi delle metriche di valutazione del riassunto e della loro efficacia nelle applicazioni reali.
Xiang Dai, Sarvnaz Karimi, Biaoyan Fang
― 11 leggere min
Uno sguardo ai contributi che hanno plasmato il campo del NLP nel tempo.
Aniket Pramanick, Yufang Hou, Saif M. Mohammad
― 7 leggere min
Un nuovo metodo offre stime rapide sulle prestazioni per il fine-tuning dei modelli linguistici.
Dongyue Li, Ziniu Zhang, Lu Wang
― 5 leggere min
Esplorare metodi per migliorare i modelli multimodali nel rispondere a domande visive.
Haowei Zhang, Jianzhe Liu, Zhen Han
― 6 leggere min
Uno sguardo a come vengono analizzate le rappresentazioni delle parole usando l'analisi delle componenti indipendenti.
Momose Oyama, Hiroaki Yamagiwa, Hidetoshi Shimodaira
― 5 leggere min
Un nuovo framework migliora la generazione di dati da più fonti usando modelli basati sull'energia.
Shiyu Yuan, Jiali Cui, Hanao Li
― 6 leggere min
Questo metodo migliora l'affidabilità dei punteggi di confidenza del modello di linguaggio.
Johnathan Xie, Annie S. Chen, Yoonho Lee
― 5 leggere min
Un nuovo approccio migliora l'affidabilità nei sistemi di risposta alle domande.
Son Quoc Tran, Matt Kretchmar
― 6 leggere min
Questo articolo esplora la valutazione psicologica dei modelli linguistici e il loro comportamento.
Maor Reuben, Ortal Slobodin, Aviad Elyshar
― 9 leggere min
Migliorare la rilevanza delle ricerche nei sistemi di dialogo con strategie mirate.
Ante Wang, Linfeng Song, Zijun Min
― 4 leggere min
Questo studio esamina come i modelli riassumono efficacemente il testo nepalese.
Prakash Dhakal, Daya Sagar Baral
― 5 leggere min
Un nuovo framework migliora la normalizzazione del testo per il linguaggio dei social media vietnamiti.
Dung Ha Nguyen, Anh Thi Hoang Nguyen, Kiet Van Nguyen
― 6 leggere min
Metodi innovativi puntano a rendere i modelli di linguaggio grandi più efficienti e utilizzabili.
Zining Zhang, Yao Chen, Bingsheng He
― 5 leggere min
Nuovo metodo di allenamento migliora la sicurezza e le performance dei LLM.
Lei Yu, Virginie Do, Karen Hambardzumyan
― 8 leggere min
Questo studio migliora l'analisi del sentiment attraverso metodi zero-shot in diverse lingue.
Luka Andrenšek, Boshko Koloski, Andraž Pelicon
― 7 leggere min
LinChain offre un modo nuovo per ottimizzare i grandi modelli di linguaggio in modo efficiente.
Yulong Wang, Chang Zuo, Yin Xuan
― 6 leggere min
DemoCraft migliora la generazione di codice da linguaggio naturale usando una selezione intelligente di esempi.
Nirmal Joshua Kapu, Mihit Sreejith
― 7 leggere min
Un nuovo metodo migliora i riassunti dei contenuti incentrati su domande specifiche usando il Learning-to-Rank.
Sajad Sotudeh, Nazli Goharian
― 8 leggere min
Scopri come i transformer elaborano i dati e si adattano a nuovi compiti.
Lorenzo Basile, Valentino Maiorca, Luca Bortolussi
― 6 leggere min
Questo studio esamina l'efficacia della coerenza personale nell'elaborazione di testi lunghi con i LLM.
Adam Byerly, Daniel Khashabi
― 6 leggere min
Un nuovo metodo aiuta le macchine a capire meglio il testo riducendo la confusione.
Yuqing Zhou, Ziwei Zhu
― 10 leggere min
Esplorando i progressi nella previsione delle sequenze e le sue applicazioni pratiche.
Annie Marsden, Evan Dogariu, Naman Agarwal
― 8 leggere min