PODA migliora la capacità dell'IA di capire i testi e ragionare in modo logico.
Chenxu Wang, Ping Jian, Zhen Yang
― 6 leggere min
Scienza all'avanguardia spiegata semplicemente
PODA migliora la capacità dell'IA di capire i testi e ragionare in modo logico.
Chenxu Wang, Ping Jian, Zhen Yang
― 6 leggere min
Il framework PACU migliora i VLLM affinando i prompt e utilizzando le didascalie delle immagini.
Minyi Zhao, Jie Wang, Zhaoyang Li
― 6 leggere min
Un nuovo framework semplifica il design della microstruttura usando comandi in linguaggio naturale.
Nikita Kartashov, Nikolaos N. Vlassis
― 8 leggere min
Questa ricerca esplora l'efficacia dei LLM in diverse lingue oltre l'inglese.
Daoyang Li, Mingyu Jin, Qingcheng Zeng
― 6 leggere min
La ricerca dimostra che l'IA può prevedere le posizioni degli utenti dai post indiretti sui social media.
Siyuan Brandon Loh, Liang Ze Wong, Prasanta Bhattacharya
― 6 leggere min
Questo articolo esamina come i diversi strati influenzano le prestazioni degli LLM.
Yang Zhang, Yanfei Dong, Kenji Kawaguchi
― 5 leggere min
Nuovi metodi migliorano le prestazioni degli LLM comprimendo l'input dei token.
Runsong Zhao, Pengcheng Huang, Xinyu Liu
― 5 leggere min
Un nuovo approccio migliora il video question answering grazie al riconoscimento del testo nelle scene.
Sheng Zhou, Junbin Xiao, Xun Yang
― 7 leggere min
Il metodo FLEX offre un nuovo approccio per valutare con precisione i sistemi text-to-SQL.
Heegyu Kim, Taeyang Jeon, Seunghwan Choi
― 6 leggere min
Un nuovo modello migliora gli embedding testuali attraverso strategie di apprendimento contestuale.
Chaofan Li, MingHao Qin, Shitao Xiao
― 5 leggere min
Un nuovo metodo punta a ridurre la perdita semantica negli embeddings di frasi cross-lingual.
Dayeon Ki, Cheonbok Park, Hyunjoong Kim
― 5 leggere min
Questo articolo presenta un nuovo framework per migliorare le tecniche di inferenza nei modelli linguistici.
Jon Saad-Falcon, Adrian Gamarra Lafuente, Shlok Natarajan
― 5 leggere min
Un nuovo metodo migliora l'accuratezza nell'estrazione dei tripli aspetto-sentimento.
Iwo Naglik, Mateusz Lango
― 6 leggere min
Un nuovo metodo migliora l'efficienza nella gestione di input lunghi nei modelli di linguaggio.
Zeyu Zhang, Haiying Shen
― 4 leggere min
Un nuovo metodo migliora le prestazioni di Flash Attention per maschere di attenzione sparse.
Agniv Sharma, Jonas Geiping
― 5 leggere min
Una nuova metrica che migliora la valutazione della coerenza fattuale nei riassunti automatici.
Yuxuan Ye, Edwin Simpson, Raul Santos Rodriguez
― 5 leggere min
Questo approccio semplifica la scelta di dataset di pretraining efficaci per i modelli linguistici.
Tristan Thrush, Christopher Potts, Tatsunori Hashimoto
― 9 leggere min
Le tecniche di attenzione adattiva migliorano le prestazioni e riducono le richieste di risorse negli LVLM.
Junyang Zhang, Mu Yuan, Ruiguang Zhong
― 6 leggere min
La ricerca migliora la generazione di dati nel machine learning usando metodi sintetici per spiegazioni più chiare.
Patrick Amadeus Irawan, Genta Indra Winata, Samuel Cahyawijaya
― 6 leggere min
Un metodo per addestrare modelli linguistici usando tecniche di selezione dei dati mirate.
Ernie Chang, Pin-Jie Lin, Yang Li
― 6 leggere min
Un nuovo metodo accelera le uscite dei modelli linguistici mantenendo la qualità.
Zongyue Qin, Zifan He, Neha Prakriya
― 5 leggere min
Un nuovo metodo migliora i sistemi di recupero usando query sintetiche senza dati etichettati.
Qiuhai Zeng, Zimeng Qiu, Dae Yon Hwang
― 6 leggere min
Migliorare la precisione della traduzione da linguaggio naturale a logica di primo ordine.
Ramya Keerthy Thatikonda, Jiuzhou Han, Wray Buntine
― 7 leggere min
Un nuovo sistema di etichettatura migliora il riconoscimento delle entità nominate discontinue.
Caio Corro
― 6 leggere min
Questa ricerca esamina il ruolo dei LLM nel migliorare l'estrazione dei dati e l'interazione.
Omar Mussa, Omer Rana, Benoît Goossens
― 7 leggere min
Uno studio su dataset e metriche nella ricerca delle domande e risposte.
Jamshid Mozafari, Abdelrahman Abdallah, Bhawna Piryani
― 4 leggere min
Un nuovo metodo migliora la valutazione del testo usando probabilità morbide per una maggiore precisione.
Vatsal Raina, Adian Liusie, Mark Gales
― 6 leggere min
Questo documento presenta un framework per migliorare il NER nella lingua italiana utilizzando modelli avanzati.
Andrew Zamai, Leonardo Rigutini, Marco Maggini
― 6 leggere min
Questo studio presenta BiMI per migliorare i sistemi di ricompensa nell'apprendimento per rinforzo.
Sukai Huang, Nir Lipovetzky, Trevor Cohn
― 7 leggere min
Un nuovo metodo migliora l'efficienza nella pianificazione senza dover dipendere da esperti.
Sukai Huang, Nir Lipovetzky, Trevor Cohn
― 6 leggere min
Un nuovo metodo migliora la previsione dell'importanza della ricerca usando word embeddings.
Lucie Dvorackova, Marcin P. Joachimiak, Michal Cerny
― 7 leggere min
Un nuovo metodo che usa grafi di conoscenza per risposte precise a domande semplici.
Maria Lysyuk, Mikhail Salnikov, Pavel Braslavski
― 6 leggere min
Questo benchmark valuta le minacce alla privacy e i meccanismi di difesa nei modelli di NLP.
Wei Huang, Yinggui Wang, Cen Chen
― 9 leggere min
Presentiamo un metodo adattabile per tracciare le esigenze degli utenti nei sistemi di dialogo.
Abdulfattah Safa, Gözde Gül Şahin
― 7 leggere min
Questo studio svela come i LLMs adattano il loro apprendimento attraverso i modelli di attenzione.
Yang Zhao, Li Du, Xiao Ding
― 7 leggere min
DiaSynth crea dialoghi di alta qualità per un training efficace dei sistemi conversazionali.
Sathya Krishnan Suresh, Wu Mengjun, Tushar Pranav
― 6 leggere min
Un nuovo framework migliora il rilevamento di output falsi nei modelli linguistici utilizzando dati non etichettati.
Xuefeng Du, Chaowei Xiao, Yixuan Li
― 5 leggere min
Questo framework migliora le prestazioni del modello affrontando i dati aumentati di bassa qualità.
Guanyi Mou, Yichuan Li, Kyumin Lee
― 6 leggere min
Esplorando i problemi dei modelli linguistici nell'interpretazione dei dati.
Yuqing Zhou, Ruixiang Tang, Ziyu Yao
― 5 leggere min
Ottimizziamo l'ottimizzazione delle preferenze dirette per gestire meglio i pareggi nelle decisioni.
Jinghong Chen, Guangyu Yang, Weizhe Lin
― 7 leggere min