Nuevo conjunto de datos mejora la capacidad de la IA para manejar malentendidos en conversaciones.
Javier Chiyah-Garcia, Alessandro Suglia, Arash Eshghi
― 8 minilectura
Ciencia de vanguardia explicada de forma sencilla
Nuevo conjunto de datos mejora la capacidad de la IA para manejar malentendidos en conversaciones.
Javier Chiyah-Garcia, Alessandro Suglia, Arash Eshghi
― 8 minilectura
Mantener el significado mientras se transforma la información es clave para la privacidad y la precisión.
Muhan Zhang
― 6 minilectura
Un nuevo método mejora los modelos pequeños para responder preguntas en telecomunicaciones.
Blessed Guda, Gabrial Zencha A., Lawrence Francis
― 7 minilectura
Nuevas ideas sobre cómo el contexto y la similitud afectan el rendimiento de los modelos de lenguaje.
Stefan Arnold, Marian Fietta, Dilara Yesilbas
― 6 minilectura
Examinando cómo BERT interpreta palabras con múltiples significados.
Soniya Vijayakumar, Josef van Genabith, Simon Ostermann
― 6 minilectura
Este estudio aborda los desafíos en modelos de lenguaje de audio para lenguas de pocos recursos.
Potsawee Manakul, Guangzhi Sun, Warit Sirichotedumrong
― 7 minilectura
Examinando cómo los modelos de lenguaje aprenden conocimientos fácticos y sus limitaciones.
Xiao Zhang, Miao Li, Ji Wu
― 8 minilectura
El método GroupDebate reduce costos mientras mejora la precisión en las discusiones entre agentes.
Tongxuan Liu, Xingyu Wang, Weizhe Huang
― 6 minilectura
Este estudio mejora los sistemas de reconocimiento de emociones para idiomas menos comunes usando datos de alto recurso.
Hsi-Che Lin, Yi-Cheng Lin, Huang-Cheng Chou
― 8 minilectura
Este documento evalúa qué tan bien los modelos de lenguaje explican conceptos científicos.
Prasoon Bajpai, Niladri Chatterjee, Subhabrata Dutta
― 5 minilectura
La agrupación de tokens mejora el almacenamiento de datos mientras mantiene la precisión en la recuperación.
Benjamin Clavié, Antoine Chaffin, Griffin Adams
― 7 minilectura
Un modelo mejora las tareas de habla en entornos multilingües, abordando los desafíos del cambio de código.
Jing Xu, Daxin Tan, Jiaqi Wang
― 6 minilectura
Un nuevo enfoque mejora el aprendizaje de los robots al combinar instrucciones en lenguaje rico con datos.
Yinpei Dai, Jayjun Lee, Nima Fazeli
― 6 minilectura
Un estudio sobre el rendimiento de LLM usando ajuste de instrucciones y aprendizaje en contexto.
Taihang Wang, Xiaoman Xu, Yimin Wang
― 6 minilectura
Un nuevo modelo mejora la eficiencia en la recolección de datos lingüísticos durante el trabajo de campo.
Aso Mahmudi, Borja Herce, Demian Inostroza Amestica
― 7 minilectura
Este estudio examina cómo los modelos de lenguaje crean títulos efectivos para trabajos de investigación a partir de resúmenes.
Tohida Rehman, Debarshi Kumar Sanyal, Samiran Chattopadhyay
― 6 minilectura
Este estudio examina la efectividad de los Autoencoders Sparse en entender las características de los modelos de lenguaje.
David Chanin, James Wilken-Smith, Tomáš Dulka
― 7 minilectura
PODA mejora la capacidad de la IA para entender textos y razonar lógicamente.
Chenxu Wang, Ping Jian, Zhen Yang
― 7 minilectura
Un nuevo marco simplifica el diseño de microestructuras usando comandos en lenguaje natural.
Nikita Kartashov, Nikolaos N. Vlassis
― 9 minilectura
Esta investigación explora la efectividad de los LLM en varios idiomas además del inglés.
Daoyang Li, Mingyu Jin, Qingcheng Zeng
― 7 minilectura
Investigaciones muestran que la IA puede predecir las posturas de los usuarios a partir de publicaciones indirectas en redes sociales.
Siyuan Brandon Loh, Liang Ze Wong, Prasanta Bhattacharya
― 7 minilectura
Este artículo examina cómo diferentes capas afectan el rendimiento de los LLM.
Yang Zhang, Yanfei Dong, Kenji Kawaguchi
― 6 minilectura
Un estudio sobre cómo los agentes de IA siguen las reglas definidas por los usuarios usando el dataset ACS.
Lior Madmoni, Amir Zait, Ilia Labzovsky
― 10 minilectura
CADA-GAN mejora el rendimiento de los sistemas de ASR en diferentes entornos de grabación.
Chien-Chun Wang, Li-Wei Chen, Cheng-Kang Chou
― 7 minilectura
Nuevos métodos mejoran el rendimiento de LLM al comprimir la entrada de tokens.
Runsong Zhao, Pengcheng Huang, Xinyu Liu
― 6 minilectura
MQM-APE mejora la calidad de las evaluaciones de traducción automática a través de un análisis de errores avanzado.
Qingyu Lu, Liang Ding, Kanjian Zhang
― 8 minilectura
Este estudio evalúa qué tan bien los LLMs entienden los tropos narrativos en los resúmenes de películas.
Hung-Ting Su, Ya-Ching Hsu, Xudong Lin
― 4 minilectura
El método FLEX ofrece un nuevo enfoque para evaluar sistemas de texto a SQL de manera precisa.
Heegyu Kim, Taeyang Jeon, Seunghwan Choi
― 7 minilectura
Nuevas características mejoran la experiencia del usuario en la comprensión de pantallas e interacciones multilingües.
Naman Goyal
― 7 minilectura
Usando tecnología para recopilar info sobre características de las plantas de manera eficiente desde la web.
Diego Marcos, Robert van de Vlasakker, Ioannis N. Athanasiadis
― 5 minilectura
EVA combina señales de audio y visuales para mejorar la precisión del reconocimiento de voz.
Yihan Wu, Yifan Peng, Yichen Lu
― 5 minilectura
Un nuevo modelo mejora las incrustaciones de texto a través de estrategias de aprendizaje en contexto.
Chaofan Li, MingHao Qin, Shitao Xiao
― 6 minilectura
Un nuevo método busca reducir la fuga semántica en las incrustaciones de oraciones cross-lingüales.
Dayeon Ki, Cheonbok Park, Hyunjoong Kim
― 6 minilectura
Nuevos modelos buscan combatir el lenguaje dañino en línea a través de técnicas de detección avanzadas.
Tonmoy Roy, Md Robiul Islam, Asif Ahammad Miazee
― 7 minilectura
QualIT mejora el análisis de texto al combinar modelos de lenguaje y técnicas de agrupamiento.
Satya Kapoor, Alex Gil, Sreyoshi Bhaduri
― 7 minilectura
Este estudio investiga el papel de la IA en los consejos para negociar salarios y los posibles sesgos.
R. Stuart Geiger, Flynn O'Sullivan, Elsie Wang
― 5 minilectura
Un nuevo marco mejora la calidad del diálogo en chatbots educativos para un aprendizaje efectivo.
Haoyu Huang, Tong Niu, Rui Yang
― 8 minilectura
Esta investigación examina el rendimiento de los LLM en tareas cognitivas similares al comportamiento de los bebés.
Pengrui Han, Peiyang Song, Haofei Yu
― 7 minilectura
Una nueva herramienta evalúa el rendimiento de los modelos de lenguaje grandes en varios tipos de datos.
Yizhi Li, Ge Zhang, Yinghao Ma
― 6 minilectura
Este artículo presenta un nuevo marco para mejorar las técnicas de inferencia en tiempo real para modelos de lenguaje.
Jon Saad-Falcon, Adrian Gamarra Lafuente, Shlok Natarajan
― 6 minilectura