Michelangelo evalúa los modelos de lenguaje según su capacidad para razonar a través de contextos largos.
Kiran Vodrahalli, Santiago Ontanon, Nilesh Tripuraneni
― 4 minilectura
Ciencia de vanguardia explicada de forma sencilla
Michelangelo evalúa los modelos de lenguaje según su capacidad para razonar a través de contextos largos.
Kiran Vodrahalli, Santiago Ontanon, Nilesh Tripuraneni
― 4 minilectura
Un nuevo enfoque acelera el procesamiento en modelos de lenguaje grandes para un mejor rendimiento.
Junlin Lv, Yuan Feng, Xike Xie
― 6 minilectura
Un nuevo método mejora el rendimiento del modelo de lenguaje al simplificar la información externa.
Dongwon Jung, Qin Liu, Tenghao Huang
― 8 minilectura
Un nuevo método mejora la detección de inexactitudes en los modelos de lenguaje.
Satoshi Munakata, Taku Fukui, Takao Mohri
― 3 minilectura
Examinando la comprensión y precisión de salida de los modelos de lenguaje.
Jinman Zhao, Xueyan Zhang, Xingyu Yue
― 6 minilectura
Un nuevo modelo mejora el procesamiento y análisis de textos en sánscrito.
Sebastian Nehrdich, Oliver Hellwig, Kurt Keutzer
― 5 minilectura
Presentando un marco para mejorar la clasificación de texto para datos desconocidos.
Yuxuan Hu, Chenwei Zhang, Min Yang
― 8 minilectura
Este artículo examina nuevos enfoques para mejorar los LLMs usando funciones de pérdida de visión por computadora.
Daniele Rege Cambrin, Giuseppe Gallipoli, Irene Benedetto
― 8 minilectura
SemDI mejora la precisión en identificar la causalidad de eventos usando contexto.
Haoran Li, Qiang Gao, Hongmei Wu
― 6 minilectura
MaPPER ofrece un nuevo método para entender de manera eficiente la imagen y el texto.
Ting Liu, Zunnan Xu, Yue Hu
― 6 minilectura
FullAnno mejora las anotaciones de imágenes para un mejor entrenamiento de modelos multimodales.
Jing Hao, Yuxiang Zhao, Song Chen
― 6 minilectura
La investigación desarrolla sistemas que se adaptan a diferentes tipos de preguntas para dar mejores respuestas.
Mohanna Hoveyda, Arjen P. de Vries, Maarten de Rijke
― 7 minilectura
Nuevos métodos mejoran los Modelos de Lenguaje Grande mediante un procesamiento de información eficiente.
Sourav Verma
― 6 minilectura
GAProtoNet mejora la clasificación de texto al aumentar la interpretabilidad sin perder precisión.
Ximing Wen, Wenjuan Tan, Rosina O. Weber
― 6 minilectura
Un enfoque novedoso para crear datos etiquetados en la generación de frases clave usando contextos de citas.
Florian Boudin, Akiko Aizawa
― 8 minilectura
Nuevo conjunto de datos mejora la capacidad de la IA para manejar malentendidos en conversaciones.
Javier Chiyah-Garcia, Alessandro Suglia, Arash Eshghi
― 8 minilectura
Un nuevo modelo mejora las predicciones al repasar conjeturas anteriores.
Kei-Sing Ng, Qingchen Wang
― 6 minilectura
Mantener el significado mientras se transforma la información es clave para la privacidad y la precisión.
Muhan Zhang
― 6 minilectura
Un nuevo método mejora los modelos pequeños para responder preguntas en telecomunicaciones.
Blessed Guda, Gabrial Zencha A., Lawrence Francis
― 7 minilectura
Combinar datos textuales y visuales mejora el rendimiento del aprendizaje con pocos ejemplos.
Heethanjan Kanagalingam, Thenukan Pathmanathan, Navaneethan Ketheeswaran
― 5 minilectura
Examinando cómo BERT interpreta palabras con múltiples significados.
Soniya Vijayakumar, Josef van Genabith, Simon Ostermann
― 6 minilectura
Examinando cómo los modelos de lenguaje aprenden conocimientos fácticos y sus limitaciones.
Xiao Zhang, Miao Li, Ji Wu
― 8 minilectura
La agrupación de tokens mejora el almacenamiento de datos mientras mantiene la precisión en la recuperación.
Benjamin Clavié, Antoine Chaffin, Griffin Adams
― 7 minilectura
Un nuevo marco mejora el rendimiento de CLIP con técnicas efectivas de poda de tokens.
Cheng-En Wu, Jinhong Lin, Yu Hen Hu
― 6 minilectura
PODA mejora la capacidad de la IA para entender textos y razonar lógicamente.
Chenxu Wang, Ping Jian, Zhen Yang
― 7 minilectura
El marco PACU mejora los VLLMs al afinar las indicaciones y usar descripciones de imágenes.
Minyi Zhao, Jie Wang, Zhaoyang Li
― 7 minilectura
Un nuevo marco simplifica el diseño de microestructuras usando comandos en lenguaje natural.
Nikita Kartashov, Nikolaos N. Vlassis
― 9 minilectura
Esta investigación explora la efectividad de los LLM en varios idiomas además del inglés.
Daoyang Li, Mingyu Jin, Qingcheng Zeng
― 7 minilectura
Investigaciones muestran que la IA puede predecir las posturas de los usuarios a partir de publicaciones indirectas en redes sociales.
Siyuan Brandon Loh, Liang Ze Wong, Prasanta Bhattacharya
― 7 minilectura
Este artículo examina cómo diferentes capas afectan el rendimiento de los LLM.
Yang Zhang, Yanfei Dong, Kenji Kawaguchi
― 6 minilectura
Nuevos métodos mejoran el rendimiento de LLM al comprimir la entrada de tokens.
Runsong Zhao, Pengcheng Huang, Xinyu Liu
― 6 minilectura
Un nuevo enfoque mejora la respuesta a preguntas de video a través del reconocimiento de texto en escenas.
Sheng Zhou, Junbin Xiao, Xun Yang
― 8 minilectura
El método FLEX ofrece un nuevo enfoque para evaluar sistemas de texto a SQL de manera precisa.
Heegyu Kim, Taeyang Jeon, Seunghwan Choi
― 7 minilectura
Un nuevo modelo mejora las incrustaciones de texto a través de estrategias de aprendizaje en contexto.
Chaofan Li, MingHao Qin, Shitao Xiao
― 6 minilectura
Un nuevo método busca reducir la fuga semántica en las incrustaciones de oraciones cross-lingüales.
Dayeon Ki, Cheonbok Park, Hyunjoong Kim
― 6 minilectura
Este artículo presenta un nuevo marco para mejorar las técnicas de inferencia en tiempo real para modelos de lenguaje.
Jon Saad-Falcon, Adrian Gamarra Lafuente, Shlok Natarajan
― 6 minilectura
Un nuevo método mejora la precisión en la extracción de tripletas de aspecto-sentimiento.
Iwo Naglik, Mateusz Lango
― 7 minilectura
Un nuevo método mejora la eficiencia para manejar entradas largas en modelos de lenguaje.
Zeyu Zhang, Haiying Shen
― 5 minilectura
Un nuevo método mejora el rendimiento de Flash Attention para máscaras de atención dispersas.
Agniv Sharma, Jonas Geiping
― 6 minilectura
Una nueva métrica que mejora la evaluación de la consistencia factual en resúmenes automáticos.
Yuxuan Ye, Edwin Simpson, Raul Santos Rodriguez
― 6 minilectura