Um novo método para criar distrações interessantes em avaliações educacionais.
Devrim Cavusoglu, Secil Sen, Ulas Sert
― 6 min ler
Ciência de ponta explicada de forma simples
Um novo método para criar distrações interessantes em avaliações educacionais.
Devrim Cavusoglu, Secil Sen, Ulas Sert
― 6 min ler
Um estudo sobre como os modelos seguem instruções durante diálogos complexos.
Elliot L. Epstein, Kaisheng Yao, Jing Li
― 7 min ler
Apresentando o LowREm, uma ferramenta pra melhorar as embeddings de palavras em línguas sub-representadas.
Daniil Gurgurov, Rishu Kumar, Simon Ostermann
― 6 min ler
Avaliando o impacto dos LLMs na documentação e segurança da saúde.
Emma Croxford, Yanjun Gao, Nicholas Pellegrino
― 9 min ler
O projeto MultiMed melhora o reconhecimento de fala automático para uma comunicação na saúde mais eficiente.
Khai Le-Duc, Phuc Phan, Tan-Hanh Pham
― 7 min ler
Um estudo sobre como melhorar os métodos de busca para opiniões diversas em perguntas complexas.
Hung-Ting Chen, Eunsol Choi
― 8 min ler
Este artigo fala sobre novas estratégias para treinar sistemas de tradução de fala de forma eficaz.
Belen Alastruey, Gerard I. Gállego, Marta R. Costa-jussà
― 6 min ler
A EMOVA melhora a interação homem-máquina através da expressão emocional.
Kai Chen, Yunhao Gou, Runhui Huang
― 6 min ler
Explorando como os LLMs têm dificuldades com desafios de programação complexos.
Yotam Wolf, Binyamin Rothberg, Dorin Shteyman
― 9 min ler
Este estudo avalia o desempenho de LLM em responder perguntas e prever propriedades de materiais.
Hongchen Wang, Kangming Li, Scott Ramsay
― 6 min ler
Esse artigo explora a intransitividade e seu impacto na tomada de decisão em várias áreas.
Jiuding Duan, Jiyi Li, Yukino Baba
― 6 min ler
Avaliação do desempenho de LLM em textos longos em cinco idiomas.
Ameeta Agrawal, Andy Dang, Sina Bagheri Nezhad
― 8 min ler
BEATS melhora a capacidade dos LLMs de resolver problemas de matemática de forma clara e precisa.
Linzhuang Sun, Hao Liang, Jingxuan Wei
― 6 min ler
Analisando como a linguagem neutra em relação ao gênero influencia modelos de linguagem em tarefas de classificação de texto.
Andreas Waldis, Joel Birrer, Anne Lauscher
― 8 min ler
O PEDRO melhora a eficiência no ajuste de modelos de linguagem grandes com vetores ajustáveis.
Tianfang Xie, Tianjing Li, Wei Zhu
― 6 min ler
Um novo conjunto de dados pra melhorar modelos de linguagem focados em texto relacionado a negócios.
Siyan Wang, Bradford Levy
― 6 min ler
Um método que melhora o alinhamento do modelo de linguagem com as preferências humanas.
Zhixuan Liu, Zhanhui Zhou, Yuanfu Wang
― 6 min ler
Um novo método melhora a compreensão dos modelos de linguagem sobre as preferências humanas.
Jian Li, Haojing Huang, Yujia Zhang
― 5 min ler
Uma olhada em avaliar a confiabilidade das explicações da IA através da sensibilidade adversarial.
Supriya Manna, Niladri Sett
― 8 min ler
Novo método melhora o raciocínio da IA ao focar em semântica hierárquica.
Qin Wang, Jianzhou Feng, Yiming Xu
― 6 min ler
Um novo método permite que robôs aprendam tarefas através de interações humanas.
Rimvydas Rubavicius, Peter David Fagan, Alex Lascarides
― 5 min ler
Um novo método melhora o ranqueamento de buscas usando menos exemplos.
Nilanjan Sinhababu, Andrew Parry, Debasis Ganguly
― 6 min ler
Melhorando a qualidade da tradução pra se alinhar com as necessidades humanas.
Kaden Uhlig, Joern Wuebker, Raphael Reinauer
― 7 min ler
CRAFT combina RAFT e LoRA para um questionamento eficiente em ambientes com poucos recursos.
Isaac Chung, Phat Vo, Arman C. Kizilkale
― 8 min ler
Novo método melhora a comunicação entre médicos e pacientes usando texto e imagens.
Zhangpu Li, Changhong Zou, Suxue Ma
― 7 min ler
Usar várias perspectivas de anotadores pode melhorar os modelos de classificação de texto.
Jin Xu, Mariët Theune, Daniel Braun
― 6 min ler
MIPO otimiza modelos de linguagem ajustando a influência do modelo de referência com base na alinhamento dos dados.
Cheolhun Jang
― 6 min ler
Um novo método melhora as capacidades de raciocínio lógico em modelos de linguagem usando lógica proposicional.
Tongxuan Liu, Wenjiang Xu, Weizhe Huang
― 6 min ler
Um jeito de melhorar a gestão dos dados no treinamento de grandes modelos de linguagem.
Hao Liang, Keshi Zhao, Yajie Yang
― 7 min ler
Aprenda como juntar modelos de IA pode melhorar a velocidade de processamento e diminuir a complexidade.
Stefan Hackmann
― 6 min ler
A Recuperação de Momentos de Áudio permite localizar momentos específicos em gravações longas.
Hokuto Munakata, Taichi Nishimura, Shota Nakada
― 6 min ler
Analisando o papel dos livros de gramática na tradução de línguas de baixo recurso.
Seth Aycock, David Stap, Di Wu
― 7 min ler
Esse artigo apresenta soluções pra proteger as entradas dos usuários em serviços de linguagem baseados na nuvem.
In Gim, Caihua Li, Lin Zhong
― 7 min ler
Um novo método melhora o raciocínio de bom senso na IA, especialmente em situações com poucos dados.
Yu Fu, Jie He, Yifan Yang
― 6 min ler
A IA tá evoluindo pra ter conversas mais naturais.
Bandhav Veluri, Benjamin N Peloquin, Bokai Yu
― 6 min ler
Novos métodos no treino de modelos aumentam as habilidades de raciocínio e a eficiência.
Nikunj Saunshi, Stefani Karp, Shankar Krishnan
― 7 min ler
Este estudo automatiza a criação de mapas cognitivos fuzzy a partir de textos sociais complexos.
Maryam Berijanian, Spencer Dork, Kuldeep Singh
― 7 min ler
Explorando o impacto da transcrição na documentação de enfermagem na Suíça.
Jeremy Kramer, Tetiana Kravchenko, Beatrice Kaufmann
― 7 min ler
Uma estrutura pra automatizar e melhorar resumos de literatura científica pra pesquisadores.
Hamed Babaei Giglou, Jennifer D'Souza, Sören Auer
― 5 min ler
Examinando como a honestidade afeta a confiabilidade dos modelos de linguagem.
Siheng Li, Cheng Yang, Taiqiang Wu
― 9 min ler