Este artigo explora a massa do neutrino através de zeros menores na matriz de massa.
― 6 min ler
Ciência de ponta explicada de forma simples
Este artigo explora a massa do neutrino através de zeros menores na matriz de massa.
― 6 min ler
DP-ZO equilibra privacidade e desempenho no treinamento de modelos de linguagem.
― 6 min ler
Um novo framework melhora o desempenho do modelo em dados não vistos usando mudanças específicas.
― 8 min ler
Novos métodos melhoram a velocidade e a qualidade da edição de imagens usando modelos menores.
― 6 min ler
Novos modelos exploram a estabilidade da escala fraca na física de altas energias.
― 5 min ler
Analisando os efeitos da duplicação de código entre conjuntos de dados nas métricas de desempenho do modelo.
― 9 min ler
Um novo método que melhora redes neurais podadas pra ter um desempenho melhor.
― 8 min ler
Ferramentas de IA como o SAM tão mudando a forma como a gente mapeia o permafrost e entende as mudanças climáticas.
― 8 min ler
Uma visão geral da criticidade intrínseca e extrínseca em sistemas biológicos.
― 8 min ler
Esse estudo melhora a forma como os modelos de linguagem lidam com tarefas de raciocínio matemático.
― 6 min ler
Estratégias pra melhorar modelos de QA quando os dados rotulados são escassos.
― 8 min ler
AutoFT melhora o desempenho do modelo em dados não vistos através de técnicas inovadoras de ajuste fino.
― 8 min ler
Um novo método acelera a geração de texto em LLM usando cabeçotes de previsão adicionais.
― 5 min ler
Um novo framework de IA melhora a detecção de doenças oculares por meio de técnicas de imagem aprimoradas.
― 7 min ler
Um método melhora a eficiência no treinamento e uso de grandes modelos de linguagem.
― 8 min ler
Pesquisas mostram que modelos ajustados têm potencial para entender melhor as doenças raras.
― 8 min ler
Estudo revela os riscos de ataques de jailbreak multilíngues em grandes modelos de linguagem.
― 6 min ler
Esse artigo explora métodos para usar o GPT-3.5 pra automatizar revisões de código de forma eficaz.
― 7 min ler
Analisando o custo e a eficiência de grandes modelos de linguagem em várias tarefas.
― 7 min ler
Este estudo analisa como os modelos de linguagem lidam com tópicos familiares e não familiares.
― 7 min ler
Explorando o uso de LLMs pra analisar dados de séries temporais em várias áreas.
― 10 min ler
DeRa oferece um jeito de ajustar o alinhamento do modelo de linguagem sem precisar re-treinar.
― 7 min ler
Um método pra ajustar modelos de linguagem usando menos parâmetros.
― 7 min ler
Esse artigo analisa o impacto do barulho na performance de modelos de linguagem.
― 8 min ler
Aprenda como novas técnicas melhoram a eficiência de grandes modelos de aprendizado de máquina.
― 4 min ler
Novos métodos melhoram a clareza das previsões de aprendizado de máquina.
― 9 min ler
Novo método melhora a confiabilidade das previsões do modelo em aplicações do mundo real.
― 7 min ler
Uma nova abordagem pra integrar diferentes insights culturais nos modelos de linguagem.
― 9 min ler
Um novo método pra estimular a criatividade na resolução de problemas com o apoio da IA.
― 10 min ler
Explorando questões na criação de modelos e soluções de IA para tomada de decisão.
― 6 min ler
AV-SUPERB avalia modelos de áudio e vídeo em várias tarefas pra melhorar o desempenho.
― 6 min ler
Novas ferramentas melhoram como os sistemas conseguem buscar informações em documentos longos.
― 5 min ler
Explorando como modelos de linguagem refletem traços de personalidade na recrutamento.
― 8 min ler
Este estudo melhora a eficiência do fine-tuning em redes neurais usando aprendizado ativo transdutivo.
― 8 min ler
Melhorando o reconhecimento de fala do Whisper para o vietnamita e outras línguas com poucos recursos.
― 5 min ler
Um novo método pra adaptar LLMs sem precisar de muitos rótulos.
― 10 min ler
Esse artigo fala sobre um jeito de melhorar os LLMs usando feedback verbal sem generalizar demais.
― 12 min ler
LoRETTA melhora a eficiência de ajuste fino para grandes modelos de linguagem com menos parâmetros.
― 7 min ler
Explorando as ameaças que o envenenamento indiscriminado de dados traz pro aprendizado autossupervisionado.
― 9 min ler
Analisando como o fine-tuning aumenta o risco de revelar dados sensíveis de treinamento.
― 7 min ler