O MLGuard oferece uma estrutura para aplicativos de aprendizado de máquina seguros e confiáveis.
― 6 min ler
Ciência de ponta explicada de forma simples
O MLGuard oferece uma estrutura para aplicativos de aprendizado de máquina seguros e confiáveis.
― 6 min ler
A Adv3D apresenta exemplos adversariais 3D realistas para sistemas de carros autônomos.
― 6 min ler
Um novo método para navegação segura de robôs considerando riscos físicos em ambientes complexos.
― 9 min ler
Apresentando um benchmark pra verificar redes neurais codificadas em C simples.
― 6 min ler
Um novo método melhora a adaptabilidade dos modelos de AV a mudanças de ângulo de câmera.
― 7 min ler
Analisando o papel das ferramentas de teste pra garantir a geração de imagens seguras.
― 9 min ler
Discutindo medidas de segurança para sistemas de aprendizado de máquina em áreas críticas.
― 7 min ler
Explorando a necessidade de segurança e confiança nos sistemas de IA.
― 8 min ler
Apresentando uma estrutura que prioriza a segurança no aprendizado por reforço.
― 5 min ler
Um olhar sobre a importância da verificação de modelos para a segurança em sistemas de IA.
― 8 min ler
Novos métodos melhoram as previsões para a gestão de combustível nuclear usado.
― 5 min ler
Explore como os Filtros de Segurança Baseados em Dados mantêm a segurança em sistemas baseados em aprendizado.
― 6 min ler
Uma nova forma de monitorar redes neurais durante a operação pra garantir a confiabilidade.
― 8 min ler
Novos métodos melhoram a navegação segura para sistemas autônomos através de estratégias de controle inovadoras.
― 6 min ler
Novos métodos melhoram a verificação de segurança de Redes Neurais Bayesianas contra ataques.
― 5 min ler
Novos métodos melhoram a tomada de decisão em IA enquanto garantem segurança e eficiência.
― 6 min ler
Este estudo avalia a segurança das DNNs ao lidar com dados de condução desconhecidos.
― 13 min ler
Uma olhada nas funções de barreira de controle para operações seguras na tecnologia.
― 6 min ler
Um olhar sobre técnicas seguras de aprendizado por reforço e suas aplicações no mundo real.
― 8 min ler
Um novo método melhora a segurança dos robôs ao navegar em ambientes complexos.
― 5 min ler
Um novo método melhora como os robôs interpretam as instruções dos usuários de forma segura.
― 9 min ler
Explorando medidas de segurança pra lidar com a autoconfiança em sistemas de IA de veículos autônomos.
― 8 min ler
Um novo framework pra melhorar a segurança e o desempenho em sistemas robóticos híbridos.
― 7 min ler
Uma visão geral de sistemas distribuídos, sincronização e métodos de segurança.
― 7 min ler
Uma iniciativa liderada pela comunidade pra identificar prompts nocivos em modelos T2I.
― 7 min ler
Uma nova abordagem pra garantir segurança no aprendizado por reforço offline.
― 8 min ler
Um novo método tem como objetivo melhorar a segurança e a utilidade dos grandes modelos de linguagem.
― 7 min ler
Um novo framework aumenta a segurança dos UGVs em ambientes complexos.
― 9 min ler
Um estudo sobre Aprendizado por Reforço Profundo Blindado para a autonomia segura de naves espaciais.
― 8 min ler
Um novo método melhora as funções de segurança em sistemas de IA multimodal sem precisar de muito treinamento.
― 7 min ler
Um guia sobre como combinar IA com robôs para operações mais seguras e eficientes.
― 6 min ler
Novos métodos melhoram a segurança no aprendizado por reforço enquanto otimizam o desempenho em ambientes com restrições.
― 7 min ler
O método DeepKnowledge melhora a confiabilidade das DNNs em aplicações críticas.
― 8 min ler
Um novo método melhora a detecção OOD focando nas informações de gradiente.
― 6 min ler
A pesquisa foca em melhorar a verificação de redes neurais com especificações NAP mínimas.
― 9 min ler
O DEXTER melhora a segurança da IA ao aumentar a detecção de dados fora da distribuição.
― 8 min ler
Um estudo comparando o desempenho de segurança de modelos de linguagem populares.
― 6 min ler
Combinar detecção de OOD com Previsão Conformal aumenta a confiabilidade do modelo.
― 7 min ler
Aprenda como dividir tarefas complexas ajuda os robôs a se moverem de forma eficiente.
― 6 min ler
Um novo conjunto de dados avalia como os modelos de linguagem lidam com conteúdo prejudicial em diferentes culturas.
― 6 min ler