MLGuard propose un cadre pour des applications de machine learning sûres et fiables.
― 6 min lire
La science de pointe expliquée simplement
MLGuard propose un cadre pour des applications de machine learning sûres et fiables.
― 6 min lire
Adv3D présente des exemples adversariaux 3D réalistes pour les systèmes de voitures autonomes.
― 7 min lire
Une nouvelle méthode pour la navigation des robots en toute sécurité en prenant en compte les risques physiques dans des environnements complexes.
― 9 min lire
Présentation d'un benchmark pour vérifier les réseaux de neurones codés en C pur.
― 7 min lire
Une nouvelle méthode améliore l'adaptabilité des modèles AV aux changements de point de vue de la caméra.
― 8 min lire
Examiner le rôle des outils de test pour garantir une génération d'images sécurisée.
― 11 min lire
Discuter des mesures de sécurité pour les systèmes d'apprentissage machine dans des domaines critiques.
― 7 min lire
Explorer le besoin de sécurité et de confiance dans les systèmes d'IA.
― 8 min lire
Présentation d'un cadre qui met la sécurité au premier plan dans l'apprentissage par renforcement.
― 6 min lire
Un aperçu de l'importance de la vérification des modèles pour la sécurité des systèmes d'IA.
― 9 min lire
De nouvelles méthodes améliorent les prévisions pour la gestion des déchets nucléaires.
― 6 min lire
Explore comment les filtres de sécurité basés sur les données maintiennent la sécurité dans les systèmes d'apprentissage.
― 7 min lire
Une nouvelle approche pour surveiller les réseaux de neurones pendant leur fonctionnement afin d'assurer leur fiabilité.
― 9 min lire
De nouvelles méthodes améliorent la navigation sécurisée pour les systèmes autonomes grâce à des stratégies de contrôle innovantes.
― 7 min lire
De nouvelles méthodes améliorent la vérification de sécurité des réseaux de neurones bayésiens contre les attaques.
― 6 min lire
De nouvelles méthodes améliorent la prise de décision en IA tout en garantissant la sécurité et l'efficacité.
― 7 min lire
Cette étude évalue la sécurité des DNN dans la gestion de données de conduite inconnues.
― 14 min lire
Un aperçu des fonctions de barrière de contrôle pour une opération sécurisée en technologie.
― 7 min lire
Un aperçu des techniques de renforcement sécurisé et de leurs applications dans le monde réel.
― 8 min lire
Une nouvelle méthode améliore la sécurité des robots qui naviguent dans des environnements complexes.
― 6 min lire
Une nouvelle méthode améliore la façon dont les robots interprètent en toute sécurité les instructions des utilisateurs.
― 9 min lire
Explorer des mesures de sécurité pour lutter contre la confiance excessive dans les systèmes d'IA des véhicules autonomes.
― 8 min lire
Un nouveau cadre pour améliorer la sécurité et la performance dans les systèmes robotiques hybrides.
― 8 min lire
Un aperçu des systèmes distribués, de la synchronisation et des méthodes de sécurité.
― 8 min lire
Une initiative dirigée par la communauté pour identifier les prompts nuisibles dans les modèles T2I.
― 8 min lire
Une nouvelle approche pour garantir la sécurité dans l'apprentissage par renforcement hors ligne.
― 9 min lire
Une nouvelle méthode vise à améliorer la sécurité et l'utilité des grands modèles de langage.
― 8 min lire
Un nouveau cadre améliore la sécurité des UGV dans des environnements complexes.
― 10 min lire
Une étude sur l'apprentissage par renforcement profond protégé pour l'autonomie sûre des engins spatiaux.
― 9 min lire
Une nouvelle méthode améliore les fonctionnalités de sécurité dans les systèmes d'IA multimodaux sans entraînement intensif.
― 8 min lire
Un guide sur la combinaison de l'IA avec des robots pour des opérations plus sûres et efficaces.
― 7 min lire
De nouvelles méthodes améliorent la sécurité dans l'apprentissage par renforcement tout en optimisant les performances dans des environnements contraints.
― 8 min lire
La méthode DeepKnowledge améliore la fiabilité des DNN dans les applications critiques.
― 9 min lire
Une nouvelle méthode améliore la détection OOD en se concentrant sur les informations de gradient.
― 7 min lire
La recherche se concentre sur l'amélioration de la vérification des réseaux de neurones avec des spécifications NAP minimales.
― 10 min lire
DEXTER améliore la sécurité de l'IA en renforçant la détection des données hors distribution.
― 8 min lire
Une étude comparant la performance en matière de sécurité des modèles de langage populaires.
― 7 min lire
Combiner la détection OOD et la prédiction conforme améliore la fiabilité du modèle.
― 7 min lire
Apprends comment décomposer des tâches complexes aide les robots à naviguer efficacement.
― 6 min lire
Un nouveau jeu de données évalue comment les modèles de langage gèrent le contenu nuisible à travers les cultures.
― 7 min lire