Un nouveau cadre améliore la sécurité des modèles linguistiques contre la manipulation de données nuisibles.
― 5 min lire
La science de pointe expliquée simplement
Un nouveau cadre améliore la sécurité des modèles linguistiques contre la manipulation de données nuisibles.
― 5 min lire
Un aperçu des nouvelles méthodes pour lutter contre les attaques de poisonnage de données en apprentissage automatique.
― 8 min lire
L'ajustement des instructions soulève des inquiétudes concernant les vulnérabilités de sécurité dans les grands modèles de langage.
― 5 min lire
Un nouveau modèle améliore la détection de faux clips audio grâce à une analyse stéréo.
― 7 min lire
Une nouvelle méthode améliore la vie privée dans les arbres de décision sans sacrifier la précision.
― 7 min lire
Explorer les risques des grands modèles de langage face aux cybermenaces.
― 6 min lire
Évaluer les modèles d'IA est super important pour éviter des conséquences néfastes dans le développement technologique.
― 9 min lire
LLMDet identifie la source du texte, ce qui renforce la confiance dans l'info.
― 8 min lire
Une nouvelle méthode améliore le réalisme des échantillons adversariaux tout en gardant son efficacité.
― 7 min lire
Le radio fingerpinting renforce la sécurité des satellites contre les attaques de spoofing et de replay.
― 8 min lire
Explorer des méthodes pour détecter la fraude dans la DeFi en utilisant des techniques d'analyse de données avancées.
― 5 min lire
Cette étude examine les attaques sur les réseaux de distribution d'eau et propose des méthodes pour mieux détecter les fuites.
― 9 min lire
Une méthode pour améliorer les modèles de classification de texte contre les changements adverses.
― 9 min lire
Un nouveau modèle améliore la détection des menaces cyber dans les environnements cloud.
― 10 min lire
Une nouvelle méthode améliore l'anonymat dans les signatures en anneau pour une meilleure sécurité.
― 8 min lire
Examiner le rôle des techniques FPGA pour améliorer la sécurité matérielle.
― 7 min lire
Une nouvelle méthode prédit l’efficacité d’un réseau de manière efficace en utilisant des techniques d’apprentissage profond.
― 8 min lire
Un nouveau modèle améliore la précision de détection des vulnérabilités en utilisant des techniques d'apprentissage profond.
― 8 min lire
Un aperçu des nouvelles méthodes de codage pour une meilleure confidentialité des données.
― 7 min lire
MeTTa vise à unifier la programmation pour les humains et les AGIs.
― 5 min lire
Évaluer les risques de confidentialité en deep learning face à différents types d'attaques.
― 7 min lire
Un nouveau protocole pour protéger la vie privée des utilisateurs dans le découpage des réseaux 5G.
― 7 min lire
PPA-AFL améliore la confidentialité des données dans l'apprentissage machine collaboratif entre appareils.
― 7 min lire
Une nouvelle méthode pour détecter des motifs inhabituels dans les données en utilisant l'apprentissage automatique.
― 6 min lire
L'apprentissage incrémental améliore l'apprentissage automatique, mais fait face à de grosses menaces avec les attaques par porte dérobée.
― 6 min lire
Cette étude examine comment les opérateurs de réseau se sont adaptés pendant le conflit Russie-Ukraine.
― 9 min lire
Une plongée profonde dans les attaques de morphing facial et les méthodes de détection.
― 10 min lire
UMD propose une nouvelle méthode pour identifier efficacement des attaques complexes par backdoor.
― 7 min lire
Une étude sur l'efficacité des attaques de quartier pour révéler des données d'entraînement.
― 9 min lire
Un nouveau cadre améliore la détection des chemins d'attaque cyber.
― 8 min lire
T800 propose une solution de sécurité efficace pour les appareils IoT vulnérables.
― 7 min lire
Explore des stratégies pour assurer un routage sécurisé dans des réseaux vulnérables.
― 8 min lire
Une nouvelle méthode améliore la détection des ransomwares en utilisant plusieurs tests pour plus de précision.
― 7 min lire
Un aperçu des risques et des vulnérabilités de la sécurité par empreinte digitale sur les smartphones.
― 7 min lire
Une nouvelle méthode utilisant des graphes pour identifier les attaques adversariales sur les réseaux de neurones.
― 8 min lire
Cette recherche explore comment les attaques adversariales affectent les modèles d'inférence bayésienne.
― 10 min lire
Explorer les attaques et défenses clean-label dans les modèles de machine learning en NLP.
― 8 min lire
Examiner comment des changements subtils impactent la qualité d'image dans les systèmes de compression.
― 6 min lire
Cette critique examine la résilience de l'apprentissage non supervisé face aux attaques adversariales.
― 11 min lire
Cet article examine les attaques d'inférence d'attributs sur les GNN et leur impact sur la vie privée.
― 12 min lire