Presentando el hypervolumen adversarial para evaluar mejor el rendimiento de los modelos de aprendizaje profundo.
― 8 minilectura
Ciencia de vanguardia explicada de forma sencilla
Presentando el hypervolumen adversarial para evaluar mejor el rendimiento de los modelos de aprendizaje profundo.
― 8 minilectura
Este artículo habla sobre el entrenamiento adversarial para clasificadores cuánticos de aprendizaje automático robustos.
― 6 minilectura
Un nuevo enfoque mejora el rendimiento del modelo contra cambios de distribución y ataques adversariales.
― 5 minilectura
Mejorando la robustez contra ataques adversariales en modelos de lenguaje-visión.
― 5 minilectura
Este artículo revisa la solidez de CLIP en varios desafíos.
― 6 minilectura
Un marco propuesto mejora la seguridad del aprendizaje federado contra ataques adversariales.
― 8 minilectura
Este artículo revisa las fortalezas y debilidades del modelo VMamba.
― 6 minilectura
Una mirada a las amenazas que representan los LLMs y estrategias para defenderse.
― 12 minilectura
Examinando el papel del deep learning en el análisis de imágenes médicas y las amenazas adversariales.
― 8 minilectura
Las redes neuronales tropicales mejoran la resiliencia contra ataques adversariales en el aprendizaje automático.
― 10 minilectura
Este artículo examina cómo los ataques adversarios alteran los conceptos aprendidos de las CNN.
― 7 minilectura
Examinando cómo los ataques adversariales afectan las predicciones y explicaciones de la IA.
― 8 minilectura
Un enfoque novedoso aumenta la fiabilidad del modelo de lenguaje mediante mecanismos de auto-recuperación.
― 8 minilectura
Entender el impacto de los ataques adversariales en los modelos de aprendizaje automático.
― 10 minilectura
Este artículo examina cómo los ataques adversariales comprometen los modelos de clasificación de texto.
― 7 minilectura
Mejorar las herramientas para detectar lenguaje dañino en espacios en línea es clave para la seguridad.
― 7 minilectura
Un nuevo método mejora la resistencia del seguimiento de objetos visuales frente a ataques sutiles.
― 7 minilectura
Aprende sobre ataques adversariales y su impacto en los modelos de aprendizaje automático.
― 8 minilectura
Explorando los factores clave que afectan la robustez contra ataques adversarios en el aprendizaje automático.
― 7 minilectura
Un nuevo método revela vulnerabilidades en evaluaciones de calidad de imagen y video sin referencia.
― 8 minilectura
Examinando la seguridad de los PDMs contra ataques adversariales en la creación de imágenes.
― 7 minilectura
Un método para aumentar la fiabilidad del clasificador contra la manipulación de datos.
― 6 minilectura
Una mirada a las amenazas de seguridad que presentan los LLMs de código ajustados por instrucciones.
― 7 minilectura
Este artículo habla sobre cómo mejorar las CNNs aprovechando la información de baja frecuencia para ser más resistentes a ataques adversarios.
― 8 minilectura
Este estudio examina las debilidades de los modelos SER frente a ataques adversariales en diferentes idiomas.
― 6 minilectura
Box-NN mejora el rendimiento del modelo frente a desafíos adversariales con simplicidad y eficiencia.
― 7 minilectura
Un clip de audio universal puede silenciar modelos de ASR avanzados como Whisper.
― 7 minilectura
Nueva técnica de poda de capas mejora la eficiencia y precisión del modelo.
― 7 minilectura
Este estudio mejora la seguridad del aprendizaje automático cuántico contra ataques adversariales a través de canales de ruido y métodos de privacidad.
― 9 minilectura
Este artículo investiga las vulnerabilidades en los modelos de voz y formas de mejorar su seguridad.
― 6 minilectura
Un nuevo mecanismo de defensa mejora la detección de objetos en drones bajo amenazas adversas.
― 6 minilectura
Este estudio evalúa los rastreadores de transformadores frente a ataques adversariales en el seguimiento de objetos.
― 6 minilectura
SCRN ofrece una forma confiable de identificar contenido generado por IA de manera efectiva.
― 8 minilectura
Explorando los desafíos de los explicadores de GNN bajo ataques adversarios en aplicaciones críticas.
― 6 minilectura
Nuevo método mejora la cuantificación de la incertidumbre en modelos entrenados de manera adversaria.
― 8 minilectura
Un nuevo método revela vulnerabilidades en los modelos de preentrenamiento de visión-lenguaje a través de perturbaciones universales adversariales.
― 8 minilectura
El marco RC-NAS mejora los modelos de aprendizaje profundo contra ataques adversariales de manera efectiva.
― 7 minilectura
Un nuevo método revela vulnerabilidades en los métodos de explicación de GNN.
― 8 minilectura
Un estudio examina la robustez de los modelos de segmentación contra ataques adversariales en el sector de la salud.
― 8 minilectura
Un nuevo enfoque mejora la robustez de los Vision Transformers contra ataques adversariales.
― 6 minilectura