Un método para identificar ataques en sistemas combinando imágenes y texto.
― 7 minilectura
Ciencia de vanguardia explicada de forma sencilla
Un método para identificar ataques en sistemas combinando imágenes y texto.
― 7 minilectura
Un nuevo método ayuda a identificar rápidamente los puntos débiles en los modelos de aprendizaje profundo.
― 6 minilectura
Un enfoque novedoso para garantizar la privacidad manteniendo la utilidad del texto en modelos de PLN.
― 8 minilectura
Las técnicas de super resolución están complicando mucho los esfuerzos para detectar deepfakes.
― 6 minilectura
TrackPGD pone a prueba los límites del seguimiento de objetos mediante ataques adversariales avanzados.
― 6 minilectura
Un estudio sobre cómo los VAE funcionan en diferentes grupos demográficos bajo ataque.
― 8 minilectura
Nuevo método mejora la seguridad de las redes neuronales usando computación estocástica.
― 5 minilectura
Explorando amenazas a los sistemas de DRL en la gestión energética ciberfísica.
― 7 minilectura
Examinando las vulnerabilidades de los modelos ligeros frente a ataques adversariales.
― 6 minilectura
Nuevas ideas sobre clasificadores robustos mejoran su capacidad para resistir ataques.
― 8 minilectura
Este estudio revela cómo los ataques no adversariales impactan los algoritmos de incrustación de grafos de conocimiento.
― 9 minilectura
Presentamos HO-FMN para una mejor evaluación de la robustez de los modelos de aprendizaje automático contra ataques adversariales.
― 7 minilectura
Nuevo método mejora los ataques adversariales en modelos 3D usando técnicas de difusión.
― 7 minilectura
Examinando las vulnerabilidades y posibles ataques a la tecnología NeRF.
― 6 minilectura
Presentando un método para mejorar la resistencia de sistemas de IA mediante ataques adversariales multitarea.
― 7 minilectura
La investigación revela cómo los mensajes amigables pueden desviar a los sistemas de IA.
― 6 minilectura
Examinando los desafíos de ciberseguridad y el papel de la IA en la Industria 5.0.
― 8 minilectura
La Preemption Rápida ofrece una defensa proactiva para sistemas de deep learning contra ataques.
― 8 minilectura
Un estudio sobre cómo mejorar las CNNs usando etiquetas parciales y modelos de ataque adversarial.
― 7 minilectura
Este artículo revisa las debilidades de los modelos multimodales frente a varios tipos de ataques.
― 6 minilectura
Explorando las amenazas que suponen los ataques adversariales en la imagenología médica.
― 7 minilectura
MALT mejora la eficiencia y el éxito de los ataques adversariales en modelos de clasificación de imágenes.
― 6 minilectura
Este artículo revisa métodos para proteger los sistemas de calidad de imagen contra ataques adversariales.
― 7 minilectura
Un nuevo método mejora la resiliencia de los VAE ante manipulaciones de datos complicadas.
― 7 minilectura
Examinando vulnerabilidades en transformadores de visión y modelos de downstream a través de ataques de transferencia.
― 7 minilectura
Examinando vulnerabilidades y defensas en modelos de difusión para una generación de contenido segura.
― 7 minilectura
Explorando el impacto de ataques adversariales en la explicabilidad del aprendizaje profundo.
― 6 minilectura
Nuevos métodos mejoran la resistencia de los modelos de aprendizaje profundo a cambios adversariales.
― 7 minilectura
Abordando los riesgos en imágenes de MRI en el diagnóstico de la enfermedad de Alzheimer a través de métodos de detección avanzados.
― 7 minilectura
Los ataques de barajado revelan vulnerabilidades en las evaluaciones de equidad de la IA usando métodos como SHAP.
― 8 minilectura
Este artículo habla sobre cómo mejorar la robustez de los modelos de aprendizaje automático cuántico contra ataques adversarios.
― 7 minilectura
Un nuevo enfoque busca mejorar la resiliencia del aprendizaje activo frente a ataques.
― 10 minilectura
Un nuevo método apunta a sistemas de autenticación facial múltiples de manera eficiente.
― 10 minilectura
Un nuevo método usa maquillaje para mejorar la privacidad en los sistemas de reconocimiento facial.
― 7 minilectura
Abordando los desafíos de los ataques adversariales en redes neuronales de series temporales.
― 7 minilectura
Nuevos métodos mejoran la defensa de los modelos de machine learning contra ataques adversariales.
― 6 minilectura
Nuevo método usa IWMF para mejorar el reconocimiento facial contra ataques adversariales.
― 8 minilectura
Un nuevo método de ataque socava los sistemas de detección de deepfakes.
― 7 minilectura
Mejorando los métodos de detección de botnets a través del aprendizaje automático y estrategias de defensa adversarial.
― 6 minilectura
Aprende cómo el uso de marcas de agua protege los modelos de IA y apoya los derechos de los creadores.
― 6 minilectura