Un estudio sobre cómo mejorar las CNNs usando etiquetas parciales y modelos de ataque adversarial.
― 7 minilectura
Ciencia de vanguardia explicada de forma sencilla
Un estudio sobre cómo mejorar las CNNs usando etiquetas parciales y modelos de ataque adversarial.
― 7 minilectura
Este artículo revisa las debilidades de los modelos multimodales frente a varios tipos de ataques.
― 6 minilectura
Explorando las amenazas que suponen los ataques adversariales en la imagenología médica.
― 7 minilectura
MALT mejora la eficiencia y el éxito de los ataques adversariales en modelos de clasificación de imágenes.
― 6 minilectura
Este artículo revisa métodos para proteger los sistemas de calidad de imagen contra ataques adversariales.
― 7 minilectura
Un nuevo método mejora la resiliencia de los VAE ante manipulaciones de datos complicadas.
― 7 minilectura
Examinando vulnerabilidades en transformadores de visión y modelos de downstream a través de ataques de transferencia.
― 7 minilectura
Examinando vulnerabilidades y defensas en modelos de difusión para una generación de contenido segura.
― 7 minilectura
Explorando el impacto de ataques adversariales en la explicabilidad del aprendizaje profundo.
― 6 minilectura
Nuevos métodos mejoran la resistencia de los modelos de aprendizaje profundo a cambios adversariales.
― 7 minilectura
Abordando los riesgos en imágenes de MRI en el diagnóstico de la enfermedad de Alzheimer a través de métodos de detección avanzados.
― 7 minilectura
Los ataques de barajado revelan vulnerabilidades en las evaluaciones de equidad de la IA usando métodos como SHAP.
― 8 minilectura
Este artículo habla sobre cómo mejorar la robustez de los modelos de aprendizaje automático cuántico contra ataques adversarios.
― 7 minilectura
Un nuevo enfoque busca mejorar la resiliencia del aprendizaje activo frente a ataques.
― 10 minilectura
Un nuevo método apunta a sistemas de autenticación facial múltiples de manera eficiente.
― 10 minilectura
Un nuevo método usa maquillaje para mejorar la privacidad en los sistemas de reconocimiento facial.
― 7 minilectura
Abordando los desafíos de los ataques adversariales en redes neuronales de series temporales.
― 7 minilectura
Nuevos métodos mejoran la defensa de los modelos de machine learning contra ataques adversariales.
― 6 minilectura
Nuevo método usa IWMF para mejorar el reconocimiento facial contra ataques adversariales.
― 8 minilectura
Un nuevo método de ataque socava los sistemas de detección de deepfakes.
― 7 minilectura
Mejorando los métodos de detección de botnets a través del aprendizaje automático y estrategias de defensa adversarial.
― 6 minilectura
Aprende cómo el uso de marcas de agua protege los modelos de IA y apoya los derechos de los creadores.
― 6 minilectura
Examinando nuevos métodos para mejorar la eficiencia y seguridad de las redes neuronales.
― 10 minilectura
La investigación muestra que los datos de EEG pueden ayudar a las redes neuronales artificiales a resistir ataques adversariales.
― 6 minilectura
Un método que mejora la CNN para enfocarse en áreas clave de la imagen para tomar mejores decisiones.
― 5 minilectura
Te presento PIP, una herramienta para detectar ataques adversariales en LVLMs.
― 6 minilectura
Los avances en IA hacen que el audio falso sea común, lo que genera la necesidad de detección.
― 7 minilectura
Una nueva medida para fortalecer los Sistemas de Detección de Intrusiones en Redes contra ataques adversariales.
― 7 minilectura
Explorando Redes Neuronales Dispersas y su rendimiento con datos de entrenamiento difíciles.
― 9 minilectura
XSub explota la IA explicable para mejorar los ataques adversariales, lo que genera preocupaciones de seguridad.
― 7 minilectura
Examinando ataques eficientes en la Clasificación Automática de Modulación usando la Proporción Áurea.
― 6 minilectura
Un nuevo método para mejorar los modelos de deep learning contra ataques adversariales.
― 7 minilectura
Abordando los riesgos de seguridad en la IA generativa a través de equipos rojos y azules.
― 6 minilectura
Explorando el equilibrio entre amenazas adversariales y medidas proactivas en el aprendizaje automático.
― 8 minilectura
Explorando las vulnerabilidades en el reconocimiento facial causadas por ataques de marcas de agua adversariales.
― 7 minilectura
Evaluando el rendimiento de la IA usando análisis de supervivencia para fiabilidad frente a desafíos.
― 9 minilectura
SWE2 mejora la detección de discursos de odio en redes sociales con técnicas avanzadas.
― 6 minilectura
Examinando el papel de los clasificadores, especialmente los modelos CVFR, en el aprendizaje automático.
― 7 minilectura
Una nueva estrategia de entrenamiento mejora la resistencia de los sistemas de visión 3D a entradas engañosas.
― 6 minilectura
Un nuevo método mejora la precisión en el conteo de multitudes y la fiabilidad del modelo.
― 6 minilectura