Este documento analiza los ataques por backdoor y sus implicaciones en la seguridad del aprendizaje automático.
― 8 minilectura
Ciencia de vanguardia explicada de forma sencilla
Este documento analiza los ataques por backdoor y sus implicaciones en la seguridad del aprendizaje automático.
― 8 minilectura
Este estudio examina la efectividad de los ataques encubiertos de etiqueta limpia en redes neuronales profundas.
― 6 minilectura
Este artículo habla sobre un método para introducir puertas traseras en redes neuronales durante el entrenamiento.
― 6 minilectura
Una mirada a las debilidades en los LLMs y estrategias para mejorarlos.
― 10 minilectura
Examinando cómo las señales emocionales pueden sabotear la tecnología de identificación de hablantes.
― 7 minilectura
Examinando vulnerabilidades y defensas en modelos de difusión para una generación de contenido segura.
― 7 minilectura
Nuevos métodos exponen vulnerabilidades en modelos médicos a través de ataques por puerta trasera.
― 6 minilectura
Este estudio investiga la vulnerabilidad de los modelos VSS a ataques de puerta trasera.
― 5 minilectura
Un nuevo enfoque mejora la efectividad de los ataques backdoor en modelos de PLN.
― 6 minilectura
Este artículo habla sobre un método para manipular redes neuronales sin disparadores.
― 7 minilectura
EmoAttack usa conversión de voz emocional para aprovechar vulnerabilidades en sistemas de habla.
― 6 minilectura
Investigando ataques por backdoor y los riesgos que tienen para los sistemas de detección de objetos.
― 7 minilectura
NoiseAttack altera múltiples clases en ataques de puerta trasera usando patrones de ruido sutiles.
― 7 minilectura
Aprende cómo los desencadenantes ocultos pueden manipular modelos de lenguaje y representar riesgos serios.
― 8 minilectura
Examinando cómo los datos importantes atraen más riesgos de seguridad en el aprendizaje automático.
― 7 minilectura
Un estudio revela vulnerabilidades en modelos de IA debido a ataques de puerta trasera.
― 6 minilectura
Explorando las vulnerabilidades de los sistemas multiagente cooperativos a ataques de puerta trasera.
― 6 minilectura
Presentamos PAD-FT, un método ligero para combatir ataques de backdoor sin necesidad de datos limpios.
― 7 minilectura
Presentamos PureDiffusion para mejorar los mecanismos de defensa contra amenazas de puerta trasera.
― 7 minilectura
Te presentamos TA-Cleaner, un método para mejorar las defensas de modelos multimodales contra la contaminación de datos.
― 9 minilectura
TrojVLM expone vulnerabilidades en los Modelos de Lenguaje Visual a ataques de puerta trasera.
― 8 minilectura
Un nuevo método genera preocupaciones de seguridad en los sistemas de EEG, a la vez que destaca posibles usos protectores.
― 7 minilectura
MASA ofrece una solución para mejorar la seguridad en los sistemas de Aprendizaje Federado.
― 5 minilectura
Examinando las vulnerabilidades de las Redes Neuronales de Espigas a través de métodos de ataque ingeniosos.
― 7 minilectura
Proteger los modelos de regresión profunda de amenazas ocultas es clave para la seguridad.
― 4 minilectura
ProP ofrece una forma efectiva de detectar ataques por la puerta de atrás en modelos de aprendizaje automático.
― 6 minilectura
Un nuevo método ayuda a proteger los modelos de lenguaje de ataques maliciosos de puerta trasera.
― 7 minilectura
Una mirada a cómo los trucos ocultos afectan a los modelos de lenguaje y sus explicaciones.
― 7 minilectura
Descubre cómo proteger las máquinas de ataques de backdoor en el aprendizaje autogestionado.
― 7 minilectura
Explora cómo los ataques de puerta trasera amenazan el diseño de hardware usando modelos de lenguaje grandes.
― 8 minilectura
La investigación destaca métodos para detectar ataques de puerta trasera en el ajuste fino de modelos de lenguaje.
― 10 minilectura
Descubre cómo PAR ayuda a proteger los modelos de IA de amenazas ocultas.
― 7 minilectura
Explorando los riesgos de ataques backdoor en el aprendizaje automático y sus implicaciones.
― 8 minilectura
La investigación revela vulnerabilidades en los Modelos de Lenguaje de Código contra ataques de puerta trasera.
― 9 minilectura
Entendiendo las amenazas de seguridad que enfrentan las interfaces cerebro-computadora hoy en día.
― 9 minilectura
Un método proactivo que utiliza Modelos de Lenguaje Visual busca detectar ataques de backdoor ocultos.
― 8 minilectura
Un nuevo enfoque mejora la seguridad en el aprendizaje federado al centrarse en las defensas del lado del cliente.
― 7 minilectura
Los BCIs ofrecen nuevas posibilidades, pero enfrentan serias amenazas de seguridad por ataques de puerta trasera.
― 7 minilectura
Descubriendo los peligros de los ataques backdoor en modelos de difusión.
― 8 minilectura
Descubre cómo los ataques de puerta trasera desafían la seguridad de los modelos de lenguaje impulsados por IA.
― 8 minilectura