Super-Resolution-Techniken erschweren die Erkennung von Deepfakes erheblich.
― 6 min Lesedauer
Hochmoderne Wissenschaft einfach erklärt
Super-Resolution-Techniken erschweren die Erkennung von Deepfakes erheblich.
― 6 min Lesedauer
TrackPGD testet die Grenzen der Objektverfolgung durch fortschrittliche gegnerische Angriffe.
― 6 min Lesedauer
Eine Studie, wie VAEs bei verschiedenen demografischen Gruppen unter Angriff abschneiden.
― 7 min Lesedauer
Neue Methode verbessert die Sicherheit von neuronalen Netzen mit stochastischem Rechnen.
― 5 min Lesedauer
Bedrohungen für DRL-Systeme im cyber-physikalischen Energiemanagement erkunden.
― 6 min Lesedauer
Untersuchung der Schwachstellen von leichten Modellen gegenüber adversarialen Angriffen.
― 5 min Lesedauer
Neue Erkenntnisse über robuste Klassifikatoren verbessern ihre Fähigkeit, Angriffen standzuhalten.
― 7 min Lesedauer
Diese Studie zeigt, wie nicht-konfrontative Angriffe die Algorithmen für Wissensgraph-Einbettungen beeinflussen.
― 8 min Lesedauer
Wir stellen HO-FMN vor, um die Bewertung der Robustheit von Maschinenlernmodellen gegen adversarielle Angriffe zu verbessern.
― 6 min Lesedauer
Neue Methode verbessert gegnerische Angriffe auf 3D-Modelle mit Diffusionstechniken.
― 6 min Lesedauer
Die Schwachstellen und möglichen Angriffe auf NeRF-Technologie untersuchen.
― 5 min Lesedauer
Ein Verfahren vorstellen, um die Resilienz von KI-Systemen durch Multi-Task-Angriffe zu verbessern.
― 6 min Lesedauer
Forschung zeigt, wie freundliche Aufforderungen KI-Systeme irreführen können.
― 6 min Lesedauer
Untersuchung der Cybersecurity-Herausforderungen und der Rolle von KI in Industrie 5.0.
― 7 min Lesedauer
Fast Preemption bietet einen proaktiven Schutz für Deep-Learning-Systeme gegen Angriffe.
― 7 min Lesedauer
Eine Studie zur Verbesserung von CNNs mithilfe von teilweisen Labels und adversarialen Angriffsmodellen.
― 6 min Lesedauer
Dieser Artikel beleuchtet die Schwächen von multimodalen Modellen gegenüber verschiedenen Angriffsarten.
― 6 min Lesedauer
Die Bedrohungen durch Angriffe von Gegnern im Bereich der medizinischen Bildgebung erkunden.
― 7 min Lesedauer
MALT verbessert die Effizienz und den Erfolg von adversarialen Angriffen bei Bildklassifizierungsmodellen.
― 5 min Lesedauer
Dieser Artikel untersucht Methoden, um Bildqualitätsysteme vor feindlichen Angriffen zu schützen.
― 6 min Lesedauer
Eine neue Methode steigert die Widerstandsfähigkeit von VAEs gegen knifflige Datenmanipulationen.
― 7 min Lesedauer
Untersuchung von Schwachstellen in Vision-Transformern und nachgelagerten Modellen durch Transferangriffe.
― 6 min Lesedauer
Die Schwachstellen und Abwehrmechanismen in Diffusionsmodellen für sichere Inhaltserstellung untersuchen.
― 6 min Lesedauer
Die Auswirkungen von adversarialen Angriffen auf die Erklärbarkeit im Deep Learning erkunden.
― 5 min Lesedauer
Neue Methoden verbessern die Widerstandsfähigkeit von Deep-Learning-Modellen gegen feindliche Veränderungen.
― 6 min Lesedauer
Risiken bei MRI-Bildern zur Diagnose von Alzheimer durch fortschrittliche Erkennungsmethoden angehen.
― 6 min Lesedauer
Shuffling-Angriffe zeigen Schwächen in der Bewertung der Fairness von KI, indem Methoden wie SHAP verwendet werden.
― 6 min Lesedauer
Dieser Artikel bespricht, wie man die Robustheit von Quanten-Maschinenlernmodellen gegen Angriffe verbessern kann.
― 6 min Lesedauer
Ein neuer Ansatz zielt darauf ab, die Widerstandsfähigkeit des aktiven Lernens gegen Angriffe zu verbessern.
― 9 min Lesedauer
Eine neue Methode zielt effizient auf mehrere Gesichtsauthentifizierungssysteme ab.
― 9 min Lesedauer
Eine neue Methode nutzt Make-up, um die Privatsphäre in Gesichtserkennungssystemen zu verbessern.
― 6 min Lesedauer
Die Herausforderungen von feindlichen Angriffen auf zeitliche neuronale Netze angehen.
― 6 min Lesedauer
Neue Methoden verbessern die Verteidigung von Machine-Learning-Modellen gegen feindliche Angriffe.
― 6 min Lesedauer
Neue Methode nutzt IWMF, um die Gesichtserkennung gegen angreifende Attacken zu verbessern.
― 7 min Lesedauer
Eine neue Angriffsweise untergräbt Deepfake-Detektionssysteme.
― 6 min Lesedauer
Verbesserung der Botnet-Erkennungsmethoden durch maschinelles Lernen und strategische Abwehr gegen Angriffe.
― 6 min Lesedauer
Lern, wie Wasserzeichen KI-Modelle sichern und die Rechte von Kreativen unterstützen.
― 5 min Lesedauer
Untersuchen neuer Methoden zur Verbesserung der Effizienz und Sicherheit von neuronalen Netzwerken.
― 9 min Lesedauer
Forschung zeigt, dass EEG-Daten künstlichen neuronalen Netzwerken helfen können, gegen Angriffe zu widerstehen.
― 5 min Lesedauer
Eine Methode, die CNNs dabei hilft, sich auf wichtige Bereiche im Bild zu konzentrieren für bessere Entscheidungsfindung.
― 4 min Lesedauer