EFFL zielt darauf ab, gleichmässige Modellgenauigkeit und Fairness unter den Teilnehmern im föderierten Lernen zu erreichen.
― 5 min Lesedauer
Hochmoderne Wissenschaft einfach erklärt
EFFL zielt darauf ab, gleichmässige Modellgenauigkeit und Fairness unter den Teilnehmern im föderierten Lernen zu erreichen.
― 5 min Lesedauer
Analyse von föderierten und Konsensmethoden zur Prostatasegmentierung aus MRI-Scans.
― 7 min Lesedauer
Eine Studie, die verschiedene Algorithmen zum Erkennen von Wohnorten mit Smartphone-Daten vergleicht.
― 8 min Lesedauer
Methoden zum Schutz der Privatsphäre im Machine Learning untersuchen.
― 7 min Lesedauer
Untersuchen, wie Sprachmodelle bei der Unterstützung und Behandlung von psychischer Gesundheit helfen können.
― 7 min Lesedauer
Neue Methode verbessert die MRT-Segmentierung, indem sie Modelle anpasst, ohne dass umfangreiche Beschriftungen nötig sind.
― 9 min Lesedauer
Ein neuer Ansatz, um die Effizienz von Machine Learning in der Satellitenkommunikation zu steigern.
― 6 min Lesedauer
Forschung zeigt, dass es wichtig ist, personalisierte Antworten in Konversationssuchagenten zu haben.
― 7 min Lesedauer
Ein neuer Ansatz sichert die Auswahl der Teilnehmer im föderierten Lernen, um die Privatsphäre zu schützen.
― 6 min Lesedauer
Dieses Papier stellt eine Methode vor, um Fairness im föderierten Lernen zu verbessern und gleichzeitig die Datensicherheit zu wahren.
― 7 min Lesedauer
Neue Methode ermöglicht es Agenten, gemeinsam zu lernen, während sie mit unzuverlässigen Einflüssen umgehen.
― 6 min Lesedauer
Ein neuer Ansatz zur Verbesserung des föderierten Lernens bei ungleicher Nutzerbeteiligung.
― 4 min Lesedauer
DP-ZO gleicht Privatsphäre und Leistung beim Training von Sprachmodellen aus.
― 6 min Lesedauer
Eine neue Methode, um die Kommunikation in FedRec zu verbessern und dabei die Nutzerdaten zu schützen.
― 6 min Lesedauer
Neue Hautfarbmessungen sollen Fairness und Privatsphäre in Gesichtserkennungssystemen verbessern.
― 7 min Lesedauer
Die Erforschung von Faktoren, die das Vertrauen in Sprach-KI-Assistenten im Gesundheitswesen beeinflussen.
― 4 min Lesedauer
Lern, wie maschinelles Vergessen dazu beiträgt, die Privatsphäre der Nutzer zu schützen, indem es den Einfluss von Daten entfernt.
― 7 min Lesedauer
Ein neuer Ansatz, um die Leistung des föderierten Lernens zu verbessern und gleichzeitig die Datensicherheit zu gewährleisten.
― 7 min Lesedauer
Brave bietet Privatsphäre und Schutz vor Bedrohungen im Peer-to-Peer-Föderierten Lernen.
― 7 min Lesedauer
Ein formeller Ansatz zur Identifizierung von Datenschutzverletzungen in Quantencomputeralgorithmen.
― 6 min Lesedauer
Ein Blick auf Föderiertes Lernen und Unlearning für Datenschutz.
― 6 min Lesedauer
AdaFed verbessert die Fairness im föderierten Lernen und behält dabei die Modellgenauigkeit bei.
― 6 min Lesedauer
Ein Blick auf die Sicherheitsbedenken rund um grosse Sprachmodelle.
― 8 min Lesedauer
Untersuchung der Auswirkungen der Pandemie auf Softwareengineering-Forscher.
― 6 min Lesedauer
Innovativer Ansatz nutzt Fahrdaten und schützt dabei die Privatsphäre.
― 6 min Lesedauer
Verbesserung der Effizienz des Modelltrainings und des Datenschutzes im föderierten Lernen durch Coreset-Auswahl.
― 5 min Lesedauer
Eine Methode, um die Übersetzungsqualität zu verbessern und gleichzeitig die Privatsphäre in mehrsprachiger Kommunikation zu wahren.
― 5 min Lesedauer
Ein methodischer Ansatz für Codeüberprüfungen zur Privatsphäre bei konformen Software.
― 7 min Lesedauer
Ein neuer Ansatz zur Analyse von Datenschutzrichtlinien mithilfe von Crowdsourcing und aktivem Lernen.
― 6 min Lesedauer
ADVENT erkennt Angriffe in VANETs und sorgt so für sichereren Transport durch effizientes Monitoring in Echtzeit.
― 7 min Lesedauer
Ein neuer Algorithmus, der die Personalisierung von Modellen verbessert und gleichzeitig die Datenschutz gewährleistet.
― 8 min Lesedauer
Eine neue Methode verbessert das föderierte Lernen, indem sie die Kommunikationslast verringert und das Client-Drift-Problem angeht.
― 5 min Lesedauer
Kontrastives Unlernen entfernt effizient den Einfluss von Daten, während die Modellleistung erhalten bleibt.
― 5 min Lesedauer
Die Risiken der Integration von Foundation Models in föderierte Lernsysteme untersuchen.
― 7 min Lesedauer
Methoden des Maschinen-Unlearning sind wichtig, um die Datenschutzrechte zu respektieren.
― 5 min Lesedauer
Ein neuer Algorithmus verbessert die Regressionsanalyse und legt gleichzeitig Wert auf den Datenschutz.
― 7 min Lesedauer
CleanSheet fördert Modelldiebstahl, ohne die Trainingsprozesse zu ändern.
― 7 min Lesedauer
Ein Blick darauf, wie differenzielle Privatsphäre individuelle Datenprivatsphäre schützt.
― 6 min Lesedauer
Eine neue Methode verbessert die Effizienz des föderierten Lernens und schützt dabei die Datensicherheit.
― 8 min Lesedauer
Ein Blick auf die Sicherheitsrisiken, denen IoT-Geräte ausgesetzt sind, die durch maschinelles Lernen unterstützt werden.
― 6 min Lesedauer