Un nuovo metodo migliora il rilevamento OOD concentrandosi sulle informazioni di gradiente.
― 6 leggere min
Scienza all'avanguardia spiegata semplicemente
Un nuovo metodo migliora il rilevamento OOD concentrandosi sulle informazioni di gradiente.
― 6 leggere min
La ricerca si concentra sul miglioramento della verifica delle reti neurali con specifiche NAP minime.
― 8 leggere min
DEXTER migliora la sicurezza per l'IA potenziando il riconoscimento delle informazioni fuori distribuzione.
― 7 leggere min
Uno studio che confronta le prestazioni di sicurezza dei modelli linguistici più popolari.
― 6 leggere min
Combinare la rilevazione OOD e la Predizione Conformale aumenta l'affidabilità del modello.
― 6 leggere min
Scopri come suddividere compiti complessi aiuta i robot a muoversi in modo efficace.
― 5 leggere min
Un nuovo set di dati valuta come i modelli linguistici gestiscono contenuti dannosi in diverse culture.
― 6 leggere min
Uno sguardo a come le reti neurali elaborano le informazioni e le loro implicazioni.
― 4 leggere min
Un nuovo approccio all'analisi della sicurezza usando funzioni barriera stocastiche a tratti.
― 7 leggere min
Un metodo per addestrare i robot a fare compiti complessi assicurando la sicurezza.
― 7 leggere min
Un nuovo metodo migliora la sicurezza nella raggiungibilità ad alta dimensione per veicoli autonomi.
― 6 leggere min
Usare il valore di scambio per insegnare all'AI comportamenti sicuri ed efficaci dagli esseri umani.
― 7 leggere min
Un nuovo metodo che migliora la stima dell'incertezza nei modelli AI per dispositivi edge.
― 8 leggere min
Nuovo metodo migliora la sicurezza di guida dei robot mentre aumentano la velocità di apprendimento.
― 6 leggere min
Introducendo un metodo innovativo per migliorare l'addestramento e la sicurezza dei robot.
― 8 leggere min
Questo articolo parla del design di controller di reti neurali sicuri per sistemi critici.
― 6 leggere min
Questo articolo parla di come migliorare le CNN sfruttando le informazioni a bassa frequenza per essere più resilienti agli attacchi avversari.
― 7 leggere min
Esplorare vincoli di danno controfattuali per decisioni più sicure nell'IA.
― 6 leggere min
Il Dynamic Model Predictive Shielding migliora la sicurezza e l'efficienza nel reinforcement learning.
― 6 leggere min
Un metodo per migliorare il rilevamento degli oggetti in ambienti mai visti usando un addestramento a fonte singola.
― 8 leggere min
AdvUnlearn migliora la sicurezza nella generazione di immagini combinando l'unlearning con l'addestramento avversariale.
― 6 leggere min
Questo articolo parla di nuovi metodi per spiegare le decisioni dell'IA nella rilevazione degli oggetti.
― 7 leggere min
Nuovi metodi migliorano la rilevazione di campioni anomali in ambienti di dati misti.
― 7 leggere min
Questo articolo esamina i rischi del fine-tuning dei modelli linguistici per la sicurezza.
― 4 leggere min
Un nuovo metodo permette agli agenti di seguire le regole di sicurezza in linguaggio semplice.
― 8 leggere min
Questo studio esplora l'uso di modelli più piccoli per migliorare la sicurezza nei sistemi di intelligenza artificiale.
― 6 leggere min
Un nuovo metodo per gli agenti per ottimizzare le prestazioni mentre si assicurano che i vincoli siano rispettati.
― 6 leggere min
Questo articolo parla dei metodi di calibrazione essenziali per i rilevatori di oggetti in applicazioni critiche.
― 6 leggere min
La ricerca svela dei pregiudizi nei sistemi di rilevamento degli oggetti che influiscono sulla sicurezza nei veicoli autonomi.
― 6 leggere min
MaxLin migliora la precisione e l'efficienza della verifica CNN per applicazioni AI più sicure.
― 6 leggere min
Un nuovo sistema affronta potenziali problemi nelle regole di attivazione dei trigger IoT per le case intelligenti.
― 6 leggere min
Nuove strategie migliorano il deep reinforcement learning contro il rumore avversario.
― 7 leggere min
Esaminando i rischi e le misure di sicurezza nel perfezionamento dei modelli di linguaggio.
― 5 leggere min
Esplorare come le neuroscienze cognitive possano migliorare la comprensione dei modelli AI.
― 8 leggere min
Un nuovo insieme di benchmark aiuta a valutare i shortcut del ragionamento nell'intelligenza artificiale.
― 7 leggere min
Un metodo fresco per testare la sicurezza del modello linguistico e le abilità multilingue.
― 8 leggere min
I ricercatori sviluppano nuovi metodi per addestrare i robot in sicurezza in ambienti rischiosi.
― 4 leggere min
La ricerca mette in evidenza il ruolo dei neuroni della sicurezza nel migliorare la sicurezza e la responsabilità dei LLM.
― 6 leggere min
Un nuovo modo per migliorare la sicurezza dei modelli attraverso il rifiuto delle previsioni.
― 6 leggere min
La ricerca sulle isole magnetiche migliora la stabilità del plasma e previene le distruzioni nei tokamak.
― 6 leggere min