Simple Science

Ciência de ponta explicada de forma simples

# Informática# Criptografia e segurança

Malware Adversarial: Um Novo Cenário de Ameaças

Um novo método pra escapar da detecção de malware traz sérios riscos de cibersegurança.

― 7 min ler


Táticas de Evasão deTáticas de Evasão deRansomware Aparecemsobre cibersegurança.detectores, levantando preocupaçõesNovo malware consegue passar pelos
Índice

O cibercrime tá crescendo, causando danos financeiros enormes no mundo todo. Entre os vários tipos de ataques cibernéticos, o ransomware se destacou como um dos mais prejudiciais. Pra combater essas ameaças, programas antivírus e Detectores de malware viraram essenciais. Esses programas costumam usar aprendizado de máquina pra identificar e bloquear softwares maliciosos. Mas os atacantes tão achando jeitos de enganar esses sistemas, tornando necessário desenvolver novos métodos pra escapar da detecção.

O Problema com a Detecção de Malware Atual

A detecção tradicional de malware depende muito de padrões predefinidos de softwares maliciosos conhecidos. Esse jeito tem limitações porque só consegue reconhecer ameaças que já viu antes. À medida que os cibercriminosos criam novos tipos de malware, esses sistemas tradicionais têm dificuldade em acompanhar. Pra contornar isso, muitos sistemas modernos integraram técnicas de aprendizado de máquina. O aprendizado de máquina pode ajudar a identificar padrões ocultos em softwares que podem indicar malícia, mesmo que o software não tenha sido visto antes.

Mas, sistemas baseados em aprendizado de máquina não são infalíveis. Os atacantes aprenderam a criar softwares maliciosos que conseguem passar por esses detectores. Eles fazem isso modificando o software de formas que o fazem parecer inofensivo. Essas versões modificadas são conhecidas como exemplos de malware adversarial. Os atacantes usam vários métodos pra criar essas versões modificadas, mas muitos desses métodos precisam de acesso ao funcionamento interno dos detectores de malware, tornando-os menos práticos em situações do mundo real.

O Que São Ataques de Evasão?

Ataques de evasão envolvem mudar um programa malicioso pra que ele não seja detectado pelo software antivírus. Existem dois tipos principais de ataques de evasão:

  1. Ataques de Caixa Branca: Nesse tipo, os atacantes entendem como o modelo de aprendizado de máquina usado no detector de malware funciona. Esse conhecimento permite que eles façam mudanças precisas no malware pra garantir que ele não seja sinalizado.

  2. Ataques de Caixa Preta: Aqui, os atacantes não têm acesso direto ao modelo de aprendizado de máquina. Eles precisam descobrir como escapar da detecção baseando-se apenas nos rótulos dados pelo detector (ou seja, se o software é malicioso ou inofensivo). Isso pode ser desafiador já que pode exigir várias tentativas pra testar o software contra o detector.

Muitos métodos existentes dependem de entender completamente o modelo ou exigem testes extensivos, o que pode alertar a comunidade de cibersegurança.

Uma Nova Abordagem: Ataques de Evasão Sem Consulta

Esse artigo apresenta um novo método pra criar exemplos de malware adversarial sem precisar perguntar nada aos detectores de malware. Em vez de ficar consultando o sistema repetidamente, essa abordagem usa um modelo conhecido como Redes Geradoras Adversariais (GANs) pra criar softwares modificados. O GAN aprende a fazer o malware parecer mais com softwares benignos com base em características específicas. Isso não requer conhecimento prévio do sistema de detecção.

O Que São Redes Geradoras Adversariais?

As Redes Geradoras Adversariais (GANs) consistem em duas redes neurais trabalhando juntas: um gerador e um crítico. O gerador cria novos exemplos, enquanto o crítico avalia. O objetivo do gerador é produzir exemplos que sejam tão semelhantes a softwares benignos que o crítico não consiga notar a diferença. Com o tempo, através desse processo de idas e vindas, o gerador melhora sua habilidade de criar exemplos de malware adversarial.

Características Usadas na Detecção de Malware

Pra realizar esse ataque, o novo método foca em três tipos principais de características que os detectores de malware costumam analisar:

  1. Distribuição de Frequência de Bytes: Isso envolve contar quantas vezes cada valor de byte aparece no software. Alterando a distribuição de bytes pra se parecer com a de softwares benignos, o malware adversarial consegue enganar os detectores.

  2. Características Baseadas em API: Essas características refletem as Interfaces de Programação de Aplicações (APIs) que o software usa. Malware frequentemente interage com o sistema operacional através de APIs específicas. Mudando quais APIs são chamadas, o malware pode parecer menos suspeito.

  3. Características Baseadas em String: Esse aspecto inclui as strings de texto encontradas dentro do software. Os atacantes podem mudar ou adicionar strings pra fazer o software parecer mais benigno, como incluir nomes de arquivos comuns ou URLs.

O Processo de Gerar Malware Adversarial

Criar malware adversarial começa usando o GAN pra manipular as características do software original. Pra cada tipo de característica, o processo envolve:

  1. Gerando Novas Características: O GAN pega as características do software original e gera novas que se alinham mais com exemplos benignos.

  2. Modificando o Executável: Assim que as novas características são geradas, o malware é modificado pra refletir essas mudanças. Isso pode envolver adicionar bytes, alterar chamadas de API ou injetar strings.

  3. Avaliação do Resultado: A eficácia do software modificado é testada contra vários detectores de malware pra ver se ele consegue escapar da detecção.

Avaliação do Novo Método de Ataque

O novo método foi testado usando um conjunto de dados específico contendo amostras de softwares benignos e maliciosos. Os resultados indicam que essa abordagem sem consulta conseguiu produzir exemplos adversariais que conseguiram escapar da detecção de diferentes tipos de sistemas de detecção de malware.

Comparação com Métodos Existentes

Quando testado contra métodos de evasão existentes, a nova abordagem baseada em GAN mostrou resultados promissores. Métodos anteriores frequentemente exigiam acesso ao modelo ou muitas tentativas pra ter sucesso. Em contraste, esse novo método conseguiu gerar malware adversarial sem precisar interagir diretamente com os sistemas de detecção alvo.

Além disso, os exemplos de malware adversarial gerados pareciam mais realistas em comparação com aqueles criados usando técnicas existentes. Enquanto algumas amostras adversariais produzidas com métodos antigos podiam ser reconhecidas como anômalas, as geradas com o GAN pareciam mais com softwares benignos típicos.

Implicações no Mundo Real

Essas descobertas levantam preocupações importantes pra cibersegurança. À medida que a criação de malware se torna cada vez mais sofisticada, a eficácia dos detectores de malware pode ser desafiada. A capacidade de exemplos adversariais de escapar da detecção coloca pressão nas medidas de cibersegurança atuais.

Conclusão

Resumindo, a abordagem sem consulta pra criar malware adversarial através de Redes Geradoras Adversariais oferece um jeito novo de escapar da detecção por detectores de malware baseados em aprendizado de máquina. Ao focar em gerar características realistas que se parecem com softwares benignos, esse método consegue produzir exemplos adversariais sem precisar de conhecimento do sistema de detecção.

À medida que o campo da cibersegurança continua a evoluir, pesquisas contínuas são essenciais pra ficar à frente de ameaças emergentes. Explorar mais características e integrar essa abordagem com técnicas de segurança existentes pode oferecer mais caminhos pra melhorar os sistemas de detecção de malware. Aumento do cibercrime exige estratégias adaptativas, tornando crucial que pesquisadores e profissionais de segurança fiquem atentos a esses avanços nas táticas de evasão.

Fonte original

Título: Query-Free Evasion Attacks Against Machine Learning-Based Malware Detectors with Generative Adversarial Networks

Resumo: Malware detectors based on machine learning (ML) have been shown to be susceptible to adversarial malware examples. However, current methods to generate adversarial malware examples still have their limits. They either rely on detailed model information (gradient-based attacks), or on detailed outputs of the model - such as class probabilities (score-based attacks), neither of which are available in real-world scenarios. Alternatively, adversarial examples might be crafted using only the label assigned by the detector (label-based attack) to train a substitute network or an agent using reinforcement learning. Nonetheless, label-based attacks might require querying a black-box system from a small number to thousands of times, depending on the approach, which might not be feasible against malware detectors. This work presents a novel query-free approach to craft adversarial malware examples to evade ML-based malware detectors. To this end, we have devised a GAN-based framework to generate adversarial malware examples that look similar to benign executables in the feature space. To demonstrate the suitability of our approach we have applied the GAN-based attack to three common types of features usually employed by static ML-based malware detectors: (1) Byte histogram features, (2) API-based features, and (3) String-based features. Results show that our model-agnostic approach performs on par with MalGAN, while generating more realistic adversarial malware examples without requiring any query to the malware detectors. Furthermore, we have tested the generated adversarial examples against state-of-the-art multimodal and deep learning malware detectors, showing a decrease in detection performance, as well as a decrease in the average number of detections by the anti-malware engines in VirusTotal.

Autores: Daniel Gibert, Jordi Planes, Quan Le, Giulio Zizzo

Última atualização: 2023-06-16 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2306.09925

Fonte PDF: https://arxiv.org/pdf/2306.09925

Licença: https://creativecommons.org/licenses/by-nc-sa/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes