Simple Science

Ciência de ponta explicada de forma simples

# Física# Matéria condensada mole# Aprendizagem de máquinas

Avanços em Redes Neurais com Base em Tensor para Previsão de Estresse em Materiais

Esse estudo analisa Redes Neurais de Base Tensorial para modelar o comportamento de materiais sob estresse.

― 8 min ler


Redes Tensoriais paraRedes Tensoriais paraEstresse em Materiaisrespostas de estresse dos materiais.Explorando redes neurais pra prever as
Índice

Nos últimos anos, os pesquisadores têm se interessado muito em usar modelos de aprendizado de máquina para prever como os materiais se comportam sob Estresse. Esse interesse vem da capacidade dos modelos de usar dados experimentais, o que pode tornar as simulações mais rápidas e eficientes. No entanto, ainda existem problemas que essas aplicações de aprendizado de máquina enfrentam. Dois problemas principais são que esses modelos podem ter dificuldade em fazer previsões precisas fora dos dados de treinamento e que as pessoas costumam achar difícil confiar neles porque nem sempre entendem como funcionam.

O objetivo do aprendizado de máquina científico é conectar os dados subjacentes às leis físicas conhecidas. Ao fazer isso, os pesquisadores esperam superar alguns dos desafios que vêm com o uso do aprendizado de máquina. Os benefícios potenciais de usar esses modelos incluem previsões mais precisas, menos envolvimento humano no processo, ciclos de desenvolvimento de produtos mais rápidos e custos mais baixos para simulações detalhadas. Neste trabalho, focamos em criar uma abordagem automatizada para modelar materiais, que poderia ajudar muito na descoberta de novos materiais e na melhoria das simulações de engenharia industrial.

Antecedentes

Tradicionalmente, muitas abordagens para modelar o comportamento dos materiais têm sido baseadas em métodos clássicos. Essas técnicas muitas vezes têm dificuldades ao trabalhar com comportamentos complexos de materiais, especialmente quando há dados experimentais limitados. Para melhorar isso, muitos pesquisadores têm explorado a combinação de métodos tradicionais com técnicas de aprendizado de máquina.

Uma abordagem promissora é usar ferramentas de aprendizado de máquina para ajudar a estimar os parâmetros de modelos de materiais conhecidos. No entanto, isso pode ser desafiador, especialmente quando há muitos parâmetros e observações experimentais limitadas. Muitos estudos destacaram o potencial de usar uma combinação de métodos tradicionais e de aprendizado de máquina nessa área.

Os pesquisadores fizeram avanços significativos com modelos que usam redes neurais para representar o comportamento dos materiais. Essas redes podem aprender com os dados e melhorar suas previsões ao longo do tempo. Uma parte chave deste trabalho se concentra em entender e implementar novas maneiras de desenvolver esses modelos.

Embora muitos estudos tenham apresentado diferentes métodos para esses tipos de modelos, não houve tanto foco em encontrar as abordagens mais eficazes para integrar dados no contexto do comportamento complexo dos materiais. Este artigo tem como objetivo abordar essa lacuna, examinando várias técnicas para modelar materiais usando aprendizado de máquina, particularmente na área de materiais hipeerelásticos.

Redes Neurais de Base Tensorial

As Redes Neurais de Base Tensorial (TBNNs) representam uma nova forma de modelar como os materiais reagem ao estresse. Essas redes aproveitam estruturas matemáticas para descrever o comportamento dos materiais em resposta à deformação. Em termos simples, elas são projetadas para prever o estresse em um material com base em suas propriedades e nas forças aplicadas a ele.

A hiperelasticidade é uma teoria que descreve como os materiais se comportam quando são esticados ou comprimidos de forma significativa. Essa teoria assume que o material pode voltar à sua forma original após a remoção das forças. O comportamento desses materiais é descrito por um potencial matemático, que ajuda a determinar o estresse com base na deformação do material.

Neste trabalho, focamos nas TBNNs especificamente para materiais hiperelásticos. Exploramos diferentes maneiras de representar o estresse dentro dessas redes, comparando quão bem cada representação se sai sob várias condições.

Diferentes Formulações de TBNN

Testamos uma variedade de formulações de TBNN, cada uma com métodos únicos para representar o estresse. Algumas das formulações principais incluem:

  1. TBNNs baseadas em Potencial: Esses modelos dependem de uma função potencial subjacente que captura como o estresse se relaciona com as propriedades do material. Ao usar essa abordagem, a rede pode prever suavemente as respostas de estresse com base nos dados de entrada.

  2. TBNNs baseadas em Coeficientes: Nesses modelos, o foco está em estimar os coeficientes que relacionam diretamente as propriedades do material ao estresse. Essa abordagem pode facilitar a interpretação das previsões do modelo.

  3. TBNNs Monotônicas e Convexas: Essas formulações impõem propriedades matemáticas específicas nas previsões para garantir que elas se comportem corretamente sob diferentes condições de entrada. Modelos monotônicos garantem que o estresse previsto aumente à medida que as propriedades de entrada aumentam, enquanto modelos convexos garantem que o estresse permaneça previsível e estável.

Realizamos testes para ver como essas diferentes formulações se saíram sob várias condições, como com dados ruidosos ou diferentes tipos de materiais.

Geração de Dados e Metodologia de Treinamento

Para avaliar as diferentes formulações de TBNN, geramos dados sintéticos usando modelos hipeerelásticos estabelecidos. Esses dados sintéticos servem como a verdade fundamental para treinar os modelos. Ao garantir que os dados reflitam o comportamento realista dos materiais, podemos avaliar quão bem os modelos podem aprender com isso.

O processo de treinamento envolve alimentar as TBNNs com os dados gerados para ajudá-las a aprender as relações entre as propriedades dos materiais e o estresse. O treinamento geralmente é feito em duas etapas: primeiro usando um conjunto de dados de treinamento e depois validando o desempenho do modelo em um conjunto de dados de teste separado. Esse processo ajuda a evitar o overfitting, onde o modelo memoriza os dados de treinamento em vez de aprender princípios gerais.

Testes e Resultados

Após treinar as TBNNs, comparamos suas previsões com os valores de estresse conhecidos dos dados sintéticos. Os resultados variaram entre as diferentes formulações. Alguns modelos se saíram melhor que outros, especialmente em termos de generalização, que se refere a quão bem o modelo prevê o estresse para dados que não viu antes.

Descobrimos que as TBNNs baseadas em potencial geralmente mostraram melhor desempenho, particularmente em situações com dados ruidosos. Elas capturaram efetivamente as tendências subjacentes presentes nos dados de treinamento, levando a previsões mais confiáveis.

Em contraste, as TBNNs baseadas em coeficientes muitas vezes tiveram dificuldades com a generalização. Isso foi particularmente evidente quando a rede foi testada com dados que estavam fora da faixa do seu conjunto de treinamento. A complexidade e as relações entre as propriedades dos materiais influenciaram a precisão das previsões desses modelos.

Analisando as Fontes de Erro

Também examinamos onde os modelos tendiam a cometer erros maiores. Em geral, os modelos tiveram mais dificuldades nas bordas dos dados de teste. Essa observação destaca a importância de usar um conjunto de dados diversificado que cobre uma ampla gama de comportamentos dos materiais e cenários de deformação.

Ao entender os locais onde ocorrem os erros, obtemos insights sobre as limitações de cada formulação. Para alguns modelos, os erros foram mais pronunciados em cenários de alta pressão ou durante tipos específicos de condições de carga.

Implicações para a Modelagem de Materiais

As descobertas deste trabalho têm várias implicações para o campo da modelagem de materiais. Uma das principais lições é que as TBNNs podem modelar efetivamente materiais hiperelásticos quando consideram a física subjacente dos materiais envolvidos. Ao aproveitar estruturas matemáticas e princípios físicos conhecidos, os pesquisadores podem construir modelos que são tanto poderosos quanto confiáveis.

Trabalhos futuros irão buscar melhorar o desempenho desses modelos, incorporando restrições físicas adicionais e explorando comportamentos de materiais mais complexos. Isso pode envolver expandir o foco para incluir materiais anisotrópicos, que se comportam de maneira diferente dependendo da direção da carga.

Conclusão

Em resumo, este trabalho apresenta um exame aprofundado de diferentes modelos de base tensorial para prever as respostas de estresse dos materiais. Através de um regime de testes abrangente, identificamos os pontos fortes e fracos de várias formulações. Nossa pesquisa enfatiza a importância de combinar fundamentos teóricos estabelecidos com técnicas de aprendizado de máquina para alcançar previsões confiáveis no comportamento dos materiais.

Esperamos que novos avanços nesse campo levem a modelos ainda mais precisos e eficientes. À medida que continuamos a refinar essas abordagens, contribuiremos para o esforço contínuo de entender e prever melhor o comportamento dos materiais sob várias condições. Esse conhecimento pode, em última análise, ajudar no desenvolvimento de novos materiais e tecnologias que atendam às necessidades dos desafios modernos da engenharia.

Fonte original

Título: Stress representations for tensor basis neural networks: alternative formulations to Finger-Rivlin-Ericksen

Resumo: Data-driven constitutive modeling frameworks based on neural networks and classical representation theorems have recently gained considerable attention due to their ability to easily incorporate constitutive constraints and their excellent generalization performance. In these models, the stress prediction follows from a linear combination of invariant-dependent coefficient functions and known tensor basis generators. However, thus far the formulations have been limited to stress representations based on the classical Rivlin and Ericksen form, while the performance of alternative representations has yet to be investigated. In this work, we survey a variety of tensor basis neural network models for modeling hyperelastic materials in a finite deformation context, including a number of so far unexplored formulations which use theoretically equivalent invariants and generators to Finger-Rivlin-Ericksen. Furthermore, we compare potential-based and coefficient-based approaches, as well as different calibration techniques. Nine variants are tested against both noisy and noiseless datasets for three different materials. Theoretical and practical insights into the performance of each formulation are given.

Autores: Jan N. Fuhg, Nikolaos Bouklas, Reese E. Jones

Última atualização: 2023-08-21 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2308.11080

Fonte PDF: https://arxiv.org/pdf/2308.11080

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes