Simple Science

Ciência de ponta explicada de forma simples

# Estatística# Som# Aprendizagem de máquinas# Processamento de Áudio e Fala# Aprendizagem automática

Novas Formas que os Computadores Criam Música

Uma olhada em como os computadores estão mudando a composição musical.

― 5 min ler


Computadores TransformamComputadores Transformama Criação Musicalmúsica.Como a tecnologia tá mudando a arte da
Índice

Esse artigo fala sobre um jeito novo de criar música usando computadores. É sobre um método que permite que os computadores gerem música prestando atenção no que acontece ao longo do tempo. A ideia principal é fazer o computador ouvir certas partes da música e depois criar uma nova música que combine com essas partes.

O que é Geração de Música?

Geração de música usa computadores pra criar novas peças musicais. Tradicionalmente, esse processo é feito por compositores humanos que escrevem notas e ritmos à mão. Mas, com a tecnologia, os computadores também podem criar música agora. Essa mudança na criação musical é empolgante e abre novas possibilidades tanto pra músicos quanto pra quem não é músico.

O Music Transformer

Um novo modelo pra geração de música é chamado de Music Transformer. Ele funciona aprendendo com uma grande quantidade de música existente. O Music Transformer pode criar música que harmoniza bem com melodias dadas ou cria peças totalmente novas com base em certas diretrizes. Essa abordagem ajuda os músicos no processo criativo.

Antecipação na Música

O conceito de antecipação significa prever o que vem a seguir na música. Quando um músico toca uma peça, ele frequentemente antecipa quais notas devem vir a seguir com base na música que já tocou. Esse modelo tenta imitar esse comportamento ao antecipar quais elementos musicais devem se seguir, tornando a música gerada mais suave e natural.

Como Funciona?

O modelo pega dois tipos de sequências: a melodia principal e controles adicionais. A melodia consiste nas notas que estão sendo tocadas, enquanto os controles determinam como essa melodia deve ser acompanhada. Ele intercala essas duas sequências pra criar um fluxo conjunto de música. Isso significa que, enquanto gera a melodia, também considera qual tipo de acompanhamento combina com ela.

Treinando o Modelo

Pra treinar o modelo de computador, usa-se um grande conjunto de dados de música existente. O modelo é alimentado com muitos exemplos de melodias e seus acompanhamentos correspondentes. Ele aprende a prever o que deve vir a seguir com base em padrões que vê na música. O objetivo é que o modelo entenda como diferentes partes musicais se encaixam.

O Papel do Input Humano

Mesmo com modelos avançados, o input humano continua sendo crucial. Músicos muitas vezes dão diretrizes ou especificam certos controles pro modelo. Ao dizer ao modelo o que querem, os músicos mantêm o controle criativo sobre a música que está sendo gerada. Essa colaboração entre humanos e máquinas resulta em composições musicais bem interessantes.

Testando o Modelo

Depois que o modelo é treinado, ele é testado pra ver quão bem consegue gerar música. Avaliadores ouvem a música produzida pelo modelo e comparam com composições existentes. Eles avaliam se a música gerada é de alta qualidade e se combina bem com os prompts dados ao modelo.

Avaliações Humanas

Pra entender como a música gerada é percebida, avaliadores humanos são convidados a comparar diferentes peças musicais. Eles podem ouvir um acompanhamento gerado por computador junto com uma peça criada por humanos e decidir qual soa melhor. O feedback dessas avaliações ajuda a melhorar o modelo ainda mais.

Aplicação na Vida Real

Essa tecnologia tem várias aplicações, incluindo ajudar músicos a brainstorming de novas ideias, compor pra filmes e criar música pra games. Com a capacidade de gerar música de alta qualidade, pode ser uma ferramenta pra quem quer criar música mas não tem as habilidades ou conhecimento pra compor.

Desafios Enfrentados

Existem desafios na geração de música com computadores. Um grande problema é garantir que a música gerada soe bem e siga regras musicais. Se o modelo gera música que é muito aleatória ou não se encaixa bem, pode resultar em resultados confusos que não soam bons. Ajustar o modelo pra evitar essas armadilhas é um processo contínuo.

Olhando pra Frente

Conforme a tecnologia continua a se desenvolver, também cresce o potencial pra modelos de geração de música. Avanços futuros podem levar a ferramentas de criação musical ainda melhores. Isso pode incluir a criação de modelos que entendem uma variedade maior de estilos e culturas musicais, permitindo uma paisagem musical mais rica.

Conclusão

A interseção entre música e tecnologia é um campo empolgante. Os desenvolvimentos no uso de modelos como o Music Transformer representam apenas o começo do que é possível. Com a pesquisa contínua e a colaboração entre humanos e máquinas, o futuro da Geração Musical parece promissor, oferecendo novas avenidas pra criatividade e expressão que misturam a arte tradicional com tecnologia inovadora.

Fonte original

Título: Anticipatory Music Transformer

Resumo: We introduce anticipation: a method for constructing a controllable generative model of a temporal point process (the event process) conditioned asynchronously on realizations of a second, correlated process (the control process). We achieve this by interleaving sequences of events and controls, such that controls appear following stopping times in the event sequence. This work is motivated by problems arising in the control of symbolic music generation. We focus on infilling control tasks, whereby the controls are a subset of the events themselves, and conditional generation completes a sequence of events given the fixed control events. We train anticipatory infilling models using the large and diverse Lakh MIDI music dataset. These models match the performance of autoregressive models for prompted music generation, with the additional capability to perform infilling control tasks, including accompaniment. Human evaluators report that an anticipatory model produces accompaniments with similar musicality to even music composed by humans over a 20-second clip.

Autores: John Thickstun, David Hall, Chris Donahue, Percy Liang

Última atualização: 2024-07-25 00:00:00

Idioma: English

Fonte URL: https://arxiv.org/abs/2306.08620

Fonte PDF: https://arxiv.org/pdf/2306.08620

Licença: https://creativecommons.org/licenses/by/4.0/

Alterações: Este resumo foi elaborado com a assistência da AI e pode conter imprecisões. Para obter informações exactas, consulte os documentos originais ligados aqui.

Obrigado ao arxiv pela utilização da sua interoperabilidade de acesso aberto.

Mais de autores

Artigos semelhantes