Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Statistik# Ton# Maschinelles Lernen# Audio- und Sprachverarbeitung# Maschinelles Lernen

Neue Wege, wie Computer Musik erschaffen

Ein Blick darauf, wie Computer die Musikkomposition verändern.

― 4 min Lesedauer


Computer verändern dieComputer verändern dieMusikproduktion.formt.Wie Technologie die Kunst der Musik neu
Inhaltsverzeichnis

Dieser Artikel handelt von einer neuen Art, Musik mit Computern zu erstellen. Es geht um eine Methode, die es Computern ermöglicht, Musik zu generieren, indem sie darauf achten, was im Laufe der Zeit passiert. Die Hauptidee ist, dass der Computer bestimmte Teile der Musik anhört und dann neue Musik kreiert, die zu diesen Teilen passt.

Was ist Musikgenerierung?

Musikgenerierung nutzt Computer, um neue Musikstücke zu erstellen. Traditionell wird dieser Prozess von menschlichen Komponisten durchgeführt, die Noten und Rhythmen von Hand schreiben. Aber mit der Technologie können jetzt auch Computer Musik kreieren. Dieser Wandel in der Musikproduktion ist spannend und eröffnet neue Möglichkeiten für Musiker und Nicht-Musiker.

Der Musik Transformer

Ein neues Modell zur Musikgenerierung heisst der Musik Transformer. Er funktioniert, indem er von einer grossen Menge bestehender Musik lernt. Der Musik Transformer kann Musik erschaffen, die gut zu gegebenen Melodien harmoniert oder völlig neue Stücke basierend auf bestimmten Richtlinien kreiert. Dieser Ansatz hilft Musikern im kreativen Prozess.

Antizipation in der Musik

Das Konzept der Antizipation bedeutet, vorherzusagen, was als nächstes in der Musik kommt. Wenn ein Musiker ein Stück spielt, antizipiert er oft, welche Noten als nächstes kommen sollten, basierend auf der Musik, die er bereits gespielt hat. Dieses Modell versucht, dieses Verhalten zu imitieren, indem es antizipiert, welche musikalischen Elemente aufeinander folgen sollten, was die generierte Musik flüssiger und natürlicher macht.

Wie funktioniert es?

Das Modell nimmt zwei Arten von Sequenzen: die Hauptmelodie und zusätzliche Kontrollen. Die Melodie besteht aus den gespielten Noten, während die Kontrollen bestimmen, wie diese Melodie begleitet werden sollte. Es verknüpft diese beiden Sequenzen, um einen gemeinsamen Musikfluss zu schaffen. Das bedeutet, dass es beim Generieren der Melodie auch berücksichtigt, welche Art von Begleitung zur Melodie passt.

Das Modell trainieren

Um das Computer-Modell zu trainieren, wird ein grosser Datensatz bestehender Musik verwendet. Das Modell wird mit vielen Beispielen von Melodien und ihren entsprechenden Begleitungen gefüttert. Es lernt, vorherzusagen, was als nächstes kommen sollte, basierend auf Mustern, die es in der Musik sieht. Das Ziel ist, dass das Modell versteht, wie verschiedene musikalische Teile zusammenpassen.

Die Rolle menschlicher Eingaben

Selbst mit fortschrittlichen Modellen bleibt menschliche Eingabe entscheidend. Musiker geben oft Richtlinien vor oder spezifizieren bestimmte Kontrollen für das Modell. Indem sie dem Modell sagen, was sie wollen, behalten Musiker die kreative Kontrolle über die generierte Musik. Diese Zusammenarbeit zwischen Menschen und Maschinen führt zu interessanten neuen Musikkompositionen.

Das Modell testen

Sobald das Modell trainiert ist, wird getestet, wie gut es Musik generieren kann. Evaluatoren hören sich die vom Modell produzierte Musik an und vergleichen sie mit bestehenden Kompositionen. Sie bewerten, ob die generierte Musik qualitativ hochwertig ist und gut zu den Vorgaben des Modells passt.

Menschliche Bewertungen

Um zu verstehen, wie die generierte Musik wahrgenommen wird, werden menschliche Evaluatoren gebeten, verschiedene Musikstücke zu vergleichen. Sie hören sich möglicherweise eine computergenerierte Begleitung zusammen mit einem menschlich geschaffenen Stück an und entscheiden, welches besser klingt. Das Feedback aus diesen Bewertungen hilft, das Modell weiter zu verbessern.

Anwendung im echten Leben

Diese Technologie hat zahlreiche Anwendungen, einschliesslich der Unterstützung von Musikern beim Brainstorming neuer Ideen, dem Komponieren für Filme und dem Erstellen von Musik für Spiele. Mit der Fähigkeit, hochwertige Musik zu generieren, kann es auch ein Werkzeug für diejenigen sein, die Musik erstellen möchten, aber nicht die Fähigkeiten oder das Wissen zum Komponieren haben.

Herausforderungen

Es gibt Herausforderungen bei der Musikgenerierung mit Computern. Ein grosses Problem ist sicherzustellen, dass die generierte Musik angenehm klingt und musikalischen Regeln folgt. Wenn das Modell Musik generiert, die zu zufällig oder nicht gut zusammenpasst, kann das zu verwirrenden Ergebnissen führen, die nicht gut klingen. Das Feinjustieren des Modells, um diese Stolpersteine zu vermeiden, ist ein fortlaufender Prozess.

Ausblick

Während sich die Technologie weiterentwickelt, wächst auch das Potenzial für Modelle zur Musikgenerierung. Zukünftige Fortschritte könnten zu noch besseren Musikschaffenden Werkzeugen führen. Dazu könnte gehören, Modelle zu entwickeln, die eine grössere Vielfalt an musikalischen Stilen und Kulturen verstehen, was zu einer reicheren musikalischen Landschaft führt.

Fazit

Die Schnittstelle zwischen Musik und Technologie ist ein spannendes Feld. Die Entwicklungen mit Modellen wie dem Musik Transformer sind nur der Anfang von dem, was möglich ist. Mit fortlaufender Forschung und Zusammenarbeit zwischen Mensch und Maschine sieht die Zukunft der Musikgenerierung vielversprechend aus und bietet neue Wege für Kreativität und Ausdruck, die traditionelle Kunst mit innovativer Technologie verbinden.

Originalquelle

Titel: Anticipatory Music Transformer

Zusammenfassung: We introduce anticipation: a method for constructing a controllable generative model of a temporal point process (the event process) conditioned asynchronously on realizations of a second, correlated process (the control process). We achieve this by interleaving sequences of events and controls, such that controls appear following stopping times in the event sequence. This work is motivated by problems arising in the control of symbolic music generation. We focus on infilling control tasks, whereby the controls are a subset of the events themselves, and conditional generation completes a sequence of events given the fixed control events. We train anticipatory infilling models using the large and diverse Lakh MIDI music dataset. These models match the performance of autoregressive models for prompted music generation, with the additional capability to perform infilling control tasks, including accompaniment. Human evaluators report that an anticipatory model produces accompaniments with similar musicality to even music composed by humans over a 20-second clip.

Autoren: John Thickstun, David Hall, Chris Donahue, Percy Liang

Letzte Aktualisierung: 2024-07-25 00:00:00

Sprache: English

Quell-URL: https://arxiv.org/abs/2306.08620

Quell-PDF: https://arxiv.org/pdf/2306.08620

Lizenz: https://creativecommons.org/licenses/by/4.0/

Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.

Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.

Mehr von den Autoren

Ähnliche Artikel