KI-Musikroboter können jetzt Sinfonien komponieren

Von Jeremy Cook

In einem 2018 erschienenen Artikel untersuchten wir, wie sich der Mikrocontroller ATmega328P an Bord eines Arduino Uno nutzen lässt, um eine sehr rudimentäre Musikwiedergabe auf einem kleinen Lautsprecher zu ermöglichen. Wie hier dargestellt, kann der ATtiny85 mit ein wenig cleverer Programmierung sogar Töne erzeugen. Am Endes des Tages bedeuten aber alle diese Lösungen, dass Ihr Controller nur menschliche Eingaben wiederholt und deshalb nicht wirklich als Musikroboter durchgehen könnte.

Man könnte annehmen (und sogar hoffen), dass das musikalische Genie von Mozart, Beethoven und anderen längst verstorbenen Künstlern niemals von einem Musikroboter oder KI-Musiker nachgeahmt werden könnte. Aber mit den Fortschritten der Computertechnik und des maschinellen Lernens wäre dies tatsächlich möglich.

Manche menschlichen Musiker können Songs komponieren, andere sind reine Interpreten von fremden Kompositionen. Wieder andere, etwa Jazzmusiker und Jam-Bands, spezialisieren sich darauf, Musik spontan zu improvisieren.

Zwischen diesen Disziplinen menschlicher Musiker gibt es große Überschneidungen. Roboter und Automatisierung sind grundsätzlich auf eine einzelne Aufgabe spezialisiert. Das bedeutet nicht, dass sie nicht lernen können. Improvisierende Roboterbands sind heute zwar noch nicht häufig, aber es gibt sie bereits in der einen oder anderen Form.

Die One Love Machine Band spielt mit MIDI programmierte Melodien

Die „One Love Machine Band“ von Kolja Kugler hatte schon einen Auftritt im US-Fernsehsender CNN. Die Band hat keine menschlichen Musiker. Vielmehr besteht sie aus zwei entfernt an Menschen erinnernden Robotern, die Bassgitarre und Schlagzeug spielen können. Mechanische Vögeln zwitschern zur Begleitung und ahmen die Automatisierungskonzepte der antiken Vergangenheit nach.

Die Materialien für diese besonderen Roboter stammen von Schrottplätzen, und die Energie zur Bewegung wird durch Druckluft erzeugt. Diese Roboter können vorprogrammierte Melodien. Deshalb besteht die wirkliche Kunst eigentlich in der Schaffung dieser glänzenden Wesen. Kugler bemerkt, sie hätten eine „Affinität für Punkrock“, wobei ihre Bewegungen entfernt auch etwas an Reggae erinnern.

Die Vertreter der One Love Machine Band sind zwar in gewisser Weise mit den niedlichen Nagetierautomaten vergleichbar, die man in Kinderrestaurants oder Vergnügungsparks findet. Allerdings spielen sie ihre Instrumente über MIDI-Programmierung. Man könnte sagen, die One Love Band besteht aus „richtigen“ Robotermusikern, während andere Automaten eher mit einer lippensynchronisierenden Roboter-Boyband vergleichbar sind.

Beethovens „Zehnte“ fast 200 Jahre später „vollendet“

Beethoven hinterließ bei seinem Tod im Jahr 1827 erste Noten seiner 10. Sinfonie, die er nicht mehr vollenden konnte. Das Unterfangen, seine Vision zu erraten – und zu versuchen, das Werk akkurat zu vollenden – ist ein gewagtes Projekt. Nichtsdestotrotz wagte sich 2019 ein Team von Musikwissenschaftlern, Komponisten und Computerfachleuten daran. Das Werk wurde rechtzeitig fertig, um zur Feier von Beethovens 250. Geburtstag im Jahr 2021 in seiner Heimatstadt Bonn aufgeführt zu werden.

In einem Artikel für das Smithsonian Magazine im Jahr 2021 sagte Dr. Ahmed Elgammal, der für den KI-Teil des Mammutprojekts verantwortlich war, dass alles was Beethoven von dieser Sinfonie hinterlassen hatte, eine Handvoll gekritzelter Notizen und Noten war. Das Team musste letztlich diese teilweise formulierten Ideen in eine KI füttern, zusammen mit Daten aus Beethovens anderen Sinfonien sowie auch seines kreativen Prozesses, damit das daraus entstehende virtuelle Werk dem lange verstorbenen musikalischen Genie zur Ehre gereichen würde. Es ist faszinierend, wie Computerautomatisierung und KI-Training stattfinden, wobei Menschen einen Computer eigentlich gar nicht „programmieren“, sondern eher „coachen“, um das gewünschte Ergebnis zu erzielen.

Die Reaktionen auf das Werk waren offenbar weitgehend positiv. Ein Blogger, der bei der Aufführung dabei war, schrieb sogar: „Es war unglaublich! ... Ich wäre niemals auf den Gedanken gekommen, dass es nicht von Beethoven war.“ Auf der anderen Seite hatten die Forscher genug Quellenmaterial zur Schaffung von zwei Sätzen, und vielleicht täte man dem Gedenken an Beethoven unrecht, wenn man es mit der Interpolation übertreiben würde.

KI-Musikimprovisationen mit echten Instrumenten

Es ist vielleicht nicht überraschend, dass KI mit hinreichendem Training, genügend Computerleistung und ausreichend Zeit auch Musik produzieren kann. Anderen Interpreten in Echtzeit zuzuhören und dabei einen Begleitrhythmus zu improvisieren, erscheint wesentlich schwieriger.

Das Georgia Tech Center for Music Technology und sein Gründer Gil Weinberg trugen maßgeblich dazu bei, das Roboterleben um diesen Aspekt zu bereichern. Der 2005 gebaute Roboterschlagzeuger Haile konnte nicht nur menschliche Drummer imitieren, sondern durch Improvisation von Beats etwas völlig Neues hervorbringen. Im Jahr 2009 folgte der weitaus fähigere Shimon, der Xylophon mit vier Armen spielt, an denen jeweils zwei Schlägel befestigt sind. Dieser Roboter wurde bis 2017 mit 5.000 populären Songs und zwei Millionen Musik-Riffs trainiert.

Musik-Automatisierung in die Zukunft

Werden wir in zehn Jahren überhaupt noch menschlichen Musikern zuhören? In fünf Jahrzehnten? Man möchte es hoffen, obwohl sich KI vielleicht eher in den musikalischen Ambiente-Genres etablieren wird, wie etwa Videohintergrundmusik, Wartemusik und dergleichen. Tatsächlich passiert das bereits jetzt, wie das KI-Musik-Startup AIVA in Luxemburg zeigt. Im Moment kann man die von ihm geschaffenen Hintergrund-Tracks gegen eine monatliche Gebühr nutzen.

In einem Artikel für das Smithsonian Magazine bemerkt Dr. Elgammal: „Die Mehrzahl der heute [2019] verfügbaren KI könnte kein unvollendetes Musikstück länger als ein paar weitere Sekunden fortsetzen.“ Die Tatsache, dass dieses Zitat nur drei Jahre zurückliegt, zeigt auf beeindruckende Weise, wie schnell sich die Welt verändert.

Vielleicht besteht das letzte Ziel nicht darin, menschliche Musiker zu ersetzen, sondern stattdessen unsere Talente in eine Mensch-Roboter-Kollaboration einzubringen und damit Tonfolgen und Effekte zu erschaffen, die zuvor nicht möglich gewesen wären und bei denen es sich praktisch nicht erkennen lässt, wo die Menschen aufhören und die Roboter beginnen.


Ähnliches Produkt:

ATMEGA328P-PU

Microchip Technology Microcontrollers - MCUs Anzeigen

Stehen Sie auf der Liste?
Melden Sie sich an, um exklusive Angebote, Produktankündigungen und die neuesten Branchennachrichten zu erhalten.

Ähnliche Beiträge

Neue Beiträge

Leider ergab Ihre Suche kein Ergebnis

Aktuelles über Elektronikkomponenten­

Wir haben unsere Datenschutzbestimmungen aktualisiert. Bitte nehmen Sie sich einen Moment Zeit, diese Änderungen zu überprüfen. Mit einem Klick auf "Ich stimme zu", stimmen Sie den Datenschutz- und Nutzungsbedingungen von Arrow Electronics zu.

Wir verwenden Cookies, um den Anwendernutzen zu vergrößern und unsere Webseite zu optimieren. Mehr über Cookies und wie man sie abschaltet finden Sie hier. Cookies und tracking Technologien können für Marketingzwecke verwendet werden.
Durch Klicken von „RICHTLINIEN AKZEPTIEREN“ stimmen Sie der Verwendung von Cookies auf Ihrem Endgerät und der Verwendung von tracking Technologien zu. Klicken Sie auf „MEHR INFORMATIONEN“ unten für mehr Informationen und Anleitungen wie man Cookies und tracking Technologien abschaltet. Das Akzeptieren von Cookies und tracking Technologien ist zwar freiwillig, das Blockieren kann aber eine korrekte Ausführung unserer Website verhindern, und bestimmte Werbung könnte für Sie weniger relevant sein.
Ihr Datenschutz ist uns wichtig. Lesen Sie mehr über unsere Datenschutzrichtlinien hier.