Visual: Ali Khafi, Foto: Gergely Nyiro
Künstliche Intelligenz

Die Zukunft hat eben erst begonnen

Die Diskussionen über Künstliche Intelligenz werfen viele Fragen auf – auch in der musikalischen Welt. Ein Konzert und ein KI-Komponist geben zumindest einige Antworten.

Susanne Kübler

Es war eine ganz besondere «Gameshow», die im vergangenen März in der dicht besetzten Basler Voltahalle stattfand. Im Rahmen des Festivals Interfinity hatte man zehn Kompositionsaufträge vergeben, fünf an Menschen, fünf an das Programm ChatGPT. Stilkopien waren gefragt, je fünfminütige Werke à la Bach, Chopin, Brahms, Bartók und Messiaen. Aufgeführt wurden sie von Musiker*innen, die selbst nicht wussten, welches Stück wie entstanden war. Und nach jedem Werk-Paar sollte das Publikum entscheiden, welche der beiden Kompositionen denn nun von einem Menschen geschrieben worden war.

Die Bach-Imitationen für Violine und Cembalo machten den Anfang. Und ja, die Satzstrukturen im ersten Stück, die Rhythmen, die Art, wie sich unter Haltetönen harmonische Reibungen ergaben: Die klangen tatsächlich nach Bach. Aber da und dort meinte man doch untypische chromatische Wendungen und melodische Brüche zu hören. Hatte sich da eine Maschine verrechnet – oder war ein menschlicher Komponist einfach nicht ganz so begabt wie Bach selbst?

Die Frage liess sich schon nach den ersten Takten des Gegenstücks beantworten: Kein Mensch käme je auf die Idee, solche perlenden Arpeggien, solche weichgespülten Harmonien als Bach-Stil vorzuschlagen. Hatten beim ersten Werk Einzelheiten irritiert, stimmte beim zweiten die «Aura» des Ganzen nicht, es wirkte zu künstlich, zu oberflächlich, zu gefällig: Pseudobarock für den Fahrstuhl. So etwas kann nur eine Maschine fabrizieren, urteilte eine grosse Mehrheit des Publikums. Zu Recht, wie sich herausstellte.

Mahler, unfertig

Ali Nikrang wundert sich nicht darüber. Musik sei nun mal eine hochkomplexe Angelegenheit, sagt der in Österreich lebende Musiker und KI-Forscher im Videogespräch. Er hat einst Klavier und Komposition studiert und sich schon früh für formale Muster interessiert, etwa in Bachs Kanons; aus diesem Interesse heraus hat er ein Studium in Computer Science angefügt. Heute forscht er einerseits am Ars Electronica Futurelab in Linz, andererseits hat er eine Professur für KI und Musikalische Kreation an der Hochschule für Musik und Theater München.

In den 1960er-Jahren, in den Pionierzeiten der Künstlichen Intelligenz, so erzählt er, habe man die Musik als eines der ersten Forschungsfelder gewählt, «weil man sie unterschätzt hat». Denn Partituren bestehen nur aus wenigen konkreten Elementen: ein paar Tonhöhen, ein paar Tondauern, dazu einige dynamische Zeichen und Hinweise auf die Artikulation. Texte schienen komplizierter, die digitale Bildgestaltung erst recht. Also wollte man kurz mal das Problem «Komponieren» lösen, um sich danach schwierigeren Fragen zu widmen – so war der Plan.

Auch für den Pianisten und KI-Komponisten Ali Nikrang ist es ein «seltsames Gefühl», wenn ihn maschinell erzeugte Musik emotional anspricht. (Foto: Ars Electronica)

Dass es doch nicht ganz so einfach ist, haben die damaligen Spezialist*innen bald bemerkt. «Um ein sinnvolles Werk schreiben zu können, muss man sehr Vieles über die menschliche Wahrnehmung von Musik wissen», sagt Ali Nikrang. «Man muss verstehen, wie die Tonalität funktioniert, welche Art von Stimmführung Sinn macht, wie ein Stück sich entwickeln kann, wie es endet.» Darum seien die ersten Versuche, Musik mithilfe von Künstlicher Intelligenz herzustellen, so gründlich gescheitert: «Es reicht bei weitem nicht aus, musiktheoretische Konzepte zu programmieren.»

Die ersten Künstlichen Intelligenzen versuchten genau das. Sie arbeiteten regelbasiert, ahmten also musiktheoretische Gesetze und Anweisungen nach. Das Ergebnis klang nach allerlei, aber nicht nach Musik. Seit 2012 hat sich der Ansatz geändert: Neue Künstliche Intelligenzen werden nicht mit Regeln gefüttert, sondern mit Unmengen von Beispielen. Aus diesen «lernen» sie auf eine Weise, die selbst jene nicht mehr nachvollziehen können, die sie programmiert haben – und liefern seit einigen Jahren zumindest immer öfter etwas, das man als Musik wahrnimmt.

Ali Nikrang erstellte im Ars Electronica Futurelab unter dem Titel «Mahler-Unfinished» eine der ersten Partituren, die in der Klassikwelt für Furore sorgten. 2019 war das, es ging um eine Ausarbeitung der Skizzen zu Mahlers Sinfonie Nr. 10. Er nutzte dafür das Programm MuseNet; dieses lieferte die musikalischen Strukturen, die er dann von Hand orchestrierte. Es sei nicht darum gegangen, ein fragmentarisch gebliebenes Werk zu «vollenden», sagt Nikrang, «ich wollte einfach zeigen, was möglich ist: nämlich, dass eine KI Musik im spätromantischen Stil komponieren kann, die auch von einem Menschen stammen könnte ».

Das Ergebnis wurde vom Bruckner Orchester Linz unter der Leitung von Markus Poschner uraufgeführt. Dieser fand es zwar nicht wirklich originell, aber «durchaus gelungen», wie er damals gegenüber dem «Standard» sagte. Noch mehr beschäftigte ihn der Prozess, der zu diesem Resultat geführt hatte: Einerseits war er verblüfft von der technischen Perfektion, andererseits aber auch irritiert, bis hin zum Gedanken, «ob man das als Musiker überhaupt gut finden darf».

Problemzone Urheberrecht

Darf man? Die Frage wird derzeit fast wöchentlich brisanter. Denn mittlerweile ist vieles, was gemacht wird, tatsächlich erstaunlich gut. Mit dem Programm Suno etwa können ganze Alben produziert werden, ohne dass jemand einen Song schreiben, singen oder spielen müsste – und dies auch in Stilen weit abseits des Mainstreams. Noch mehr kann das im April vorgestellte Programm Udio. Ali Nikrang jedenfalls sieht es als «Gamechanger»: «Es ist viel besser als alles, was vorher da war. Auch klassische Werke und Klänge werden extrem gut imitiert, obwohl das sicher nur ein Nebeneffekt ist – ökonomisch ist es ja nicht interessant, eine Bach-Arie zu erfinden.» Interessant ist ein solches Programm dagegen im Bereich der funktionalen Musik, etwa der Filmmusik: Nikrang ist überzeugt, dass bald ganze Soundtracks maschinell erzeugt werden.

Dass eine solche Entwicklung grundlegende Fragen aufwirft, ist klar. Emotionale zum Beispiel: Kann eine Musik berühren, die maschinell hergestellt ist? Ja, sagt Ali Nikrang, «wobei es auch für mich ein seltsames Gefühl ist, wenn ein Programm etwas vorschlägt, das mich emotional anspricht». Natürlich sei es möglich, KI-generierte Musik aus Prinzip kalt zu finden, solange man wisse, wie sie entstanden ist. «Aber wenn man das nicht weiss, bin ich überzeugt, dass die Reaktion genauso ist wie bei anderer Musik: Sie löst etwas aus oder eben nicht.»

Wer hat diese Musik geschrieben, ein Mensch oder eine Maschine? In der Basler Voltahalle riet die Mehrheit des Publikums richtig. (Foto: Gergely Nyiro)

Eine zweite Frage gilt dem Urheberrecht: Darf eine Maschine alle die Beispiele, mit der sie trainiert wird, verwerten? Im Bereich der Textproduktion hat die «New York Times» jedenfalls Klage gegen die Firmen OpenAI und Microsoft eingereicht, weil sie Millionen von Artikeln aus dieser Zeitung benutzt hätten, um ChatGPT zu trainieren. Auch musikalisch operieren die Künstlichen Intelligenzen in einem rechtlichen Graubereich: Geht man rein von den Noten aus, verfallen zwar die Urheberrechte 70 Jahre nach dem Tod der Komponist*innen. Aber viele KI-Tools arbeiten mit Aufnahmen – und die sind selbst dann geschützt, wenn es sich um Interpretationen alter Werke handelt.

Die Entscheidung darüber, ob eine Musik gegen das Urheberrecht verstösst oder nicht, ist allerdings weder theoretisch noch praktisch leicht zu treffen. Denn auch lebendige Komponist*innen lernen in der Auseinandersetzung mit anderen Werken; es ist nicht einzusehen, warum eine Maschine das nicht dürfen sollte. Und die Diskussionen darüber, was denn nun ein Plagiat sei und was eine zulässige Reminiszenz, werden durch Künstliche Intelligenz noch einmal komplizierter, als sie ohnehin schon waren. Bis hier trennscharfe Richtlinien ausgearbeitet sind, wird es zweifellos noch eine Weile dauern.

Eine dritte Frage dürfte viele Menschen in kreativen Berufen umtreiben: Was bedeutet es, wenn die KI-generierten Musikstücke, Kunstwerke und Texte immer besser werden? Die Filmmusik-Komponisten wären da durchaus nicht die einzigen, die um ihren Job fürchten müssten.

Gibt es maschinelle Kreativität?

Von da aus ist man bald bei den ganz grossen Fragen: Was bedeuten solche Entwicklungen für die Geschichte und das Selbstverständnis der Menschheit? Was ist eigentlich Kreativität? Und welche Rolle spielen künstlerische Talente und Visionen in Zukunft?

Ali Nikrang kennt diese Fragen, und er beantwortet sie als Wissenschaftler: sachlich, differenziert, aber deutlich. Aus seiner Sicht ist klar, «dass wir in einer Zeit des Umbruchs leben – es wird ein Vorher und ein Nachher geben». Ebenso klar ist, dass sich im Moment nicht konkret abschätzen lässt, was die Zukunft bringen wird. Fragt man ihn, was in hundert Jahren sein wird, lacht er nur: «Es ist schon unglaublich schwer, Prognosen für die nächsten fünf Jahre zu stellen.»

Sicher ist, dass sich die Art, wie eine KI Kunst herstellt, bisher ganz grundsätzlich von der Art unterscheidet, wie Menschen das tun. Menschen haben immer ein Ziel, wenn sie Musik komponieren, einen Roman schreiben, ein Bild gestalten. Eine KI dagegen hat keine solchen Absichten. Sie ist nicht bewusst kreativ – aber es ist möglich, dass sie kreative, nämlich überraschende, neue, wertvolle Lösungen liefert. Ali Nikrang vergleicht sie mit einem Raum, in dem sich aufgrund der Trainingsdaten unzählige Möglichkeiten befinden: «Wenn wir etwas mit KI schaffen, dann bewegen wir uns in diesem Raum und wählen aus, was wir brauchen können.»

«Im Moment imitieren wir mithilfe von KI noch vor allem alte Formen. Aber es werden sich ganz neue Dinge entwickeln.» (Foto: Gergely Nyiro)

Was passiert, wenn eine solche Auswahl nicht getroffen wird, war bei der «Gameshow» in der Basler Voltahalle deutlich zu hören. Zwar gab es KI-generierte Stücke, die weit überzeugender waren als die Bach-Imitation. Das Klavierwerk im Chopin-Stil etwa begann ziemlich glaubwürdig. Und das nach Bartóks Vorbild programmierte Quartett für Violine, Klarinette, Klavier und Perkussion klang tatsächlich volksmusikalisch inspiriert. Dass eine Mehrheit des Publikums trotzdem bei allen Beispielen treffsicher die menschlichen von den maschinellen Kompositionen unterscheiden konnte, lag vor allem daran, dass die KI-Werke keine Richtung einschlugen.

Unabhängig vom Stil kam es immer wieder zu Momenten, in denen die Musik sich in Repetitionen verlor oder in melodischen Schlaufen verhedderte. Im Bartók-Quartett konnte sich der Pianist während einer endlosen Reihe von Staccato-Tupfern ein Grinsen nicht verkneifen. Und auch beim Quintett im Brahms-Stil hätte man der Musik zwischendrin gern einen Schubs gegeben, wenn sie mal wieder im Irgendwo versandete. Was den menschlichen Stil-Imitator*innen mühelos gelang – einen musikalischen Bogen über fünf Minuten zu spannen –, war für ChatGPT nicht möglich.

Kommunikation mit der Maschine

Ali Nikrang kennt das Problem, er hat es bei der Entwicklung seines eigenen preisgekrönten Programms Ricercar sogar zum Prinzip erhoben. Es ist ein interaktives Programm, bei dem sich der «komponierende» Mensch jeweils nach 30 Sekunden Musik für einen von fünf Vorschlägen entscheiden muss. Die Auswahl löst dann wieder fünf Vorschläge für weitere 30 Sekunden aus – und so weiter. «Rein maschinell generierte Stücke interessieren mich höchstens in technischer Hinsicht, aber nicht als Künstler», sagt Ali Nikrang. «Ich sehe KI als Dialogpartnerin, die mich auf Ideen bringen kann, die ich selbst vielleicht nicht hätte».

Die Neugierde auf diese Ideen ist verständlich. Schon immer haben Musiker*innen neue Formen, Klänge, Technologien ausprobiert – da ist es klar, dass auch etwas so Mächtiges wie KI getestet wird. Übrigens nicht nur von den Komponist*innen: Auch Programmhefttexte oder ganze Festival-Programme könnten per KI generiert werden, wenn man denn mit der Technologie umzugehen weiss.

Und man kann davon ausgehen, dass ein ähnliches Konzertprojekt schon bald zu weniger eindeutigen Urteilen führen wird; die Kompositions-Tools werden sich rasch weiterentwickeln. Ali Nikrangs Ricercar zeigt dafür schon mal eine mögliche Richtung an – denn es ist das erste Programm, mit dem man nicht mehr sprachlich, sondern musikalisch kommuniziert: Um die ersten 30 Sekunden einer Komposition auszulösen, gibt man ihm ein musikalisches Beispiel vor und bestimmt dann mit Hilfe von Kurven, an welcher Stelle des gewünschten Stücks diese «Inspiration» wie stark berücksichtigt werden soll.

Wie vermittelt man, was man musikalisch will? Wie macht man einem Programm etwas klar, das sich der exakten sprachlichen Beschreibung entzieht? (Visual: Ali Khafi)

Das bedeutet vor allem, dass man gut prompten, also die richtigen Fragen stellen muss. Die modernen Künstlichen Intelligenzen arbeiten textbasiert, man muss ihnen Anweisungen geben; je präziser sich diese den Bedürfnissen der Maschine anpassen, desto besser sind die Resultate. Hier zeigt sich nun, dass die Musik anders als in den Anfangszeiten der Entwicklung vermutet nicht einfacher zu generieren ist als Texte oder Bilder, sondern weit komplizierter. Es ist kein Problem, von ChatGPT eine Werkeinführung zu Mahlers Sinfonie Nr. 7 zu bekommen. Es ist auch nicht schwierig, das Bild einer skifahrenden Katze auf einem Hausdach zu bestellen. Aber wie vermittelt man, was man musikalisch will? Wie macht man einem Programm etwas klar, das sich der exakten sprachlichen Beschreibung entzieht?

Dass man hier an Grenzen stösst, war eine weitere Erkenntnis aus dem Basler Konzert. Der lettische Komponist, Improvisator und Produzent Platons Buravickis, der die KI-generierten Stücke mit ChatGPT erstellt hat, weiss zweifellos vieles über die verschiedenen Stile. So vieles, dass er es schaffte, einem nicht auf Musik und schon gar nicht auf Stilkopien ausgerichteten Programm Werke zu entlocken, die zumindest über kurze Strecken durchaus in die Nähe der verlangten kompositorischen Handschriften kamen. Zwar gelang es ihm in keinem einzigen Fall, die Mehrheit des Publikums zu täuschen; aber es gab immer ein paar Dutzend Stimmen, die seine Versionen für menschlich erfundene Kompositionen hielten.

George Orwells Vision

Bleiben nur noch zwei Fragen: Was gewinnt man damit? Und was geht verloren?

Die Antworten darauf wird die Zukunft liefern. «Im Moment imitieren wir mithilfe von KI noch vor allem alte Formen», sagt Ali Nikrang. «Aber es werden sich ganz neue Dinge entwickeln. Vielleicht schauen wir dereinst keine Filme mehr, sondern bewegen uns in interaktiven Räumen. Auch musikalisch wird sich der strenge Werkbegriff wohl auflösen.» Es könnten sich ganz neue kulturelle Felder auftun und damit auch neue Aufgaben für jene, die im Zuge der Digitalisierung aussortiert werden.

Für die einen mag das faszinierend klingen, andere dürften leer schlucken bei diesen Aussichten. Denn wer gerne komponiert, schreibt, malt oder musiziert, tut das ja nicht nur im Hinblick auf ein Resultat; es geht auch um den Prozess an sich. Darum, was man denkt und fühlt, während man mit Worten, Tönen oder Farben arbeitet. Um den Sinn, den man in diesen Tätigkeiten findet, um die Befriedigung, wenn nach langem Üben und Ringen etwas Künstliche Intelligenz gelingt. Nicht alles davon wird verloren gehen, davon ist Ali Nikrang überzeugt: «Es wird immer Menschen geben, die Klavier spielen oder eine Band gründen.» Aber es könnten weniger sein als heute: «Wenn alles so schnell und billig zu haben ist, wird die Motivation, Dinge selbst zu machen, wohl sinken.»

Spätestens an diesem Punkt kommt einem George Orwell in den Sinn. In seinem 1946 publizierten Essay «The Prevention of Literature» dachte er unter anderem über maschinelles Schreiben nach. Von Künstlicher Intelligenz wusste man damals noch nichts, aber Orwells Vision ist bemerkenswert konkret: «Vielleicht wird eine Art minderwertige Sensationsliteratur überleben, die in einer Art Fliessbandverfahren produziert wird, das die menschliche Initiative auf ein Minimum reduziert.»

Ali Nikrang sieht es nicht so düster, aber gewisse Befürchtungen hat auch er. Wenn pro Tag Hunderttausende von Songs produziert und in die digitale Welt entlassen werden, so sagt er, «dann kann es schon sein, dass gute Dinge untergehen». Und noch ein Problem ergibt sich durch die pure Masse der Produktion: Die Maschinen lernen zunehmend mit Beispielen, die von ihnen selbst stammen. «Wenn man da nicht gezielt eingreift, mittet sich das alles irgendwann ein.»

Orwells Vision geht dann noch einen grossen Schritt über die rein künstlerischen Bedenken hinaus: Für ihn kann nur ein totalitärer Staat eine solche maschinell geprägte Kultur wollen; setzt sie sich durch, «scheint es wahrscheinlich, dass die liberale Kultur, in der wir seit der Renaissance gelebt haben, zu einem Ende kommt». Angesichts der totalitären Fantasien heutiger politischer und technologischer Machthaber ist das ein Satz, der einem zu denken gibt.

So bleibt vor allem eine Hoffnung: dass es auch in Zukunft Menschen geben wird, die ihre Fantasie, ihre Begabungen und ihre Anstrengungen dafür einsetzen, Kunst zu schaffen – mit oder ohne Hilfe von Künstlicher Intelligenz. Und es bleibt ein Trost: Die Maschinen werden nie entscheiden können, ob das, was sie hervorbringen, gut ist. Es werden immer Menschen sein, die Kunst beurteilen, die von Musik berührt werden oder eben nicht.

veröffentlicht: 29.10.2024

Tags