MENU
Künstliche Intelligenz

Kann KI kreativ?

© Getty Images

07. Mai 2020

Künstliche Intelligenz kann diverse Routine­auf­gaben schneller und ausdauernder erledigen als humanoide Arbeits­kräfte – diese Erkenntnis hat sich mittlerweile in vielen Unternehmen durchgesetzt. Immer öfter kommt KI aber auch in künstlerischen Feldern zum Zuge und darf Musik oder Gemälde generieren. Machen die künstlichen Kreativlinge künftig menschliche Künstler obsolet?

Zum Ersten, zum Zweiten und zum Dritten: Für 432.500 Dollar wurde am 26. Oktober 2018 das Porträt „Edmond de Belamy“ im Auktionshaus Christie‘s verkauft. Eine beträchtliche Summe für das nicht unbedingt aufregende Werk eines bis dato unbekannten Künstlers, das vorab lediglich auf 7.000 bis 10.000 Dollar geschätzt worden war. Außer­gewöhnlich war allerdings die Entstehung des Bildes, von der die Signatur des Künstlers in der rechten unteren Bild­ecke zeugt: „min G max D Ex[log(D(x))]+Ez[log(1-D(G(z)))]“ – so lautet die Formel des Algo­rithmus, der das Porträt produzierte.

Hinter dem Werk steckt das Pariser Kollektiv Obvious, das bereits im Februar 2018 ein Bild aus seiner Belamy-Reihe für 10.000 Dollar an einen Kunst­sammler verkauft hatte. Grundlage für das bei Christie‘s versteigerte Gemälde war ein Datensatz von 15.000 Porträts aus dem 14. bis 20. Jahr­hundert, die in das System eingespeist wurden. Ein Teil des Algorithmus, der sogenannte Generator, erzeugte auf dieser Basis fortlaufend Bilder. Der andere Teil, der sogenannte Discriminator, war darauf programmiert, die errechneten Bilder auszusortieren, bis kein Unter­schied mehr zu einem menschen­gemachten Werk registriert werden konnte.

Der Kaufpreis des Porträts, das ein wenig an eine halbherzige Vorstudie im Stil von Édouard Manet erinnert, dürfte allerdings kaum im künstlerischen Wert des Bildes begründet sein – aber der ist auf dem Kunstmarkt ja ohnehin nicht der höchste Maßstab. Der Kunst­begriff werde alle paar Generationen neu definiert, sagte Erin-Marie Wallace, deren Firma „Rare-Era Appraisals“ Kunst­werke schätzt, gegenüber dem US-Radio­sender NPR. „Wir bestimmen neu, was Kunst im 21. Jahr­hundert eigentlich ist. Kunst wird daran gemessen, was Leute bereit sind, dafür zu zahlen.“

„The Next Rembrandt“

Bereits einige Zeit vor „Edmond de Belamy“ hat ein von einer KI kreiertes Gemälde für öffentliche Aufmerksamkeit gesorgt: 2016 – und damit fast 350 Jahre nach dem Tod des bedeutendsten Künstlers des nieder­ländischen Barocks – entstand an der Universität Delft „The Next Rembrandt“. 18 Monate lang hatte ein Team aus Daten­analysten, Software­ingenieuren, KI- und Kunst­experten die 346 Werke des Meisters zunächst mittels 3-D-Scans eingelesen und in einer Daten­bank gesammelt. So kam ein Daten­berg von über 15 Tera­byte zusammen.

Im nächsten Schritt wurde das „Typische“, also das häufigste Subjekt eines Rembrandt-Porträts, ausgewählt: ein Mann mittleren Alters. Schließlich arbeitete der nieder­ländische Künstler oft im Auftrag betuchter Bürger. Dann wurden alle auf dieses Profil passenden Porträts verglichen, um die typische Rembrandt-Nase, das typische Rembrandt-Auge oder den typischen Rembrandt-Mund zu generieren. Im letzten Schritt wurde das „Gemälde“ aus 148 Millionen Pixeln in dreizehn Farb­schichten im 3-D-Drucker produziert.

Auf den allerersten Blick oder aus einiger Entfernung mag das Bild als „echter“ Rembrandt durch­gehen. Aus der Nähe betrachtet wirkt es jedoch wie das Werk eines fleißigen, aber minder­begabten Schülers, der den Stil des Meisters handwerklich gekonnt imitiert. Den Ausdruck und die zeitlos menschliche Tiefe, die einen Rembrandt außer­ordentlich macht, sucht man auf dem Bild aus dem Rechner vergeblich. Genau wie die Originalität, mit der der Maler aus Leiden neue Darstellungs­formen sowie Mal­weisen etablierte und dadurch nachfolgenden Künstlern weg­weisende Impulse gab. „Das Projekt konnte keinen neuen Rembrandt erschaffen – nur Rembrandt konnte einen Rembrandt erschaffen“, räumte auch Projekt­leiter Bas Korsten ein. Doch es sei „eine hervor­ragende Möglichkeit für die Menschen, zu verstehen, was Rembrandt zu Rembrandt machte. Es ist ein Weg, den großen Meister am Leben zu erhalten.“

Ausgerechnet(e) Musik

Rembrandt ist bei Weitem nicht der einzige richtungweisende Künstler, auf den die KI von ihren menschlichen Programmierern angesetzt wurde: Wer wissen will, ob er einen echten Choral von Johann Sebastian Bach von einem computer­generierten zu unter­scheiden vermag, kann das auf BachBot.com testen. Dahinter steckt ein Forschungs­projekt der Universität Cambridge, das den Stil des großen Komponisten unter­suchte. Das erklärte Ziel der Wissenschaftler: eine künstliche Intelligenz zu bauen, die Choräle erzeugt und harmonisiert, sodass Menschen diese nicht von Bachs eigener Arbeit unterscheiden können.

Bereits in den 1980er-Jahren versuchten sich musikaffine Computer­wissenschaftler an barocken Choral­kantaten – denn die sind kurz und vergleichs­weise einfach gebaut. Dazu fütterten sie ihre Rechner mit unzähligen Regeln. Die Entwickler des BachBots setzten dagegen auf Deep Learning, also selbst­lernende Systeme, wie sie heute etwa in der Bild­erkennung verwendet werden und die das vergleich­bare Projekt DeepBach bereits im Namen trägt.

Das Ergebnis kann sich durchaus hören lassen. Bei unserem eigenen Versuch in der BachBot-Challenge lagen wir zwar bei 80 Prozent der Choräle richtig. Aber die Entscheidung war häufig ein Kopf-an-Kopf-Rennen und erforderte meist mehr­faches Hören. Die Macher von DeepBach hatten ihre computer­generierten Choräle mit 1.600 Zuhörern getestet, von denen rund ein Viertel aus­gebildete Musiker waren. Mehr als die Hälfte der Hörer hielt demnach Stücke von DeepBach tatsächlich für Kompositionen aus Bachs eigener Feder.

Während Algorithmen also bei den vergleichs­weise einfachen Chorälen schon ziemlich über­zeugende Arbeit leisten, sind sie etwa bei Bach‘schen Fugen noch heillos über­fordert, sagt der Komponist und Wissenschaftler François Pachet, der an DeepBach beteiligt war. Das System sei „nicht in der Lage, das zu sehen, was wir die ‚höher­wertige Struktur‘ einer Komposition nennen“, so Pachet im SWR. „Fugen zum Beispiel haben Motive, also Melodien, die immer wieder in anderen Varianten in dem Stück auftauchen. Die erkennt DeepBach nicht – noch nicht.“

KI mit Plattenvertrag

Um „höherwertige“ kompositorische Strukturen oder komplexe Melodie­variationen geht es auch bei Endel nicht unbedingt. Dafür gelang der KI, worum diverse Nach­wuchs­musiker sie beneiden dürften: Im März 2019 bekam die von Künstlern, Programmierern und Wissenschaftlern in Berlin entwickelte Software einen Platten­vertrag beim Musik­riesen Warner Music.

600 kurze Stücke hat Endel generiert. Sie tragen Titel wie „Sunny Afternoon“, „Clear Evening“ oder „Foggy Morning“. Mit einigem Wohl­wollen mögen die sphärischen Klang­flächen ein wenig an die elektronische Ambient-Musik von Brian Eno erinnern, für Radio­moderator Matthias Hacker im Bayerischen Rundfunk klingen sie jedoch eher wie das Hinter­grund­gedudel im Wellness­bereich oder im Zahn­arzt­warte­zimmer. Und das ist auch ungefähr das, worauf Endel programmiert ist: Die KI generiert „Mood-Musik“, also Hinter­grund­klänge zum Entspannen, Konzentrieren, Einschlafen oder Bewegen – so die vier Kategorien der zugehörigen App.

Endel mache insofern keine Musik im herkömmlichen Sinne und sei sicher nicht darauf aus­gelegt, menschliche Musiker zu ersetzen, sagt Unternehmens­chef Oleg Stavitsky im Deutschlandfunk. Schließlich steht hinter dem Algorithmus der Komponist Dmitry Evgrafov, der das System mit Musik-Samples füttert.

Aiva – Soundtrack per Knopfdruck

„A Call to Arms“ heißt das Stück, mit dem Grafikkartenproduzent Nvidia seine Keynote auf der CES 2019 in Las Vegas unterlegte. Phasenweise klingt die von der künstlichen Intelligenz Aiva komponierte Musik, als würde ganz weit entfernt Kevin Costner in einer Digitalversion von „Der mit dem Wolf tanzt“ durchs Bild reiten. Auch andere Stücke wie „Free Spirit“ wirken, als habe man das alles schon irgendwo und nicht nur einmal gehört. Aivas musikalisches Spektrum reicht von nachdenklichem Piano-Sound bis zu symphonischem Bombast, trifft dabei auch das ein oder andere emotionale Knöpfchen und bleibt zugleich immer ohne Ecken und Kanten.

Aiva generiert so etwas wie einen musikalischen Mittel­wert – den Soundtrack für Filme oder Computer­spiele mit spärlichem Budget und begrenzten Ideen. „Automatisierte Systeme bedrohen letzt­endlich nur Musiker, die die emotionale Reich­weite eines Bots haben“, schrieb die Komponistin Holly Herndon auf Twitter, die in ihrer Musik selbst mit KI experimentiert. Auch für Aiva-Mit­gründer Pierre Barreau soll KI menschlichen Musikern vor allem die Fleißarbeit abnehmen. Das Gebiet der Musik­komposition werde auf lange Sicht von Menschen dominiert bleiben, beantwortet Barreau die bange Frage eines besorgten Musikers auf YouTube. „KI ist nur ein weiterer Assistent, ein Werkzeug, mit dem Menschen kreativ sein können, genau wie Synthesizer und virtuelle Instrumente.“

Das letzte Wort hat der menschliche Komponist

Für Orm Finnendahl, Professor für Komposition an der Hochschule für Musik und Darstellende Kunst Frankfurt am Main, ist KI in erster Linie eine Inspirations­quelle. Aber schon durch die Erarbeitung der Algorithmen und die Auswahl der musikalischen Para­meter gebe er dem Rechner die Richtung vor. Und das letzte Wort, ob eine vom Computer generierte Sequenz in das End­produkt einfließt, behalte selbst­verständlich er selbst, so Finnendahl gegen­über der dpa. „Man kann mit KI wunderbare Dinge imitieren. Was aber Kunst ausmacht, ist der Einfall – und das kann bisher KI nicht mal ansatz­weise abbilden.“

Denn KI kann zwar auf Knopfdruck Muster erkennen und Regeln rekombinieren. Reibung, Überraschung, Abweichung – all das, was Kunst immer auch ausmacht, beherrscht sie jedoch nicht. Und anders als reale Künstler übersetzt sie keine Gefühle oder Gedanken in Musik; sie komponiert vielmehr mit den Emotionen und Erfahrungen, die Menschen bereits in Musik umgesetzt haben.

Drehbuch aus dem Rechner

Wie wenig sich KI tatsächlich auf Sinn­zusammen­hänge versteht, wird deutlich, wenn der Algorithmus zum Autor gemacht wird. Lesbare Sport- oder Wetterberichte kann ein Rechner bereits aus Text­bau­steinen und Daten generieren. Das funktioniert, weil die Text­struktur hier formelhaft und fest definiert ist. Was dabei heraus­kommt, wenn man KI auf offenere Text­formen loslässt, kann man sich im Kurzfilm „Sunspring“ anschauen.

Filmemacher Oscar Sharp und KI-Experte Ross Goodwin fütterten ein neuronales Netz­werk mit den Skripten einschlägiger Scifi- und Super­helden­filme. Auf dieser Basis erlernte der Algorithmus, welche Wörter häufig auf­einander­folgen, wie Regie­anweisungen aussehen, und generierte ein eigenes Drehbuch, das dann von realen Schauspielern in Szene gesetzt wurde. Das Ergebnis ist eine lose Abfolge zufälliger Äußerungen – manchmal amüsant absurd, meist einfach sinn­frei und noch einige Licht­jahre von den ersten Werken eines sieben­jährigen Star-Wars-Fans entfernt.