MusikTexte 161 – Mai 2019, 3–4

Die biobasierten Komponierenden werden das überleben

Digitale Algorithmen komponieren emotionsfrei und ohne Bewusstsein. Besonders verstörend ist, dass deren Ergebnisse uns Menschen durchaus überzeugen können.

von Herbert Köhler

Spätestens seit der letzten Cebit und der diesjährigen Hannover-Messe sind Begriffe wie Big Data, Künstliche Intelligenz (KI), Algorithmus, Deep Learning und Machine Learning, Plattformökonomie und „Internet der Dinge“ im Diskurs einer breiteren Öffentlichkeit angekommen. Die Forschungsunion der deutschen Bundesregierung spricht schon von einer Industrie 4.0, um sich vorauseilend die Zukunft einer Hightech-Gesellschaft auszumalen.

Wer schon jetzt einen realitätsnahen Blick in eine solch mögliche Welt tun will, kann sich die Filme „Her“ (2013) und „Ex Machina“ (2014) ansehen. Sie machen beide sensibel für eine zunächst kühl bis kalt und hybrid anmutende, aber plausible Situation von anthropozentrischen und technozentrischen Kollisionen, bei denen es um eine Zentralfrage geht: Ist Bewusstsein durch ein rein techno-digitales System simulierbar? Wenn ja, behindern wir mit einer solchen Forderung nicht eine Entwicklung der außerbiologischen, weit effizienteren Art?

Für den programmierenden Teil der IT-Branche ist das Bramarbasieren der Laienschar über KI ohnehin nur ein Hype, der wieder auf Realitätsniveau abflauen wird. Aber der Schub ist nun mal mit voller Wucht da.

Alles wird sich ändern, so die Prognose, und vieles ist schon unumkehrbar oder greifbar nahe. Zeit, sich nicht nur mit den gesamtgesellschaftlichen Auswirkungen aus­einanderzusetzen, sondern sich auch die eventuell drohenden Paradigmenwechsel innerhalb kultureller Teilbereiche etwas genauer anzusehen. Die Musik ist so einer. Spezieller noch die Komponierenden, die Musik für ge­wöhnlich in die Welt bringen.

Keine Komponistin und kein Komponist sollte sich jedoch angesichts der schon in Reichweite vermuteten algorithmischen Unerbittlichkeit gleich bedroht oder überflüssig fühlen. Nicht jede Zukunft ist starke Konkurrenz. Aber das komponierende Selbstverständnis wird sich in Bälde völlig neu ordnen müssen. Dabei könnte es zur Falle werden, die Künstliche Intelligenz ausschließlich als Simulation anthropologischer Vorgaben anzusehen, also aus­schließlich als effizienzsteigernden Support. Noch können wir nur schwer verstehen, dass es ein systemfremdes Simulativ für menschliche Intelligenz überhaupt geben soll – zumal der anthropologische Begriff davon noch sehr fransig daherkommt.

Dringende Fragen für die Komponierenden der Welt könnten heißen: Erreicht eine Musik, die selbständig durch entpersonalisierte Systeme generiert wurde, die Gefühlswelt der Menschen in gleich intensivem Maße wie die der Komponierenden herkömmlicher Art? Verliert die Musik nicht in gleichem Maße ihre emotionale und ideelle Bedeutung? Oder schmiert sie gleich ab zur reinen Funktionsmusik?

Schon sieht man sich im Diskurs um den Kreativitätsbegriff. Schließlich ist die kreative Tätigkeit ein unbestrittenes menschliches Alleinstellungsmerkmal, bisher. Und keine Zukunftsmusik muss von nun an gleich ein digital generierter Algorithmus sein. Also, warum nicht mehr Optimismus? Vielleicht sind die neuen Möglichkeiten sogar Prothesen zur Optimierung der eigenen Kreativität? Siehe Support! War das nicht auch so mit dem Einzug der elektronischen Mittel in die Musik vor Jahrzehnten? Pierre Schaeffer, Karlheinz Stockhausen, Walter Wendy Carlos, Isao Tomita zum Beispiel, um nur an die frühe Prominenz zu erinnern.

Kreative Tätigkeit hieß auch hier immer noch, durch eine abstrakte Idee ein konkretes Produkt auf den Weg zu bringen, also aus Nichts ein Etwas zu erschaffen. So galt die Fähigkeit zur kreativen Tätigkeit bis vor kurzem noch als Domäne des Menschen und auf Computersysteme nicht übertragbar.

In der digital generierten Algorithmen-Welt wird das von Menschen angenommene Nichts der Immaterialität und Idealität durch algorithmische Zugriffe auf Big Data übernommen. Menschliche Inspiration und Genialität wechseln also das kognitive System und werden in der Informatik zu Stochastik, Pattern Recognition und schlussfolgerndem Output. Die selbstlernenden Programme der KI scheinen das überzeugend zu leisten. Und so könnte es in der Zukunft um die Trennung zweier kategorialer Realitätsformen gehen: die der biologisch-analogen und die der anorganisch-digitalen.

Die Künstliche Intelligenz fordert die Auseinandersetzung mit genau diesem Systemwechsel ein. Was hat das für Konsequenzen etwa für herkömmliche Komposition, Hörrealität und Medienkonsum, wenn die musikalische Kompetenz ganz oder teilweise an einen anorganisch-digi­talen Algorithmus delegiert wird? Dazu einen Blick zurück.

Der US-Amerikaner David Cope schrieb schon in den Achtzigerjahren ein Computerprogramm zur Generierung von Musik und nannte es „Experiments in Musical Intelligence“, kurz EMI. Es war in der Lage, Komposi­tionsmuster in Johann Sebastian Bachs Musik zu analysieren, um dann mit einem Algorithmus „neue“ Musikstücke im Stile des Komponisten zu komponieren.

Künstliche Intelligenz hat hier also völlig hirn- und interesselos, ohne jede menschliche Begabung und ohne jede Bewusstheit, Musik hervorbringen können. Bei Test­aufführungen wurde sie sogar als besonders typisch für Bach identifiziert. Das Neue daran: David Copes Programm hatte Musik nicht imitiert, sondern völlig artfremd durch Algorithmen simuliert.

Wie konnte eine künstliche Einheit beziehungsweise ein digital-graphischer Stellvertreter einer konkreten Person musikalisch derart überzeugen? Hier hatte ein Ab­straktum von Algorithmus bar jeder Sinneswahrnehmung, Intuition, Emotion und ohne jedes Weltverständnis Musik geschrieben. Und nicht nur das. Diese Musik hatte bei den rezipierenden Menschen genau das evoziert, woran es dem Algorithmus völlig fehlt: Einfühlung und Gefühl, ja, Identifikation.

Hier wird der kategoriale Systemwechsel von biochemischen hin zu digitalen Algorithmen nachvollziehbar.

David Copes Pionierarbeit zielte bereits auf brisante Fragen des außermenschlichen Komponierens ab: Kann ein seelenloses Etwas Gefühle kreieren, ohne Gefühle zu haben, und wozu soll es das tun? Oder etwas konkreter: Kann die einzigartige Fähigkeit des Menschen, Klangverhältnisse zu erfinden und diese in Musik zu formen, mit der gleichen Überzeugungsleistung von Rechnern übernommen werden?

Noch symbiotisieren Mensch und Computer, koexistieren in Lauerstellung. Gegenüber stehen sich die bio-neuronale Intelligenz des menschlichen Gehirns und die dazu zu hundert Prozent betriebsartfremde Künstliche Intelligenz.

Die Erforschung dieser Künstlichen Intelligenz beschäftigt sich damit, menschliche Intelligenzleistungen durch Maschinen, also mittels geeigneter Soft- und Hardware simulativ zu ersetzen. Es geht zunächst ganz schlicht um eine Art Umkopieren in ein effizienteres Medium. Erst danach setzt auch das maschinelle Lernen ein. Dabei handelt es sich um Verfahren, die es Maschinen ermöglichen sollen, eigenständig Wissen aus Erfahrung und umgekehrt zu generieren. Der Begriff dazu heißt Deep Learning.

Da erscheint es wie ein Nebenprodukt, dass sich eine Heerschar von Entwicklern auf dem Gebiet der computergenerierten Komposition tummelt. Noch bringen sie vorwiegend Programme hervor, die Laien- wie Profi-Musiker beim Komponieren unterstützen. Da geht es um den algorithmischen Support für Kreativitätsschwache oder um zu allem entschlossene Eigenoptimierer. Programmunterstütztes Komponieren, eine Art Kompositions-Doping?

2010 entwickelten Software-Spezialisten an der Universidad de Màlaga ein Programm für ihren „Iamus“ genannten Superrechner. Das Programm war in der Lage, Musik in sämtlichen bekannten Genres eigenständig zu komponieren. Den Entwicklern gelang es, mit ihrem Opus One zum ersten Mal mittels einer Künstlichen Intelligenz, ohne auf einen Fundus gespeicherter Big Data zugreifen zu müssen und damit ohne jedes kompositorische Vorbild, völlig autonom, allein auf der Grundlage musikalischer Parameter, Neue Musik komponieren zu lassen. Die KI der Programmierer konnte damit zeigen, dass sie selbständig innovative Musik generieren kann, also nicht vom Zugriff auf ein Datenvolumen der bisherigen Musikgeschichte angewiesen sein muss. Es wird gerade nicht auf ihre Entwicklung zugegriffen, um sich in deren Folge zu bewegen, sondern die singuläre Position eines Komponierenden eingenommen. Auch hier hat das Programm nicht imitiert, sondern auf einem musikgeschichtsneutralen, neuen Niveau simuliert. Der „Melomics“ genannte Algorithmus hat in den vergangenen Jahren schon unzählige Stücke komponiert. Die besseren wurden auch mit klassischem Instrumentarium aufgeführt. Selbst Klangkörper wie das London Symphony Orchestra haben bereits Stücke aus diesem algorithmischen Musikpool mit namhaften Solisten eingespielt. Das ist ein Meilenstein.

Aber können die Konsequenzen solcher Lernfortschritte der Technosphäre überhaupt noch im Sinne der Menschheit weitergedacht werden? Es sieht aus, als ob es zunächst beim Staunen und Assistieren bleiben wird. Es könnte sich jedoch auch bald abzeichnen, dass sich hier zwei Entwicklungsstränge gabeln werden.

Vielleicht hilft da die Erinnerung an den Protagonisten in George Orwells dystopischem Roman „1984“, Winston Smith, der durch ein Fenster auf den Hof blickt und dort eine singende Frau beim Wäscheaufhängen beobachtet. Er hört ihr fasziniert zu. Irgendetwas scheint ihn regelrecht zu packen. Dann sagt Smith todtraurig: Wie ist es möglich, dass ein Lied, das von einer Maschine geschrieben wurde, so schön klingt?“ Also – es gibt noch Hoffnung, wenn auch weiterhin eingedost wie bei Pandora.

Was ist zu erwarten? KI wird die Leistungsspitze der komponierenden Welt verbreitern, solange eine Koexistenz auf hybrider Basis gewährleistet ist. Danach werden sich die Wege trennen müssen. Aber die Figur des bio-musikalischen Komponisten ist dadurch noch nicht aus­erzählt, nur weil ihn Machbarkeitsphantasien in der Gestalt simulativer digitaler Intelligenz für obsolet erklären könnten. Das mag auch signifikant an den Energiequellen liegen. KI wird mit Elektroenergie gespeist und ist (noch) nicht in der Lage, sich diese autonom zu beschaffen. Die Menschen müssen sie also liefern. So schlüpfen sie für die Technosphäre in eine ähnliche Rolle wie sie die Natur für die Biosphäre bereitgestellt hat.

Relativ sicher ist: Solange es den Komponierenden dieser Welt gelingt, sich in der Energiefrage die Regiehoheit zu sichern, kann ihnen die digital simulierte Algorithmik nicht entgleiten. Wenn nicht, bleibt nur noch eines: Alle Stecker ziehen!