MusikTexte 129 – Mai 2011, 19–29

Die Angst der Komponisten vor der Musik?

Digitale Bild-Musik-Verbindungen bei Jens Brand, Orm Finnendahl und Michael Beil

von Rainer Nonnenmann

Seit zwanzig Jahren habe ich keine Bücher mehr. Auch meine Papiere verbrannte ich. Ich streiche das Lebendige durch … Ich behalte, was ich will.Aber das Schwierige liegt nicht hierin. Das ists: Zu behalten, wessen ich morgen bedürfen werde!

Paul Valéry, Monsieur Teste1

Während der vergangenen zwanzig Jahre wurde der Computer als Serienartikel für immer mehr Menschen erschwinglich und avancierte das Internet zum weltweit genutzten Medium. Die nach 1975 Geborenen werden bereits als „Net Generation“ oder als „Digital Natives“ bezeichnet, als eine Generation also, die so selbstverständlich mit Computer und Internet aufgewachsen ist, dass ihr diese gleichsam zur Muttersprache geworden sind. Computer und Internet sind alltägliche Massenphänomene, nicht nur in den westlichen Industrienationen. Sie verändern das Medienverhalten von Milliarden Menschen und erfassen immer mehr Lebensbereiche. Längst ist der Personal Computer vieles zugleich: Kommunika­tionsmedium, Schreibmaschine, Photoalbum, Stereoanlage, Radio, Zeitung, Fernseher, Heimkino, Videorecorder. Damit verändert er auch das Verhalten bei Bildung, Einkauf, Lektüre, Unterhaltung, Partnersuche und so weiter. Darüber hinaus haben Computer und Internet auch Folgen für die Musik, ihre Herstellung, Übermittlung und Wahrnehmung.

Bereits seit den sechziger Jahren dient der Computer als Klanggenerator sowie zur Notation, Speicherung und Wiedergabe von Musik.2 Jedoch erst in jüngerer Zeit entwickelte er sich im Verbund mit entsprechenden Softwareprogrammen und Interface-Anschlüssen zu einer mobilen Multifunktionsschnittstelle, mit der sich Musik mit beliebigen anderen Medien in Echtzeit kombinieren und transformieren lässt. Damit verbunden ist ein star­ker Trend zur Visualisierung und Bebilderung der an sich unsichtbaren Musik. In der augenblicklichen Diskussion über die Auswirkungen der Digitaltechnologie auf die Produktion und Rezeption von Musik blieb dieser zentrale Aspekt der neuen Medien bislang weitgehend ausgespart.3 Möglicherweise ist diese im Folgenden erörterte Entwicklung Teil eines durch die sogenannte „Digitale Revolution“ ausgelösten allgemeinen „Iconic Turn“, bei dem sich das Bild gegenüber Text und Sprache als neues kommunikatives Leitmedium durchsetzt. Wissenschaftler des interdisziplinären Forschungsschwerpunkts „Bildkritik – Macht und Bedeutung der Bilder“ an der Universität Ba­sel vertreten neuerdings sogar die These, das Computerzeitalter bringe eine „neue, Bild-gestützte Gesellschaft“ hervor: „Die digitale Revolution, die seit Beginn der neunziger Jahre ihre globale Dynamik entfaltet hat, macht aus dem alten, trägen Bild ein äußerst flexibles Instrument, das jedermann braucht, das die weltweite Kommunikation nutzt und ganz besonders der Generierung von Wissen dient. Gerade in den Naturwissenschaften gibt es viele Einsichten, die sich ausschließlich auf ikonischem Weg einstellen. Bilder illustrieren nicht länger, was zuvor gedacht worden ist, sie repräsentieren selbst eine eigene Art des Denkens.“4 Was hier für die Naturwissenschaften reklamiert wird, scheint längst auch für die Kunst und selbst für die an sich bilderlose Musik zu gelten.

Voraussetzungen und Motive

Welche Motive verfolgen Komponisten heute mit dem Computer als Schnittstelle von Musik zu anderen Me­dien und Sinnesbereichen? – Zweifellos zielen sie auf neue Kunstformen. Mancher will auch auf den Verlust des Live-Konzerterlebnisses reagieren und kompensieren, dass die über Radio, Internet, CD, iPod oder MP3-Player technisch reproduzierte und von anderen Sinnesbereichen abgekoppelte Lautsprechermusik für die meisten Menschen längst zur musikalischen Primärerfahrung geworden ist. Wieder andere versuchen, die durch die Digitaltechnologie veränderten Produktions- und Rezeptionsverhältnisse einer medienkritischen Reflexion zugänglich zu machen. Und vielleicht deutet die zunehmende Zahl intermedial arbeitender Komponisten auch auf eine latente Angst, reine Musik könnte als leer, aussagelos, gar sinnlos empfunden werden. Ist also die zunehmende Bebilderung von Musik Ausdruck einer wachsenden Allergie bei Komponisten, Interpreten und auch Hörern gegen die bis weit ins zwanzigste Jahrhundert vorherrschende Idee der „absoluten Musik“?5 In jedem Fall lösen sich die schon in den sechziger Jahren aufgeweichten traditionellen Grenzen zwischen Sparten und Genres gegenwärtig weiter auf. Medien, Lebens- und Arbeitsbereiche verschmelzen miteinander.

Bis in die achtziger Jahre hinein existierte die kostspielige Computertechnologie ausschließlich in den Elek­tro­ni­schen Studios großer Rundfunkanstalten, Stiftungen und Technologieunternehmen, die nur einem privilegierten kleinen Kreis von Musikern zugänglich waren. Heute dagegen kann sich jeder mit handelsüblicher Hard- und Software ein eigenes Studio bauen. Mit gängi­gen oder selbst geschriebenen Soundprogrammen lassen sich beliebige Klänge kreieren oder als Soundfiles von riesigen Datenbanken und Samplebibliotheken abrufen. Unmengen an Tonkonserven halten die Musik aller Epochen, Stile und Weltgegenden zur Verfügung, um gehört, zitiert, verformt, gesampelt, geschreddert, recycled, remixed oder „Mash-ups“ unterzogen zu werden. Diese Demokratisierung der einstigen Hochtechnologie lässt sich unter den Positivstichworten Pluralität, Wettbewerb und Offenheit beschreiben. Sie ist aber ebenso verbunden mit Negativphänomenen wie Standardisierung, Beliebigkeit, Verflachung und Massenproduktion. Allein durch simples „Copy and Paste“ entstanden seit den neunziger Jahren neue Musikstile und ganze Musikszenen wie Techno, Lounge, Clubbing oder Ars Electronica, für die sich auch eine Reihe von Komponisten der neuen Musik interessieren.

Das revolutionär Neue des Computers im Hinblick auf Musik besteht in drei Dingen: Erstens im Zugriff auf alle möglichen Sounds; zweitens in der Verbilligung und Miniaturisierung dieser Technologie und der dadurch ermöglichten Massentauglichkeit und Mobilisierung; und drittens in der Möglichkeit, Musik mit jedem nur erdenklichen anderen Medium in Echtzeit zu kombinieren. Dadurch eröffnen sich ungeahnte Verbindungsmöglichkeiten mit anderen Medien und digitalisierbaren Daten. Und die weitere Entwicklung der Digitaltechnologie wird die Einsatzmöglichkeiten des Computers erwartbar erweitern. So schwärmte jüngst der Leiter der „Innovations­kommunikation“ bei der Firma Siemens, Ulrich Eberl: „Die Leistung von Mikrochips hat sich innerhalb von zwanzig Jahren vertausendfacht, was die Rechengeschwindigkeit, Speicher- und Kommunikationsfähigkeit betrifft. In zwanzig Jahren wird die Leistung eines heutigen Laptops im Volumen einer Erbse Platz haben und weniger kosten als eine Tafel Schokolade. Entsprechend groß wird die Zahl der Anwendungen sein.“ 6

Unabhängig davon, wie rapide sich die Digitaltechnologie in den nächsten Jahren weiter entwickeln wird, gestattet die Behandlung jedweder Information als binärer Code schon jetzt, sämtliche Materialien und Medien integral zu steuern, zu manipulieren und zu komponieren. So entstehen intermediale oder transmediale Projekte mit fließenden Übergängen oder Sprüngen zwischen allen möglichen digitalen oder digitalisierten analogen Medien: mit Film, Video, Tanz, Theater, Bewegung, Licht, Farbe, et cetera. Mancher spricht bezüglich intermedialer Verschmelzungsphänomene von „Mediamorphosen“ 7 und hinsichtlich schneller Wechsel zwischen verschiedenen Medien von „Media-Hopping“.8 In Bezug auf Bild-Musik-Verhältnisse sollte man zwischen Bebilderung und Visualisierung unterscheiden: Bebildern ist ein vorwiegend additiver Vorgang, bei dem einer klanglichen Ebene eine wie auch immer geartete Bildebene hinzugefügt wird, die zwar unweigerlich mit der Musik in Beziehung tritt, dieser letztlich jedoch fremd bleibt. Eine Visua­lisierung dagegen erwächst direkter aus der Musik selbst, indem beispielsweise Videos die graphischen, spieltechnischen, haptischen Voraussetzungen der Musik zeigen sowie hörbare Strukturen und Materialeigenschaften sichtbar machen. Visualisierung wäre also zu verstehen als Sichtbar-Machen im Sinne einer medialen Übersetzung eines hörbaren Ereignisses in ein damit wesensverwandtes sichtbares Ereignis.

Tatsächlich wird Musik heute immer häufiger bebil­dert, visualisiert und mit anderen Kunstsparten und Lebensbereichen kombiniert. Statt dieses Phänomen im Abstrakt-Allgemeinen zu diskutieren – wozu die gegenwärtige Debatte neigt –, sollen im Folgenden drei verschiedene Positionen von Jens Brand, Orm Finnendahl und Michael Beil vorgestellt werden, die für sich jeweils ein ganz besonderes Profil erkennen lassen und in gewisser Weise exemplarisch einstehen können für drei sehr unterschiedliche computergestützte Ausformungen des Verhältnisses von Visuellem und Auditivem.9

Jens Brand übersetzt nicht-musikalische Datenmengen in Klänge, die durch ihre Herkunft und inszenierte Präsentation mit teils realen, teils imaginierten Bildern verbunden sind. Orm Finnendahl generiert Computergraphiken, welche Musiker spielerisch in Musik übersetzen, um damit ihrerseits auf die vom Computer generierten und transformierten Klänge zurückzuwirken. Und Michael Beil schließlich komponiert mit Videos wie mit musikalischem Material, indem er Videoaufnahmen des Live-Konzerts mit solchen von Vorproduktionen derselben beteiligten Musiker kombiniert, um rein akustisch nicht identifizierbare Zuspielungen optisch als vorgefertigtes Material kenntlich zu machen. So lässt sich Brands Ansatz allgemein unter dem Stichwort „Sonifikation“ beschreiben, Finnendahls Ansatz als „Interaktion“ zwischen Mensch und Maschine, und Beils Ansatz als gleichermaßen auditiv wie visuell inszenierte „Rezeption“ des Erinnerten, Gegenwärtigen und Erwarteten der Zeitkunst Musik.

Sonifikation: Jens Brand

So wie jeder Klang in jeden anderen mutieren kann, lässt sich auch alles Nicht-Musikalische in Musik verwandeln. In der Musik oder zumindest in der Vorstellung des Hörer-Betrachters bleiben dabei diejenigen Gegenstände und Informationen – wie verformt auch immer – als außermusikalische Bezugspunkte erhalten, die zuvor in digitalisierte Daten umgewandelt und dann einer sogenannten „Sonifikation“ unterzogen wurden, also in Klangdaten übersetzt und dadurch als Musik hörbar gemacht wurden. Das ist auch bei Jens Brand der Fall, einem schwer einzuordnenden Medien-, Klang- und Videokünstler. 1968 in Dortmund geboren, absolvierte er ein Kunststudium an der Kunstakademie Münster und tritt seit Mitte der neunziger Jahre auch in Konzerten und Performances auf.10 Aufgrund der Zeitlichkeit jeden Experiments macht er letztlich keinen Unterschied mehr zwischen Kunstformen und Sparten.

Ich arbeite in einem konzeptuellen Bereich, mit einem starken Interesse am Experiment. Und das Experiment ist etwas, das in der Zeit verhandelt wird, es bedarf also eines zeitlichen Rahmens. Deshalb gibt es bei mir wahrscheinlich eine große Nähe zur Musik oder zur Klangkunst, also zu einem Medium, das sich eben zeitlich entfaltet oder einfaltet, je nachdem. Aber eine Allergie gegen irgendeine Kunstform oder Musikform habe ich nicht, denn wie gesagt, Musik ist meiner Meinung nach eben auch Kunst. Ich subsumiere das eben unter dem gleichen Begriff, zumindest im besten Fall. Also ich lehne nichts ab.

Ein Paradebeispiel für die Übersetzung jedweder Information mittels Computer in Klang liefert Jens Brands sogenannter „G-Player“. Erstmals beim Festival „Klang
­Raum – RaumKlang“ der Kölner Kunsthochschule für Medien 2004 präsentiert, stellte Brand das Gerät anschließend auch an anderen Orten vor. Später entwickelte er auf der Grundlage des Apple iPod auch einen „G-Pod“ und in Verbindung mit der erst später allgemein zugänglich gewordenen Internetseite „Google-Earth“ die Internetversion „www.g-turns.com“.11 Als ginge es um Buchungen von Individualreisen, wird bei diesem Internetauftritt mit typischer Animier- und Werbesprache ein „G-BEE (Global Beeliner)“ angepriesen, mit dem sich der Benutzer beliebige Flugrouten auswählen und als „scratch“ hörbar machen lassen kann. Warum mit dem ganzen Leib um die Welt reisen, wenn dies viel einfacher und bequemer auch mit dem Ohr alleine möglich ist?

Das Projekt lädt den Besucher ein, die Koordinaten eines unter etwa zweitausend Satelliten auszuwählen, welche die Erde umkreisen, deren topographische Daten dann mittels Computerprogramm als elektronische Klänge hörbar gemacht werden. Gleichzeitig kann man auf einer großen Weltkarte beziehungsweise dem entsprechenden Satelliten-Bild von „Google Earth“ sichtbar verorten, wo sich ein Satellit gerade befindet und welche der von ihm gelieferten terrestrischen Daten soeben als Klänge hörbar gemacht werden. Zum Bild der Weltkarte kommt die Metapher des Abtastens der Erde: So wie der Saphir eines Plattenspielers über die Rillen einer Schallplatte fährt, so tasten auch die Satelliten die Gebirge, Täler, Ebenen und Meere der Erde ab. Die Welt wird gleichsam wieder zur Scheibe, wie zu Zeiten vor Kopernikus. Und der Hörer-Betrachter wird zum Diskjockey, der diesen Abtastvorgang des Globus selbst gestaltet.

Wenn man das Ziel des „G-Player“ betrachtet, stellen sich zwei Fragen: Womit es losging, was sozusagen der Auslöser war, und was daraus geworden ist. Ursprünglich hatte ich gedacht, es wäre interessant, die Erde als einen riesigen CD-Player zu definieren, und wir sind sozusagen die Harddisk und spielen einmal die Hemisphäre durchs Ozonloch ab. Das war ursprünglich eine ganz andere Metapher. Was einen ähnlich sarkastischen Aspekt hat wie der „G-Player“. An dieser Idee der „Monumentalskulptur Erde“ bin ich dann hängengeblieben. Der „Global-Player“ ist noch vor Google Earth entstanden. Aber damals gab es all diese Geodaten zum Download im Internet umsonst, die skeiner haben wollte. Das waren riesige Datensätze. Ich fand es sehr interessant, dass die ganze Erde vermessen ist, bis auf zehn Zentimeter genau, und dass das eigentlich niemanden interessiert. Das hat damals vielleicht die Geophysiker interessiert, aber mehr auch nicht. Doch da diese Daten mit Steuermitteln erhoben worden waren, mussten sie auch öffentlich gemacht werden. Und deswegen konnte man sie herunterladen. Ja, und in der Zeit ist dann der „G-Player“ entstanden, also in der Form eines Geräts mit der Idee des „Die-Erde-Abspielens“. Wenn man das auf Englisch übersetzt, „to play the globe“, dann hat man sehr schnell den „Global-Player“, das ist ein naheliegendes Wortspiel. Als Künstler interessiert einen eben auch das Große. Josef Beuys hatte eine Professur für Monumentalbildhauerei in Düsseldorf, das darf man nicht vergessen. Es ist ja nicht so, dass die Arbeiten von Josef Beuys alle riesig wären, manche sind schon sehr groß, aber wenn man monumental denkt, denkt man eben auch anders, und es ist nicht nur die physische Größe gemeint, sondern auch die metaphysische, die ideologische oder wie auch immer gedachte. Idealerweise werden der „G-Player“ und seine ganzen Spin-off-Produkte, die es zu Anfang noch nicht gab, wie in einem Ladenlokal präsentiert, nicht im Mu­seum oder in einer Galerie, also nicht in einem irgendwie für Kunst institutionalisierten Rahmen, sondern im Grunde genommen wie das Produkt in einem Teppichgeschäft.

Das klangliche Ergebnis von Jens Brands „G-Player“ verdankt sich der Übersetzung von geographischen Höhendaten der Erde in musikalische Eigenschaften mittels eines Computerprogramms. Das Klangresultat selbst spielt dabei eher eine untergeordnete Rolle, auch wenn es dem Künstler nicht egal ist. Im Zentrum steht vielmehr der Transformationsprozess selbst, der sonst lediglich als Mittel zum Zweck der Hervorbringung von Klang zurücktritt. Brand setzt dazu seinen „G-Player“ besonders in Szene, indem er das Gerät wie die neueste Entwicklung der HiFi-Branche wie in einem Laden oder auf einem Messestand präsentiert und selbst als Verkäufer oder Vertreter auftritt. So lenkt er den Fokus auf das Gerät selbst und ironisiert gängige Speicher- und Wiedergabemedien. Zugleich betreibt er damit eine Art Selbstaufklärung sowohl der Musik über ihren medialen Verwertungszusammenhang als auch des Hörer-Betrachters über seinen zumeist gedankenlosen Medienkonsum in einer total telemedialisierten Lebenswelt.

Wenn es mir wirklich egal wäre, wie der „G-Player“ klingt, dann hätte ich so etwas gemacht wie: Wir spielen jetzt mal Wohltemperiertes Klavier“ auf der Erde. Das wäre richtig egal und auch richtig doof. Doch das Prinzip ist ein bildnerisches Prinzip. Es ist kein technisches und kein akustisches Prinzip, das bringt die Leute immer etwas durcheinander. Und zwar habe ich mit einem Informatiker einen Algorithmus für den Klang zu entwickeln versucht, der dem Bild des abgespielten Profils entspricht. Das heißt, wenn ich mir die Schallwelle ansehe, als graphische Darstellung in einem Audioprogramm, dann hat man Kurvenverläufe, und dieses Bild entspricht sozusagen dem Terrain. Eine Bergspitze in so einem Bild ist ja kein hoher Ton, sondern eine Amplitude, also eine Lautstärke, und so weiter. Wir haben also einen Algorithmus entwickelt, in dem der visuelle Output einer Klangwelle dem visuellen Output der Daten entspricht. Und das klingt dann halt so, wie eben der „G-Player“ klingt, kratzig. Und das hat tatsächlich merkwürdigerweise einen illustrativen Charakter, den wir aber erst erfahren haben, nachdem wir den Algorithmus haben rechnen lassen. Es war also nicht so, dass ich gesagt habe, es muss klingen, als würde man mit dem Fingernagel über Toast oder eine Schallplatte kratzen, oder so etwas. Sondern wir haben diskutiert, wie man diese Daten benutzt, wie man sozusagen das Abspielen definiert. Und meine Vorgabe war, dass die Soundwelle so aussehen sollte wie die topographische Linie, dass es hier sozusagen eine Eins-zu-eins-Entsprechung gibt. Ich selbst höre das eigentlich ganz gerne und kann dem Klang tatsächlich sogar auch Informa­tionen abgewinnen in dem Sinn, dass ich sagen kann, das klingt für mich entweder wie Nord-Kanada oder wie Sibirien, die von der Topographie her ziemlich ähnlich sind. Ich kann nicht sagen, ob es Kanada oder Sibirien ist, so genau kenne ich es nicht, da müsste ich die Längen- und Breitengrad-Information der Satelliten lesen, dann weiß ich es natürlich. Aber ich kann sagen, das ist auf jeden Fall nicht Afrika und das ist garantiert auch nicht Mitteleuropa und so weiter.

Wie beim „G-Player“ lassen sich durch die Auflösung beliebiger Inputs in binäre Zahlencodes alle möglichen klingenden Outputs erzielen. Dazu bedarf es lediglich digitalisierter Datenmengen verschiedener Sensoren. Bei Jens Brand sind dies Geo-Satelliten. Ebenso eingesetzt werden können ganz andere Mess- und Aufzeichnungsinstrumente: Mikrophone, Elektroden, Videokameras, Scanner, Lichtmesser, Höhen-, Tiefen-, Spannungs- und Säuremesser, Wärmemelder, Seismographen, Thermometer, Hydrometer, Barometer, Radiometer, et cetera. Prinzipiell lässt sich jedwede erhobene Datenmenge einer sogenannten „Sonifikation“ unterziehen, sprich in Klang verwandeln. Brands „G-Player“ liefert dazu ein extremes und daher besonders aufschlussreiches Beispiel. Es demonstriert die Kreuzung von Musik mit außermusikalischen Sinnes- und Lebensbereichen, Medien und Kunstformen. Biologisch ausgedrückt handelt es sich um eine „Hybridbildung“, bei der völlig unterschiedliche mediale Bestandteile, die unter Umständen überhaupt nichts miteinander gemein haben, dennoch im Kern durch denselben digitalen Code verschmolzen werden. Zudem verdeutlicht der „G-Player“ die Öffnung der Musik für neue Verhältnisse zwischen Komponist, Interpret, Hörer und Aufführungsort. Denn es ist der Benutzer, der entscheidet, welche Flugroute eines Satelliten er verfolgen und in Klang transformiert hören möchte. Der traditionelle Werkbegriff löst sich auf, und der ästhetische Fokus verlagert sich von der Struktur und Materialität der Musik hin zum Prozess ihrer technischen Hervorbringung und Rezeption: „Kunst scheint sich aufzulösen in Kommunikation und Spiel.“12

Interaktion: Orm Finnendahl

Die Digitaltechnologie kennt keine statische Sender-Empfänger-Relation mehr, wie etwa das Radio. Der Einsatz des Computers erweitert daher Intermedialität schnell zur Interaktivität, etwa bei Klanginstallationen, Soundscapes, Environments oder Performances. Mit Hilfe des Computers können sich verschiedene Medien wechselseitig beeinflussen: Videos visualisieren Klänge, Musik macht Bilder hörbar, Tanzbewegungen steuern Klänge, Musik interferiert mit Filmen, gesprochene Worte regeln Klänge, Instrumente rufen Farben hervor, Licht pegelt Dynamik, Tonhöhen beeinflussen Laufgeschwindigkeiten, und so weiter. Interaktionen zwischen Mensch und Maschine interessieren auch Orm Finnendahl. Der 1962 in Düsseldorf geborene und heute an der Musikhochschule Freiburg lehrende Komponist möchte in seiner Musik auch die sozialen Auswirkungen der Digitaltechnologie thematisieren, die gegenwärtig unser Alltagsleben transformieren wie kein zweites Medium.

Natürlich werden wir durch die Technologie in unserer täglichen Lebenswelt sehr stark geprägt und beeinflusst. Momentan sind die Auswirkungen, die uns am stärksten betreffen und bewegen, soziale Auswirkungen, also unsere Art von Interaktion.13 Wir haben sehr viel mit Maschinen zu tun. Und die Netzwerke, die es jetzt gibt, sind noch viel stärker sozial strukturiert. Diese Auswirkungen haben wir in unserer privaten Lebenswelt. Auf der anderen Seite ist auch die Musik sehr stark durch soziale Dinge geprägt. Denn um Musik aufzuführen, brauchen wir Komponisten die Kommunikation mit Instrumentalisten, und brauchen die Instrumentalisten die Kommunikation einer sozialen Situation, um das Stück im Konzertsaal aufzuführen. All diese Dinge transformieren und verändern sich sehr stark durch Technologie. So ist die soziale Situation beispielsweise eine vollkommen andere, wenn ich zu Hause im Wohnzimmer eine CD höre oder wenn ich ins Konzert gehe. Wir können damit irgendwie umgehen und empfinden es nicht als Widerspruch, dass wir eine Sinfonie zu Hause über die Stereoanlage ganz alleine hören, obwohl sie dafür natürlich ursprünglich nicht geschrieben worden ist. Dass Technologie, selbst wenn sie möglicherweise selbstverständlich ist, sehr viel in unserem täglichen Leben und in unserem sozialen Umgang verändert, das sollte – denke ich – auch die Musik reflektieren, zumal wenn sie den Anspruch hat, reflexiv mit Gesellschaft, der Lebenswelt und dem Kunstbegriff umzugehen. Auch die Musik muss sich dieser Problematik in irgendeiner Form stellen. Sie muss sie für sich entdecken und in meinen Augen auf möglichst hohem reflexivem, musikalischem, ästhetischem und sinnlichem Niveau irgendwie umsetzen beziehungsweise darauf reagieren.

Orm Finnendahl arbeitet mit Graphiken, die auf Computerbildschirmen erscheinen und von Musikern live in Aktionen umgesetzt werden. Die Klangresultate der Spieler werden ihrerseits aufgenommen und in den Computer zurückgespielt, wo sie zeitversetzt und teilweise auch transformiert über Lautsprecher wiedergegeben werden, so dass die Musiker erneut auf sie reagieren können. Dieses Interaktionsmodell liegt auch Finnendahls Stück „Sandgetriebe“ für drei Schlagzeuger und Elektronik zugrunde, das im November 2010 beim Festival „Ensem­bl[:E:]u­ropa“ des WDR Köln uraufgeführt wurde.

Jedem der drei Musiker ist ein Computerbildschirm zugeordnet, auf dem je eine von drei Spuren einer fest ­fixierten vielfarbigen Graphik zu sehen ist, auf der ein Cursor mit dem aktuellen Moment des Zeitverlaufs auch die damit zeitgleich erklingenden Zuspielungen vorproduzierter Klänge anzeigt. Abgesehen von wenigen notierten Abschnitten, die den Musikern bestimmte klangliche, spieltechnische und rhythmische Elemente samt deren zeitlicher Relation untereinander vorgeben, dient jedem Schlagzeuger je eine der drei Graphikspuren – die auf allen drei Computern exakt synchronisiert sind – als „Partitur“, die er eigenverantwortlich umzusetzen hat, indem er auf die Graphik entweder spontan improvisatorisch reagiert oder mittels vorab ausgearbeiteter Ideen. Zudem signalisiert der Computer in der Graphik mit zusätzlich rot beziehungsweise grün aufleuchtenden Farbflächen, zu welchen festgelegten Zeiten die Klänge der Musiker aufgenommen und dann zeitlich versetzt wiedergegeben werden, letzteres gegebenenfalls gestaucht, gestreckt, transponiert oder sonstwie verarbeitet. So können die Musiker während der Aufnahmephasen gezielt etwas spielen, von dem sie wissen, dass es ihnen anschließend wieder zurückgespielt wird, um es dann selbst zu kommentieren, zu begleiten oder zu konterkarieren.

„Sandgetriebe“, Schwarz-weiß-Ausschnitt der im Original vielfarbigen Gesamtgraphik von Minute 5 bis 7 mit den drei Graphikspuren der drei Schlagzeuger, die auf den drei Computerbildschirmen der drei Schlagzeuger jedoch getrennt erscheinen.

Bei anderen Stücken projizierte Finnendahl seine Graphiken gelegentlich zusätzlich gut sichtbar auf Leinwänden, um dem Publikum die Möglichkeit zu geben, die Reaktionsverhältnisse zwischen Mensch und Maschine verfolgen zu können. So wie für andere die Verschriftlichung musikalischer Vorstellungen in Form von Partituren ein zentrales Element der Imagination und Konzeption von Musik ist, dienen Finnendahl die von ihm mit Hilfe des Computers generierten Graphiken als wichtiges Stimulanz seiner musikalischen Vorstellungskraft und als zentrales Medium seiner Art musikalischen Denkens. Statt um Bebilderung bereits bestehender Musik geht es bei ihm daher eher um eine Musikalisierung bildhafter beziehungsweise räumlicher und graphischer Vorstellungen.

Für mich ist Visualisierung oder Visuelles in der Musik ganz zentral. Ich habe sehr lange gebraucht, bis mir das bewusst geworden ist, denn ich habe das einfach immer nur so erlebt, aber nicht darüber nachgedacht. Ich bin kein Synästhetiker, also kein Mensch, der grün, blau oder lila sieht, wenn er bestimmte Klänge hört. Aber ich stelle mir Klänge immer räumlich vor, als ganz abstrakte Form. Und wenn ich Dinge höre, dann höre ich sie immer polyphon. Deswegen ist mir Polyphonie unglaublich wichtig. Und ich höre Musik immer als Konstellation, vielleicht ähnlich wie man sich Planeten oder irgendwelche Gestirne vorstellt, zu denen man sagt, das sind Relationen zueinander, bei denen verschiedene Dinge und Elemente miteinander in Wechselwirkung treten. Vielleicht ist das eine sehr innere, sehr introvertierte Art von Wahrnehmung, aber so erlebe ich Musik, auch Barockmusik, Renaissancemusik, Bach oder Josquin. Immer habe ich bei Musik den Eindruck, mehrdimensional zu hören. Insofern ist natürlich meine Wahrnehmung auf die eine oder andere Weise schon medialisiert. Die Möglichkeit der Visualisierung mittels des Computers ist für mich eine mehr oder weniger natürliche Form, diese mehrdimensionalen Relationen mit Hilfe einer Maschine zu manifestieren. Da kann ich die Zusammenhänge, die ich erlebe, graphisch darstellen. Insofern ist die Graphik für mich ein unglaublich wichtiges Werkzeug und ein durchaus wesentlicher Informationsgeber. Ich persönlich habe auch sehr viel mehr Spaß, wenn ich diese Stücke höre und zugleich die Graphik mitlese, denn ich will auch sehen, wie der Musiker reagiert. Aber ich zwinge mich auch öfter dazu, nicht auf den Bildschirm zu gucken, sondern einfach mal zu erleben, wie es für jemanden ist, der diese Graphiken nicht sieht und diese Informationen nicht hat. Ist das Stück dann eigentlich noch interessant? Ist das Stück auch rein akustisch eine interessante Komposition? Und das ist ganz eindeutig mein Ziel. Es kann für mich nicht so sein, dass dem Stück in dem Moment etwas fehlt, wenn man die Graphik nicht sieht.

Der Titel von Orm Finnendahls Stück „Sandgetriebe“ spielt mit den Worten Treibsand und der Redewendung „Sand im Getriebe“. Die Frage ist nur, was ist hier der Sand, was das Getriebe? Indem die drei Schlagzeuger auf die ablaufenden Graphikprozesse des Computers reagieren, beeinflussen sie ihrerseits die vom Computer aufgenommenen und reproduzierten Klänge. So streut der Mensch Sand in die automatisch ablaufenden Prozesse der Rechenmaschine, indem er sich dieser bewusst einschreibt und live-gespielte Aktionen und vorgefertigte elektronische Zuspielungen zu einer immer dichteren Impulsfolge überlagert.

Rezeption: Michael Beil

Viele Komponisten der gegenwärtig mittleren Genera­tion im Alter von vierzig bis fünfzig Jahren arbeiten selbstverständlich mit Computer und Video. Der technologisch-demographischen Gesetzmäßigkeit folgend sind es noch mehr in der Generation der unter Vierzig- oder unter Dreißigjährigen. Mit Videos komponiert auch ­Michael Beil, Jahrgang 1963 und seit 2007 Leiter des Studios für Elektronische Musik an der Hochschule für Musik und Tanz Köln. Dabei geht es ihm vorrangig um ein Spiel mit der Zeitlichkeit von Musik und ihrer Wahrnehmung auf der Grundlage von Erinnerungen, Vergegenwärtigungen, Antizipationen und aktuellen Gehörs- und Gesichtseindrücken.

Ich arbeite nicht ausschließlich mit Video. Es gibt auch viele Stücke nur mit musikalischer Elektronik und auch einige Stücke ganz ohne Elektronik. Aber in der Tat arbeite ich in letzter Zeit sehr häufig und sehr gerne mit Video. Das liegt hauptsächlich daran, dass mich dieses Medium sehr interessiert und ich der Meinung bin, dass es in der heutigen Zeit relativ selbstverständlich ist, mit elektronischen Medien zu arbeiten. Ich finde es manchmal etwas merkwürdig, dass man danach gefragt wird, weil ein Komponist, der sich auf instrumentales Komponieren konzentriert, in der Regel nicht gefragt wird, warum er keine elektronischen Medien benutzt. Das Arbeiten mit Video hat für mich bestimmte Vorteile. Ich arbeite viel mit Zuspielen und seit kürzerer Zeit auch mit live-elektronischen Setups, wo Video integriert ist. Ich arbeite konzeptionell viel mit Zeitmanipulation, das bedeutet, dass aufgenommene Passagen in ihrer Reihenfolge verändert werden, in ihrer Geschwindigkeit oder in ihrer Zeitrichtung verändert oder einfach nur noch einmal abgespielt werden. Bei der Arbeit mit Zuspiel, oder wie man heute sagt mit Fixed-Media – weil ich eben mit Klängen arbeite, die die ausführenden Musiker vorher gespielt haben – habe ich entdeckt, dass es im Konzert eine Situation gibt, bei der man im Stück Passagen hört, die der Musiker schon vorher gespielt hat, die er vorher aber an einem anderen Ort gespielt hat, in einer anderen Stimmung, in einer anderen Kleidung, wovon man aber im Konzert nichts mitkriegt. Wenn ich jetzt aber den Musiker auf Video aufnehme, wie er diese Klänge einspielt, und wenn diese Klänge oder Passagen dann im Konzert auftauchen, dann hat man einen anderen Zugang zu diesem zugespielten Material und einen anderen Eindruck davon. Denn man bemerkt, dass diese zugespielte Musik eben aus einem anderen Raum oder aus einer anderen Zeit kommt. Das ist ein Punkt, der die Konzeptionen, mit denen ich arbeite, über das Video verstärkt.

Der andere Fall ist die Arbeit mit Live-Elektronik. Da gibt es natürlich kein Zuspiel, das vorher aufgenommen wird. Da arbeite ich mit ähnlichen Konstellationen, aber es passiert natürlich alles im Konzert. Zum Beispiel in meinem letzten Stück „Doppel“ für zwei Klaviere mit Live-Video ist es so, dass da zwei Pianisten auf der Bühne sitzen, die etwas spielen, das aufgenommen und später gebeamt wird. Das Aufgenommene und der Beam sind aber beide im Blickwinkel der Kamera, das heißt, der Beam wird noch einmal mit abgefilmt. Dadurch ergibt sich ein Video-Feedback. Wenn man das mehrmals hintereinander macht, sieht man mehrere Schichten des vorher Gespielten auf der Leinwand. Und jetzt ist es ja so, dass das Hören von Musik viel mit Erinnern zu tun hat, mit momentanem Erleben und mit Vorausahnen von dem, was kommt. Wahrscheinlich könnte man sogar sagen, das ist Hören von Musik. Wenn das jetzt im Konzert aufgenommen wird, dann steht einem ja die Erinnerung, wenn sie wieder abgespielt wird, zur Verfügung, das heißt, das ist kein echtes Erinnern mehr, sondern ich kann nachhören, was ich vorher gehört habe. Und wenn es im Video verdoppelt wird, kann ich auch noch einmal sehen, wie es gespielt wurde. Es würde nicht viel Sinn machen, es nur zu verdoppeln, obwohl das auch schon ein sehr interessantes Setup wäre. Ich gehe dann noch einen Schritt weiter und spiele mit genau dem. Das heißt, man sieht etwas, das man vorher schon gesehen hat, man hört etwas, das man vorher schon gehört hat, und meint, seine Erinnerung damit auffrischen zu können. Doch es ist so, dass da leichte Veränderungen passieren. Das heißt, was man sieht, ist unter Umständen gar nicht das, was man hört, aber man merkt das nicht sofort. Und das kann man über mehrere Entwicklungsstadien in dem ineinander verschachtelten Bild zurückverfolgen. Gerade in dem, was im Kopf passiert, wenn man Musik hört und versucht, sie zu erinnern und vorauszuahnen, führt das zu einer gewissen Verunsicherung oder auch Verwirrung. Und das ist eine Situation, die mich beim Musikhören generell sehr interessiert. Der spezielle Fall in „Doppel“ ist der – das war zumindest meine Vorstellung bei der Komposition –, dass man hört, wie sich das Stück komponiert. Also ganz reduziert dargestellt würde das bedeuten, dass der letzte Abschnitt des Stücks das eigentliche Stück ist, und dass er aber aus lauter Teilen besteht, die vorher wie kleine Mosaiksteinchen von den Musikern zusammengetragen wer­den, um sich dann hinterher zu einer Musik zusammenzusetzen.

In vielen Fällen gerät Intermedialität zu bloßem Entertainment oder zu beliebiger Bebilderung von Musik, die nicht im Hinblick auf visuelle Inszenierungen konzipiert wurde. Manch avantgardistisch gemeinte Computerbildperformance mit leuchtenden Wellenlinien und wogendem Rankenwerk wirkt schnell beliebig als bloß schmückendes Beiwerk zur Musik, selbst wenn sie wie die Musik demselben digitalen Code entspringen sollte. Vieles in diesem Bereich lässt sich kaum unterscheiden von popkulturellem Ambiente-, Licht- und Farbdesign, wie es in einschlägigen Lokalen, Clubs oder Diskotheken flimmert. Oft läuft Musik in Verbindung mit Video Gefahr, durch die herrschende Dominanz des Auges über das Ohr marginalisiert zu werden. Was muss geschehen, damit die visuelle Ebene die Aufmerksamkeit des Betrachters wieder auf das Hörbare zurücklenkt? Michael Beil argumentiert hierzu ganz prinzipiell:

Ich würde grundsätzlich zwei verschiedene Arten differenzieren, wie Bild und Musik zusammenkommen, wobei ich den Spezialfall Film weglassen würde, weil da die Musik tatsächlich eher eine dienende Funktion hat. Es gibt die Visualisierung, die bedeutet, dass die Musik schon fertig ist und es kommt ein Video dazu. Da gibt es auch wieder zwei Möglichkeiten. Entweder das Video ist auf die Musik geschnitten, das heißt, es gibt in der Musik bestimmte Cues, die das Video auch einhält, oder bestimmte Ereignisse, die das Video reflektiert, oder es gibt in der Musik eine Geschichte, die erzählt wird, die im Video nacherzählt wird. Oder es gibt noch die andere Form der Visualisierung, die in künstlerischen Kontexten öfter anzutreffen ist, wo genau das vermieden wird, es also in der Musik einen Cue gibt, der im Video ganz bewusst nicht beachtet wird, bis hin zu einer starken Trennung sogar von dem, was im Video und im Bild passiert. Der Extremfall ist das, was im Club passiert, dass ein Diskjockey seine Musik auflegt und ein Visual Jockey spielt Videos dazu ab, und die haben schlichtweg überhaupt nichts miteinander zu tun, die beiden kennen sich gar nicht und wissen auch nicht, was der andere jeweils macht. Und trotzdem, wenn man guckt, stellt man automatisch einen Bezug her. Das liegt aber auch daran, dass die Musik greifbar ist, die hat einen Beat, und das Video ist oft auch mit Loops ausgestattet, und dann ist es relativ leicht, die Sache aufeinander zu beziehen. Ob dann das Bild eine Dominanz hat gegenüber der Musik, hängt vom Hörer und Zuseher ab, da gibt es verschiedene Typen von Menschen, die mehr visuell rezipieren und andere, die mehr auf die Musik hören. Das hängt auch von der Art der Visualisierung ab. Und da gibt es sehr viele verschiedene Ansichten, die man aufzählen könnte.

Es gibt aber noch eine andere grundsätzliche Art, Musik und Video zusammenzubringen, die mich mehr interessiert und mit der ich arbeite. Und das bedeutet, das Video schon in die Konzeption einer Komposition miteinzubeziehen und dann als Material zu verwenden, so wie man musikalisches Material eben verwendet. Dann ist man nicht abhängig von Cues oder von im Video nacherzählten Geschichten, sondern dann laufen Prozesse ab, wie sie in der Komposition ablaufen, ebenso auf der Ebene des Videos. Und wenn das gut läuft, hoffe ich, dass man das als ein Gemeinsames wahrnehmen kann.

In „Doppel“ für zwei Flügel mit Live-Elektronik und Live-Video lässt Michael Beil die beiden Pianisten genuin pianistische Elemente spielen, schnelle Läufe, Arpeggios, Repetitionen und Akkorde, die sich in Klang- und Bildwiedergaben via Lautsprecher und Video vervielfachen. Die Anweisung „langsame und gut sichtbare Bewegung zum Akkord hin“ findet sich auch in Abwandlungen mit Trillern und Läufen. Ebenso ausdrücklich verlangt werden Virtuosenmarotten, wie etwa das theatralische Hochwerfen der Arme nach Erreichen eines Schlussakkords oder Spitzentons nach rasendem Lauf. Zusätzlich zu diesen charakteristischen Spielgesten finden sich auch weitgehend vom Klavierspiel abgelöste Gesten und regelrecht szenische Aktionen, die dem Repertoire von Mauricio Kagels instrumentalem Theater entstammen könnten: Hände überkreuzen, auf dem Klavierstuhl drehen, Arme ausstecken oder heben, Klavierdeckel öffnen oder schließen, mitten im Stück die Plätze tauschen, und ganz am Ende „Hände in den Schoß legen“.

In der Partitur verzeichnet Beil im obersten System die von Live-Audio und Live-Video „AV“ zuvor mitgeschnittenen und jetzt aktuell wiedergegebenen Passagen, während die beiden unteren Systeme die beiden Klavierparts beinhalten. Bereits ein flüchtiger Blick in die Partitur zeigt, dass das Ergebnis nicht nur eine Multiplikation sicht- und hörbarer Ebenen ist, die sich additiv überlagern, sondern eine potenzierte Form des Konzertierens, bei dem das live agierende Klavierduo mit bis zu acht weiteren Pianisten zusammenspielt. Tatsächlich sind die Live- und Repro-Partien unmittelbar aufeinander bezogen. Immer wieder greifen durchgehende Läufe, Akkord- und Repetitionsfolgen von einer Ebene zur anderen ineinander über, so dass hör- und sichtbare Kontinuitäten resultieren, welche die Grenzen zwischen aktuell gespielter und technisch reproduzierter Musik verschwimmen lassen. Es entsteht ein Simulakrum aus Realität und Medialität. Das Stück entfaltet sich durch die vielfache Überlagerung audiovisueller Reproduktionen seiner selbst.14

Doch der mediale Illusionismus wird auch bewusst gestört durch Irritationen. Beispielsweise wird die Laufgeschwindigkeit der Videos manipuliert, so dass die darauf zu sehenden Pianisten entweder viel schneller oder langsamer agieren. Gelegentlich werden Klavierklänge auch rückwärts abgespielt, so dass sich ihr übliches Diminuendo plötzlich zu abrupten Crescendi verkehrt. Und gegen Ende des Stücks löst sich der vertraute Klavierklang zunehmend in dumpfes Klopfen und Dröhnen auf, als würden die mediale Echos wie „Doppelgänger“ an die Stelle des eigentlichen Live-Ereignisses der beiden Pianisten treten, die hier mit in den Schoß gelegten Händen nur noch tatenlos zuschauen und zuhören dürfen. Uraufgeführt wurde das Stück vom Piano-Duo GrauSchumacher im November 2009 in der Konzertreihe „Musik der Zeit“ des WDR Köln. Beim Berliner Festival Ultraschall 2011 wurde es von Benjamin Kobler und Ulrich Löffler gespielt. Der auf dem Photo dieser Berliner Aufführung festgehaltene Moment entspricht der hier abgebildeten Seite 6 der Partitur. Die dort in der ersten Akkolade verzeichneten hundertachtzig Grad Drehungen beider Pianisten auf sich zu sowie ihre Handbewegungen sind auf dem Photo bereits in das erste unterste Segment des Videos eingewandert, während die beiden Pianisten sich auf der Bühne bereits wieder zurückgedreht und begonnen haben, die Läufe und Repetitionen der zweiten und dritten Akkolade dieser Partiturseite zu spielen.

Sofern der Einsatz neuer Medien neue Darstellungs- und Ausdrucksmittel erschließt und dem Publikum neue Erfahrungsmöglichkeiten eröffnet, ist diese Entwicklung sehr zu begrüßen. Gerade durch eine möglichst integrale Gesamtkonzeption von Bild und Klang, die beide Ebenen von Anfang an direkt aufeinander bezieht, lassen sich beispielsweise Analogien und Strukturparallelen zwischen den Medien aufdecken und zwischen den verschiedenen Sinnen auch verschiedene oder ähnliche wahrnehmungspsychologische Bedingungen bewusst machen. Vielleicht können der Musik dadurch neue Anschlussstellen zu Lebens- und Erfahrungsbereichen zuwachsen, die auch Hörer jenseits der traditionellen Instrumental- oder Vokalmusik erreichen, indem sie diesem Publikum alternative Zugänge zu neuer Musik öffnen. Doch obwohl Michael Beil in seinen Video-Musik-Kompositionen ausdrücklich mit der Zeitlichkeit der Wahrnehmung zwischen Erinnerung, unmittelbarer Gegenwart und Erwartung spielt, ist er skeptisch, was die Möglichkeit einer besseren Vermittlung neuer Musik durch einbezogene Videos betrifft.

Ich würde nicht sagen, dass ein Video hilfreich ist, um bei der Rezeption neuer Musik dem Zuhörer einen besseren Einstieg zu vermitteln. Ich würde sagen, dass es in der Kunst und besonders in der Kunstmusik eine ganz große Schieflage gibt zwischen dem Kunst-Hersteller und dem Kunst-Rezipienten. Die Kunstwerke sind heutzutage tatsächlich sehr komplex und sehr stark verschlüsselt, und ein Zuhörer muss, um diese Kunstwerke zu verstehen, wenn er das soll, sehr viel Information haben und sehr viel Aufwand betreiben, und ist dann am Ende oft trotzdem mit der Situation konfrontiert, dass er sie nicht entschlüsseln kann. Um dieser Problematik zu entgehen, ist es meiner Meinung nach unbedingt notwendig, ein musikalisches Material zu verwenden, das mehr zeichenhaft ist oder mehr Bedeutung hat, und auch mit entsprechenden Konzeptionen zu arbeiten, die dem Rechnung tragen. Das wäre eine Aufgabe, die einzig an die Kunst-Hersteller geht, das heißt die Haltung der Komponisten und die Kompositionen müssen sich verändern, damit ein besserer Zugang möglich ist. Das heißt, das Video würde in dem Fall nicht helfen. Es ist sogar schlimmer, wenn das Video nur dazu dient, diese Verschlüsselungsproblematik zu überdecken, denn dadurch wird diese Problematik nur verschlimmert.

Wenn ein Veranstalter meint, er könnte durch die Aufführung von Werken mit Video nachhelfen, was das Verständnis oder den Zugang zu neuer Musik betrifft, dann ist er glaube ich auf dem Holzweg. Er kriegt vielleicht mehr Publikum und hat einen höheren Unterhaltungseffekt, aber das ist nur eine Ablenkung. Ich denke, dass die Veränderungen in der Musik passieren müssten. Wenn es ein Auftraggeber von einer Rundfunkanstalt nicht so gerne hat, dass Video im Konzert vorkommt, kann ich das sehr gut verstehen, weil das problematisch zu senden ist, vor allem wenn das Video wichtig ist. Wenn es nur eine Bebilderung ist, dann ist es nicht so schlimm. „Doppel“ war ein Auftrag des WDR, und ich war sehr erfreut über die Möglichkeit dieser Aufführung. Tatsächlich wirkt das Stück aber nur richtig, wenn man es im Konzertsaal mit Video oder eine Produktion davon mit Video sieht. Es macht tatsächlich nur einen begrenzten Sinn, sich nur die Musik anzuhören. Das ist vielleicht ganz ähnlich wie bei Musiktheater.

Ist das Konzert tot?

Seit Aufkommen des Videoclips in den achtziger Jahren entsteht kaum ein Popsong mehr ohne Film. Einst waren es Fernsehsender wie MTV oder VIVA, heute sind es Internetportale wie YouTube, Facebook oder MySpace, die den Trend verstärken, Musik konsequent zu bebildern. Der Kombination von Musik und Bild widmen sich heute – oft im Grenzbereich von Pop- und Kunstmusik – zahlreiche Institutionen, Vereine, Festivals und Spezialensembles. Dabei entstanden neue Genres und Berufsbezeichnungen: Visual Sounds, Klangtuning, Sound- oder Interface-Design, Netzmusik oder analog zum Diskjockey der „Visual Jockey“, der digitale Bildwelten für Clubs und Diskotheken entwirft. Bereits seit 1980 gibt es das Linzer Festival „Ars Electronica“ für Kunst, Technologie und Gesellschaft. Seit 1999 veranstaltet der „Club Transmediale“ in Berlin die „Transmediale“ als erklärtes „Festival for Adventurous Music and Related Visual Arts“, um herausragende internationale Entwicklungen der experimentellen und elektronischen Musik sowie audiovisueller Performances zu präsentieren und zu reflektieren. Die Mitglieder des 2001 gegründeten Düsseldorfer Ensembles „Lichtfront“ nennen sich „Bildmusiker“. Die Kölner Konzertreihe „reiheM“ für Gegenwartsmusik, Elektronik und neue Medien präsentiert seit 2009 intermediale Projekte. Und das Berliner Festival „MaerzMusik“ für aktuelle Musik bot im März 2011 die Programmschwerpunkte „Musik mit Film“, „Video“, „Visuals“ und „Licht“.

Neben eigenen Veranstaltungsorten, Konzertreihen, Ausstellungen, Messen und Festivals sind computergestützte Intermedialität, Bebilderung und Visualisierung von Musik auch längst in großen Einrichtungen institutionalisiert, bis hin zur akademischen Lehre an Hochschulen und Universitäten. Seit 1990 zielt das „Zentrum für Kunst und Medientechnologie“ in Karlsruhe ausdrücklich auf Synthesen der Künste und neuen Medien. Ende 2010 schrieb die Fachhochschule Trier für einen aktuell im Aufbau befindlichen Studiengang „Intermedia­les Design“ eine Professur für „Hypermedia: Interaktive und vernetzte Systeme“ aus. Hannes Hoelzl lehrt als Dozent für „Hybrid Sound Composition“ am „Institut für Musik und Medien“ der Robert Schumann Hochschule Düsseldorf, das im Januar 2011 mit „Interface“ eine zweitägige „Werkstatt für experimentelle Sound-Art“ an der Schnittstelle zu „Live-Art und Performance“ veranstaltete, die sich in erster Linie an junge Künstler aus dem Bereich von „Konzepten zu soundbasierter Kunst“ richtete.

Zahllose weitere Beispiele ließen sich nennen. Sie alle belegen, in welcher Breite inzwischen verschiedenste Formen der computergestützten Verknüpfung von Ton und Bild produziert, präsentiert, dokumentiert, archiviert, doziert und studiert werden. Längst hat dieser Trend das Ausmaß einer Massenerscheinung angenommen. Zwar treten viele intermediale Ansätze bis heute kaum in den traditionellen Konzertforen der Rundfunkanstalten, Philharmonien und Opernhäusern in Erscheinung. Doch haben sich parallel dazu längst alternative Szenen entwickelt, mit eigenen Orten, Veranstaltungen, Festivals, Publikumskreisen, Initiativen, Vereinen, Wettbewerben, Ausschreibungen, Preisen, Publikationen und Ausbildungseinrichtungen. Der Trend zur Bebilderung und Visualisierung von Musik ist damit gleichbedeutend mit einem Trend weg von den etablierten Veranstaltern und ihren eingefahrenen Konzertritualen, herkömmlichen Formaten und Foren der Präsentation, wie er schon in den sechziger und siebziger Jahren bei der Entstehung der Off-Kulturen und Freien Szenen zu beobachten war.

Was in der Summe des Musiklebens wie eine Massenflucht wirkt und den Verdacht aufkommen lässt, immer mehr Komponisten wichen aus Angst vor der angeblichen Inhaltsleere der bloßen Musik immer stärker in medial vermittelte Bildwelten aus, erweist sich dagegen in den Ansätzen von Jens Brand, Orm Finnendahl und Michael Beil jeweils als die individuelle Umsetzung einer bestimmten computergestützten Verbindung von Bild und Ton in Konzeptkunst, gelenkte Improvisation und fixierte Komposition. Keiner von diesen drei Künstlern hat „Angst vor der Musik“. Doch alle zeigen sich fasziniert von den Möglichkeiten der neuen Medien und dem damit verbundenen Reiz, sich mit aktuell dominierenden Produktions- und Kommunikationsmitteln künstlerisch in einer Weise auseinanderzusetzen, die vielleicht gestattet, zumindest in Nuancen auch Neuland zu betreten. So erweist sich der gegenwärtig immer vielfältiger werdende Trend zur Visualisierung und Bebilderung der an sich unsichtbaren Musik letztlich als eine Erscheinung unter zahllosen anderen Parallelentwicklungen, die schon seit Jahrzehnten zur immer stärkeren Ausdifferenzierung der neuen Musik in verschiedenste Sparten, Untersparten, Unter-Untersparten und Stilistiken beigetragen haben und weiter beitragen.

Schließlich gilt für alle Musik der Vergangenheit und Gegenwart: Das Auge hört mit. Für diese Feststellung bedarf es zwar nicht der Fülle aktueller Bild-Musik-Synthesen, doch mag deren zunehmende Präsenz die Dringlichkeit einer sowohl historischen als auch stilistischen Umschau unterstreichen. Auch das traditionelle Konzert ist kein reines Hörereignis, sondern ein Gruppenerlebnis mit Raumerfahrung, Gesichts-, Wärme- und Geruchs­eindrücken. Dies in Erinnerung zu rufen, ist heute vielleicht nötiger denn je, wo die meisten Menschen Musik überhaupt nicht mehr live im Konzert erleben, sondern nur noch über Radio, Tonträger, Internet, wobei sie diese Medien zumeist nicht zum konzentrierten Hören nutzen, sondern als Begleitung zu allen möglichen Gelegenheiten und Verrichtungen zu Hause oder unterwegs. Das über Lautsprecher technisch reproduzierte Abbild von Musik wird für immer mehr Menschen zur einzigen Erscheinungsform von Musik. Dabei modulieren sich die beliebigen Kontexte der allzeit und überall möglichen Rezeption von Musik unweigerlich als rezeptiver Hintergrund in das Gehörte hinein, was nur deswegen möglich ist, weil dem Hören technisch reproduzierter Musik zuvor all die anderen optischen, haptischen und olfaktorischen Sinneserfahrungen amputiert wurden, die Live-Musik sonst zu einem ganzheitlichen Erlebnis machen. Insofern wären die Trends zur Visualisierung, Bebilderung und inhaltlichen Aufladung der neuen und alten Kunstmusik eine bewusste und angemessene Reaktion auf das veränderte Rezeptionsverhalten und die schwindende Akzeptanz des traditionellen Konzerts.

Doch bleibt fraglich, ob sich dem beschleunigten und zerstreuten Medienkonsum wirklich damit begegnen lässt, dass Musik zum multimedialen Ereignis erweitert und Hören durch das Multitasking mehrerer Sinnesbereiche ersetzt wird? Hat Musik nicht nach wie vor ihre größte Wirkungschance darin, dass sie die Aufmerksamkeit auf eine einzige Sinneswahrnehmung fokussiert? Wäre also nicht gerade mediale Reduktion und Selbstbeschränkung das Gebot der Stunde? Immerhin vermag auch ein einziger existentiell konzentrierter Sinn den ganzen Menschen in seiner Weltorientierung anzusprechen. Vielleicht wächst dem traditionellen Konzert gerade deswegen in dem Maße eine neue Bedeutung zu, in dem der Medienalltag unsere Sinne zerstreut?

Die Ambivalenz der Erscheinungen verbietet einseitige Parteinahmen für oder gegen die Entwicklung weg vom traditionellen Konzert sowie für oder gegen mögliche Rückbesinnungen auf dasselbe. An den technischen Möglichkeiten des Computers naiv sich berauschende Fortschrittsphantasien sind ebenso unangebracht, wie die unter Ästheten vielfach verbreitete Medienskepsis und Technikfeindlichkeit. Schließlich hat sich noch jede Zeit für ihre Musik die dafür nötigen Instrumente geschaffen. Warum sollte dies unter den veränderten technologischen Rahmenbedingungen zu Beginn des einundzwanzigsten Jahrhunderts anders sein? Ebenso unnötig sind Parteinahmen für oder gegen den Einsatz der Digitaltechnologie und deren Folgen. Denn die eine Entwicklung schließt die andere nicht aus. Vielmehr scheinen sich beide wechselseitig zu bedingen. So befördert die Starre des konventionellen Konzertbetriebs dessen Sprengung durch intermediale und interaktive Schnittstellen mit anderen Kunstsparten und Sinnesbereichen. Umgekehrt liefert die zunehmend dissoziierte Wahrnehmung im Zuge der Vielstimmigkeit des multimedial überfrachteten Alltags das beste Argument für die musikalische Konzentration auf den herkömmlichen Konzertrahmen. Dazu abschließend noch einmal Orm Finnendahl:

Ich erlebe sehr oft, dass Dinge polar gegeneinandergesetzt werden. So werden meine Musik und Musikausübung mit Technologie identifiziert: „Ja der Finnendahl, das ist der Mensch, der immer mit den Computern und der Elektronik und mit den Lautsprechern arbeitet.“ Für mich ist es aber unglaublich wichtig und ein notwendiger Bestandteil der Aufführung, dass es Interpreten gibt, die agieren und eine Identifikationsfläche für das Publikum darstellen. Ohne Interpreten wäre meine Musik beim besten Willen nicht denkbar. Sie spielen keine marginale Rolle, sondern sind das Zentrum einer Aufführung, unabhängig davon, dass für mich Technologie ganz wichtig ist und selbstverständlicher Bestandteil der Musik.

Das muss man immer wieder betonen, weil die Gefahr groß ist, dass Technologie antagonistisch zu den Interpreten gesetzt wird und man das Gefühl hat, das eine schließt das andere aus, was aber für mich überhaupt nicht der Fall ist. Ich sehe natürlich Unterschiede zwischen beidem, und diese Unterschiede werden auch inszeniert und sind ein wesentlicher Bestandteil der Konzertsituation. Aber das bedeutet nicht, dass die Musiker in irgendeiner Form überflüssig wären und nicht tatsächlich ein zentraler Agent in dem ganzen Geschehen. Insofern glaube ich nicht, dass das Konzert tot ist. Ich glaube vielmehr, dass es in dieser Situation sogar irgendwann einmal wieder ungemein populär werden kann, Musik isoliert“ oder „rein“ zu erleben, das kann ich mir sehr gut vorstellen. Doch meine entgegengesetzte Reaktion und mein Vorwurf gegenüber den bisherigen Institutionen ist, dass unabhängig davon, ob das reine Konzert möglicherweise immer seine Daseinsberechtigung behalten wird oder nicht, es natürlich im Kontext gesehen wird. Und wenn meine Lebensrealität sehr weit von dieser Konzertsituation entfernt ist, dann wird diese als eine Spezialsitua­tion wahrgenommen und erlebt. Dabei hängt es natürlich von der Perspektive und von der Einstellung des Komponisten oder Urhebers ab, ob er sagt, ich schaffe jetzt in einer Konzertsituation eine spezielle Situation und sehe das gerade als eine Qualität des Konzerts, oder ob er genau anders herum sagt, da flüchtet jemand in eine heile Welt, die eigentlich historisch ist und nicht mehr existiert. Ich persönlich tendiere dazu – das liegt wahrscheinlich an meiner ganzen ästhetischen Grundhaltung –, dass dieser Situationswechsel selber thematisiert werden muss und bei der Herstellung des Stücks irgendwie eine Rolle spielen sollte. Man sollte sich diese Situation, in der man sich befindet, auch bewusst machen, denn sie schwingt im Hintergrund sowieso mit.

Anhang

1 Paul Valéry, Monsieur Teste (1896), deutsch als: Herr Teste, übersetzt von Max Rychner, Frankfurt: Suhrkamp, 1990, 20.

2 Vergleiche Gottfried Michael Koenig, „Notizen zum Computer in der Musik“, in: The World of Music: Quarterly Journal of The International Music Council (Unesco), 9. Jahrgang 1967, Heft 3, 3.

3 Vergleiche dazu auch die Beiträge in den letzten Heften der MusikTexte, von Claus-Steffen Mahnkopf in MT 124 und 126, von Johannes Kreidler, Patrick Frank und Reinhard Oehlschlägel in MT 125, von Volker Straebel in MT 126, sowie die Diskussion von Kreidler, Mahnkopf und Björn Gottstein in MT 128.

4www.eikones.ch/start.html, abgerufen am 24. Juli 2009.

5Vergleiche Rainer Nonnenmann, „Das Konzert ist tot – Es lebe das Konzert! Öffnungen und Perspektiven der Musik im „Iconic turn“ des Digitalzeitalters“, in: Musik & Ästhetik, 14. Jahrgang 2010, Heft 56, 26–43.

6„Häuser, die mit Autos sprechen – Wie sieht unsere Welt in 40 Jahren aus? Der Industriephysiker und Buchautor Ulrich Eberl wagt eine Prognose“, in: Die Zeit, Ausgabe 14, vom 31. März 2001, 77. Vergleiche auch Ulrich Eberl, Zukunft 2050, Weinheim: Beltz & Gelberg, 2010.

7Helmut Rösing, „Zur medialen Konstruktion musikalischer Lebenswelten. Eine kritische Bestandsaufnahme“, in: Derselbe und Thomas Phleps (Herausgeber), Populäre Musik im kulturwissenschaftlichen Diskurs (= Beiträge zur Popularmusikforschung Band 25/26), Karben: CODA, 2000, 15.

8Golo Föllmer, „Towards a New Gesamtkunstwerk? Total Sampling, Re-Bricolage und Media-Hopping im Netz“, in: Konzert – Klangkunst – Computer: Wandel der musikalischen Wirklichkeit (Veröffentlichungen des Instituts für Neue Musik und Musikerziehung Darmstadt Band 42), Mainz: Schott 2002, 23.

9Die im Folgenden nicht weiter nachgewiesenen Äußerungen der drei Komponisten stammen aus Gesprächen des Autors mit Jens Brand vom 8. Dezember 2010, mit Orm Finnendahl vom 14. November 2010, und mit Michael Beil vom 2. Dezember 2010. Alle Gespräche fanden in Köln statt.

10Bei den Donaueschinger Musiktagen 2011 ist eine Klanginstallation geplant.

11Dokumentiert ist diese „Mixed-Media-Installation mit modifiziertem Computer/gehacktem iPod/Online Store“ auch in Jens Brand, BOOK – Katalog zur Ausstellung im Edith-Ruß-Haus für Medienkunst Oldenburg, herausgegeben von Sabine Himmelsbach, Heidelberg: Kehrer, 2009, 52–55 und 72–75.

12Sabine Breitsameter, „Kunst – Kommunikation – Spiel: Musik im Zeitalter der digitalen Netzwerke“, in: Kunst und Künstlichkeit – Zum Verhältnis von Technologie und künstlicher Kreativität. Kolloquium des Dresdner Zentrums für zeitgenössische Musik 4.–5. Oktober 2001 im Rahmen der 15. Dresdner Tage der zeitgenössischen Musik, herausgegeben von Frank Geißler, Saarbrücken: Pfau, 2003, 73.

13Vergleiche auch Orm Finnendahl, „Einige Gedanken zur Digitalisierung … und ihre Auswirkungen auf die neue Musik“, in: Positionen 84, August 2010, 27–29.

14Ähnliche Verfahren wurden schon mit der analogen Tonbandtechnik kompositorisch nutzbar gemacht, allen voran Alvin Luciers berühmtes Konzeptstück „I am sitting in a room“ für Stimme und Tonband (1969). Doch nimmt dieses Phänomen im Zuge der digitalen Speicher- und Wiedergabemedien quantitativ und qualitativ neue Dimensionen an. Vergleiche Rainer Nonnenmann, „Musik des immerwährenden Imperfekts: Produktion von Musik durch Reproduktion ihrer selbst“, in: Neue Zeitschrift für Musik, 169. Jahrgang, 2008, Heft 4, 54–58.

Diesem Text liegt eine Sendung zugrunde, die am 31. Januar 2011 zum Thema „Digitalisierung und Musik“ in der Sendereihe „JetztMusik“ im zweiten Programm des Südwestrundfunks (Redaktion Bernd Künzig) ausgestrahlt wurde.