MusikTexte 103 – November 2004, 53–63

Musik an den Rändern und Bruchstellen

Ein Email-Interview mit Harald Muenz

von Rainer Nonnenmann

Zwischen März und November 2003 wechselten der Musikwissenschaftler Rainer Nonnenmann und der Komponist Harald Muenz per Email zahlreiche Fragen und Antworten, mal in schneller Folge an ein und demselben Tag, mal im Abstand einiger Tage oder Wochen. Die schriftliche Form der Kommunikation sollte etwas von den spontanen Reaktionsmöglichkeiten eines Gesprächs bewahren und zugleich einen höheren Grad an Überlegung und fundiertere Aussagen ermöglichen. Auf diese Weise entstand ein längeres „Email-Interview“, das abschließend von den Beteiligten redaktionell bearbeitet und leicht gekürzt wurde.

Zunächst möchte ich kurz die wichtigsten Stationen deines bisherigen Werdegangs anführen. 1965 in Schwäbisch Hall geboren, hast du früh zu komponieren begonnen und bist 1986 zum Tonmeisterstudium nach Detmold gegangen. Es folgten 1988 das Kompositionsstudium bei Krzysztof Meyer an der Kölner Musikhochschule sowie – nach dem Diplom 1993 – der Elektronischen Musik bei Hans Ulrich Humpert und an der Hochschule in Stuttgart ein Aufbaustudium bei Helmut Lachenmann von 1994 bis 1997. Ab 1998 hast du dann noch bei Georg Heike Phonetik am Institut für Phonetik der Universität Köln studiert. Mit diesen Stationen sind bereits die wichtigsten Aspekte angeschnitten, über die ich dich im folgenden befragen möchte: die Rolle von Technik, Elektronik und Computer beim Komponieren und Aufführen von Musik, das kompositorische Handwerk und Selbstverständnis als Komponist, die Arbeit mit der Lautlichkeit von Sprache und Sprachen, die Erweiterung und das Ende der herkömmlichen instrumentalen Konzertmusik beziehungsweise das Verhältnis zur musikalischen Tradition, sowie die Idee akustischer Situationen und der Selbstwahrnehmung des Hörers.

Wo liegen die Anfänge deiner musikalischen Sozialisa­tion? Wie kamst du zur Musik, zum Komponieren und schließlich dazu, ein Tonmeisterstudium aufzunehmen? Inwiefern haben die Erfahrungen dieser Ausbildung deinen Wunsch bestärkt, Komposition zu studieren?

Ich bin in einer schwäbischen Kleinstadt groß geworden und habe recht früh angefangen zu komponieren. In meiner Familie gibt es weder Berufsmusiker noch Akademiker, aber meine Eltern haben meine Musikausbildung unterstützt, soweit es die Situation zuließ. In meiner Heimatstadt Künzelsau, die noch nicht einmal eine Zuganbindung hatte, waren die Möglichkeiten zur Instrumentalausbildung sehr begrenzt, und sowohl mein Klarinetten- als auch mein Violoncellounterricht endeten damals durch den Weggang des jeweils einzigen Lehrers. Wenigstens hatte ich meine ganze Jugendzeit hindurch kontinuierlichen, wenn auch mäßigen Klavierunterricht. Aber meine beiden ersten Klavierlehrer, die ich ab sechs Jahren hatte, schrieben selbst in bescheidenem Rahmen Stücke. Das führte dazu, daß ich mit elf bis zwölf Jahren „so etwas auch machen“ wollte. Zum Leidwesen meiner Klavierlehrer trat dann das Instrumentalüben zugunsten eigener Schreibversuche in den Hintergrund.

Ein Glücksfall war, daß die „Jeunesses musicales“ im nahegelegenen Weikersheim Kurse „jugend komponiert“ anboten, an denen ich von 1978 bis 1983 regelmäßig teilnahm. Auf diese Weise bekam ich wenigstens zweimal im Jahr eine Woche lang kompositorische Hilfestellung, mit der meine Musiklehrer in Künzelsau überfordert waren. Dort konnte man auch kurze Stücke und Instrumentationsübungen praktisch mit Musikern ausprobieren. 1980 gab es einen Wettbewerb des Verbands deutscher Musikschulen für junge Komponisten, zu dem ich mein Sextett „Idée s’augmentante“ von 1980 einreichte, das einen ersten Preis auf Bundesebene erhielt. Die Uraufführung in Aachen, nebst Mitschnitt des Westdeutschen Rundfunks und Partiturdruck beim Bosse-Verlag beeindruckten mich so sehr, daß ich schon mit fünfzehn Jahren den Wunsch hegte, Komponist zu werden. Spätestens als 1982 mein Duo für Blockflöte und Klavier bei den „Tagen für Neue Musik“ in Hannover uraufgeführt wurde, und Milko Kelemen interessiert war, mich in seine Stuttgarter Kompositionsklasse aufzunehmen, schien die Ent­scheidung im Grunde besiegelt. Ein Jungstudium bei Kelemen scheiterte damals aber aus formalen Gründen, weil man Komposition in Stuttgart grundsätzlich nur als Zweitstudium belegen kann und die Hochschulleitung zu keiner Ausnahmeregelung bereit war.

Um erst einmal den Fuß in eine Musikhochschule zu bekommen, bewarb ich mich nach dem Abitur 1984 parallel in Stuttgart für Schulmusik und in Detmold für den Studiengang Tonmeister. In Stuttgart fiel ich wegen der Gesangsprüfung durch, im Lippischen bestand ich. „Tonmeister“ in Detmold, das meinte keine technische Ausbildung, sondern ein sehr fundiertes Musikstudium. Abgesehen von Schlagtechnik waren Aufnahmeprüfung und Stundenplan mit denen der Dirigierstudenten deckungsgleich: Das Studium schloß acht Semester das Hauptinstrument Klavier, sämtliche Theoriedisziplinen, Partiturspiel und eine allgemein gefürchtete Gehörbildung ein. Die technischen Disziplinen spielten demgegenüber eine eher untergeordnete Rolle. Ich dachte, dieses interessante Studium in einem Grenzbereich wäre erstmal eine gute Grundlage, um einen berufsqualifizierenden Abschluß zu erlangen.

Nach dem Zivildienst fing ich 1986 an der Detmolder Hochschule mit der Tonmeisterei an und hatte außerdem Kompositionsunterricht bei Martin Redel, den ich von den Kursen der Jeunesses musicales her kannte. Bei ihm war tonsetzerische Akribie angesagt, und „Experimente“ galten als tabu. Musik des zwanzigsten Jahrhunderts bekam man in Detmold fast ausschließlich übers Radio zu hören. Durch Kontakte mit Komponistenkollegen in Großstädten stellte ich fest, wie sehr diese Isola­tion meine Entwicklung lähmte. Was ich in dieser Zeit zu Papier brachte, wurde immer verkrampfter und fiel an Originalität und Frische hinter das zurück, was ich vor Studienbeginn komponiert hatte.

Auch im Hinblick auf das Tonmeisterstudium gab es Ernüchterung. Das Faszinans für akustische Kunstformen, das sich bei mir als eingefleischtem Radiohörer verdichtet hatte, fand in der Ausbildung kein Äquivalent, und die Perspektive, künftig lediglich den musikalischen Erzeugnissen anderer zu klanglicher Perfektion zu verhelfen, fand ich vollkommen uninteressant. Außerdem wurde deutlich, daß es für Klassiktonmeister in Zukunft kaum noch feste Stellen geben würde. Nach vier Semestern verließ ich schließlich ziemlich frustriert das Lipperland.

Warum bist du dann zu Krzysztof Meyer nach Köln gegangen, der mit der Musik, die du später gemacht hast, reichlich wenig zu tun hat? Meyer ist ja nicht gerade als Avantgardist und besonders experimentierfreudig bekannt, sondern eher der konservativ-modernen polnischen Schule zuzurechnen und hat – soweit ich das sehe – stets an einem expressiven „Tonsatzkomponieren“ festgehalten. Inwieweit entsprach deine Entscheidung, bei Meyer zu studieren, deinem damaligen ästhetischen Vorstellungsvermögen?

Als ich von Detmold weg wollte, spielte die Frage „wohin?“ nicht die Hauptrolle. Entscheidend war für mich, in eine Großstadt mit entsprechendem kulturellem Ange­bot zu kommen, um endlich frei atmen zu können. Eine Zeitlang war damals Luigi Nono als Kompositionslehrer in Berlin im Gespräch, und ich bewarb mich. Aber als sich Nono kurz darauf, im Juni 1988, im Krach von der Hochschule der Künste trennte, zog ich meine Bewerbung zurück. Hans-Peter Reutter, damals Student bei Ligeti in Ham­burg, vermittelte mir im selben Jahr zwei Gast­be­su­che in dessen Hamburger Kompositionsklasse. Ligeti stand kurz vor der Emeritierung und konnte keine neuen Schüler mehr aufnehmen, aber er empfahl mir als Lehrer aus­drücklich Krzysztof Meyer, der gerade erst an die Kölner Hochschule berufen worden sei. Ich kannte Meyer überhaupt nicht und vertraute auf Ligetis Rat. So verschlug es mich statt nach Berlin oder Hamburg nach Köln.

Bis dahin hatte ich bestimmte praktisch-musikalische Erfahrungen nicht machen können. Dazu gehörte der komplette Bereich der Elektroakustischen Musik, der paradoxerweise im Tonmeisterstudium überhaupt nicht vorgekommen war. Dafür wußte ich gut über die traditionelle Symphonik und Kammermusik Bescheid, zumal ich im Lauf der Jahre Hunderte von Kassetten aus dem Radio aufgenommen, viel angehört und Partituren gelesen hatte. Auch vokal kannte ich mich einigermaßen aus, weil ich als Jugendlicher in verschiedenen Chören gesungen hatte. Über avantgardistische Musik wußte ich vor meiner Kölner Zeit ziemlich wenig und hatte erheblichen Nachholbedarf. Zwar hatte ich seit meiner Jugendzeit immer wieder auch experimentelle oder konzeptuelle Einfälle gehabt, aber ich wußte nicht so recht, daß und wo „so etwas“ existiert, geschweige denn, ob und wie man es notieren könnte. Letztendlich hatte ich es bis dato meist als momentane Anwandlungen verdrängt.

Ich wollte erst einmal raus aus Detmolds lähmendem Muff, war glücklich, daß Meyer mich nehmen wollte und es in Köln, das den Ruf eines uneingeschränkten Mekkas der Neuen Musik genoß, mit der Aufnahmeprüfung an der Hochschule sofort klappte. Meyer war immer sehr freundlich und tolerant, und obwohl oder gerade weil wir oft sehr gegensätzliche Standpunkte einnahmen, habe ich bei ihm viel gelernt. Man konnte ästhetische Konzepte vertreten, die von den seinen abwichen, immer zeigte er sich offen für Vorschläge und Anregungen und bewies großen Respekt vor der Persönlichkeit seiner Schüler. Das hat mir sehr geholfen, künstlerisch zu mir selbst zu finden. Mit einem phänomenalen musikalischen Gedächt­nis begabt, war Meyer über die Arbeit seiner Kollegen hervorragend informiert. Auf meine Initiative ging damals eine regelmäßige Analysereihe in der Klasse zurück: Jeder referierte in wöchentlichem Turnus über eine wichtige Komposition nach 1945, wobei sich der Bogen von Webern und Messiaen, Stockhausen, Nono, Boulez bis Cage oder Feldman spannte. Wir waren eine kontaktfreudige Kompositionsklasse, die zwei- bis dreimal im Semester Austauschkonzerte mit anderen Hochschulen unternahm, unter anderem mit Berlin, Freiburg, Hamburg und Leipzig.

Außerdem schaute ich in Köln häufig im Unterricht von Johannes Fritsch vorbei, der eine ganz andere Ästhetik vertrat als Meyer. Ich kann sagen, daß mich der Kontakt mit Fritsch und seinen Studenten in dieser Hinsicht damals stark beeinflußt hat. Bei Meyer konzentrierte ich mich auf kompositionstechnische Fragen, vor allem Probleme des makrozeitlichen Verlaufs und der Instrumentenbehandlung. Daneben hatte ich in Klaus Oldemeyer einen Klavierlehrer, der begriff, was ich vom Instrumentalunterricht brauchte: Anhand von Kammermusikspiel und Liedbegleitung habe ich bei ihm viel darüber gelernt, wie man mit MusikerInnen arbeitet.

1989 besuchte ich das Seminar „Quantifizierte Musik“ bei Klarenz Barlow. Seine Art, mit Musik und dem Musikbegriff umzugehen, hat mich tief beeindruckt, und ich schreibe ihm die Initialzündung dafür zu, daß ich den Computer einsetze. Meine erste algorithmische Komposition, „deChiffrAGE“ für blattlesenden Sprecher und zufallsgesteuerten Live-Texttransformator von 1993, geht sicher mit auf diesen Input zurück. Ich habe also während meiner Kölner Hochschulzeit vielseitige Impulse aufgenommen, und natürlich tat Kölns lebendige Szene ein übriges.

Ich finde es bemerkenswert, daß deine Entwicklung als Komponist, der heute bevorzugt mit den Möglichkeiten des Computers arbeitet und die herkömmliche Instrumentalmusik für ein Auslaufmodell hält, bei solider kompositorischer Handwerklichkeit und „traditionellen“ Orchesterkompositionen ihren Anfang genommen hat. Deine „tre schizzi per orchestra“ von 1984/85, die du heute etwas distanziert als „Jugendwerk“ bezeichnest, wurden seinerzeit immerhin vom Berliner Philharmonischen Orchester im Rahmen des Forums junger deutscher Komponisten für Orchestermusik der GEMA-Stiftung in der Berliner Philharmonie uraufgeführt. In Material, Gestus, formaler und motivischer Dichte erinnern sie an die frühen atonalen Orchesterstücke der Zweiten Wiener Schule. Während knapp sieben Minuten finden sich seufzende Celli und einsame Flötenkantilenen in effektvollen Klang-, Tempo- und Dynamikkontrasten neben wuchtigen Blechbläserfanfaren, an Bruckner erinnernden Tutti-Unisoni und katastrophischen Trommelschlägen. Es ist also noch kein von traditioneller Idiomatik freies, eigenständiges Werk, aber doch eines, das für einen Neunzehnjährigen ganz beachtlich ist und dein Werkverzeichnis heute zu Recht eröffnet.

Vorstellbar wäre ja auch gewesen, daß du als gleichermaßen an Musik und Technik interessierter junger Mensch dir gar nicht erst die Grundlagen der Instrumentalmusik angeeignet hättest, sondern direkt zu neuen Klangformen gestoßen wärest, etwa mit Hilfe von Synthesizer und Elektronik. An einen für musikalische Zwecke brauchbaren Home-Computer war Mitte der achtziger Jahre ja noch nicht zu denken, wie ihn dann wenige Jahre jüngere Komponisten von Anfang an vorfanden.

Nein, daran habe ich in meiner Jugendzeit in Künzels­au wirklich nicht denken können. Ich besaß zwei Kassettenrekorder, und meine Eltern gaben mir ihr altes Spulentonbandgerät. Damit habe ich in bescheidenem Rahmen herumexperimentiert und „Hörspiele“ produziert. Das machte viel Spaß, aber „Tonbandmusik“ ist nicht entstanden, was wohl primär daran lag, daß ich keine echte Schnittmöglichkeit hatte.

Natürlich habe ich mich auch mit der deutschen Traditionslinie von Bach über Beethoven und Brahms zu Schönberg und Webern beschäftigt. Vor allem verschlang ich französische Orchesterpartituren der vorigen Jahrhundertwende, deren Klangreichtum mich restlos faszinierte, was für ein Landkind ziemlich exotisch war. Als Großstädter kann man sich nicht ausmalen, wie kompliziert es weit abseits von Musikinstitutionen und Bibliotheken ist, sich Zugang zu solchen Noten zu verschaffen! Trotzdem ergatterte ich Orchesterpartituren von Strauss’ „Don Juan“ und „Till Eulenspiegel“, Strawinskys „Petruschka“ und „Feuervogel“ und vor allem sehr viel Ravel und Debussy, und lernte sie autodidaktisch ganz gut kennen, war wie elektrisiert von der Harmonik und der raffinierten Orchesterbehandlung.

In den „tre schizzi per orchestra“ ist davon einiges zu spüren: Obwohl die Gestik der Orchesterskizzen an die Zweite Wiener Schule erinnert, so hat die Art, wie sich beständig die Klangfarben ändern, doch etwas sehr Französisches. Es gibt permanente Lichtwechsel und mit den Erfahrungen von heute würde ich sogar an manchen klangfarblichen Abstufungen darin gerne noch einmal ansetzen. Diese Vorliebe für Klangvaleurs kommt noch 2000 in „… und weil die da in donaueschingen immer noch töne brauchen, hab’ ich sie ihnen halt hingeschrieben …“ für Klarinette, Violine, Gitarre und Klavier zum Tragen. Leider wird man vom Musikbetrieb schnell mit so beschränkten Etiketten wie „Elektroniker“, „Computerkomponist“, „Lautpoet“ oder „Klanginstallateur“ versehen. Ich gehe gern völlig unpuristisch an eine breite Spanne heterogener akustischer Materialien heran und habe immer noch Lust am traditionellen Instrumenta­rium. Der Computer ist im Sinn von „strumento“ lediglich ein „Werkzeug“ zur Manifestation klanglicher oder konzeptueller Ideen.

Den Titel deines Stücks „... und weil die da in donau­eschingen immer noch töne brauchen, hab’ ich sie ihnen halt hingeschrieben ...“ hast du von Hans-Joachim Hespos entlehnt, der sich im Zusammenhang mit seiner 1988 entstandenen Komposition „Vif-bi“ in dieser Weise äußerte, nachdem die Donaueschinger Musiktage ein Stück bei ihm in Auftrag gegeben hatten. Ich höre darin heitere Gelassenheit gegenüber dem bestehenden Musik- und Festivalbetrieb, der in Verbindung mit den großen Musikverlagen und der Plattenindustrie eben immer noch nach komponierten „Tönen“ verlangt, die man dann auf Anfrage eben halt mal „hinschreibt“, der aber neuere Klang- und Aufführungsformen nur am Rande berücksichtigt. Hespos macht deutlich, daß er herkömmliche Instrumentalmusik für einen Anachronismus hält. Und auch du selbst hast im Zusammenhang mit „deChiffrAGE“ die Auffassung vertreten, „instrumentale Konzertmusik der üblichen Machart sei längst an ihr Ende gekommen“.

Auch ich sehe das Hespos-Zitat so, daß für ihn herkömmliche Instrumentalmusik nicht mehr in Frage kommt. Andererseits – das mag teilweise paradox klingen – sehe ich als Künstler die Pflicht, mich mit solchen Traditionslinien in meiner Arbeit bewußt auseinanderzusetzen. Daß ich „die herkömmliche Instrumentalmusik für ein Auslaufmodell“ hielte, wäre daher etwas verkürzt. Die Frage ist, wie man sich ihr nähert. Ich denke weder akademisch, noch an den berüchtigten „Gemischtwarenladen“, wo man sich nach Belieben bedient. Man sollte die Traditionslinien gut kennen und sich in individueller Weise dazu stellen. Ich denke allerdings, daß heute vom unbeweglichen Neue-Musik-Betrieb einfach aus Denkfaulheit und merkantilen Gründen heraus eine überalterte Vorstellung davon, was Musik sei, perpetuiert wird. Dieses Weiterwursteln ist nicht substantiell untermauert, sondern der Patient liegt mit irreparablen Hirnschäden im Koma und ist zum Weitervegetieren verurteilt. Es geht also gar nicht darum, irgendwelche Musikinstrumente abzuschaffen, ich versuche, dem dummen bis verdummenden Umgang mit Musik als Kunstform etwas entgegenzusetzen.

Bei welchen musikalischen Traditionslinien, einschließlich der historischen Avantgardebewegungen, siehst du heute für dein eigenes Instrumentalschaffen Kontinuitäten und Möglichkeiten zu produktiver Fortsetzung? Inwiefern spielt hier auch John Cage eine Rolle, dessen Namen du im Titel von „deChiffrAGE“ unverkennbar beschwörst?

Die Musik der sogenannten „New York School“ spielt für mich eine wichtige Rolle, was die Herangehensweise an Musik angeht. Diese Komponisten präsentieren sich nicht als vom Himmel gefallene „Originalgenies“, sondern machen erstmal ihre künstlerische Arbeit: Sie suchen nach originellen, experimentellen Lösungen.

Ich hielte es für anachronistisch, mich in eine einzige vorherrschende Traditionslinie einzuordnen. Aufgrund meiner musikalischen Sozialisation kann ich nicht behaupten, mit der „deutschen Leitkultur“ (Bach-Beethoven-Brahms-Schönberg) groß geworden zu sein. Von jemandem, der wie ich akademisch Komposition studiert hat, wird erwartet, daß er sich dieser Tradition fügt. Daher beäugt mich andererseits die Klangkunstszene als Eindringling aus der komponierten Musik. Ich erhalte wertvolle Impulse aus beiden Richtungen, gerade diesen „Graben“ kreativ zu überwinden empfinde ich als eine spannende Herausforderung. In „ope-seynsu“ habe ich etwa versucht herauszufinden, wie eine „komponierte Installation“, die den Anspruch auf gestalteten Zeitverlauf nicht aufgibt, aber auch nicht Konzertmusik ist, aussehen könnte.

Ich suche am liebsten Ränder und Bruchstellen auf, an denen Hörer und vermeintliche „Kenner“ (mich selber eingeschlossen!) zu fragen beginnen, ob das noch Musik sei. Natürlich kann heute – nach Cage – buchstäblich alles zum Element musikalischer Komposition werden, doch das bleibt in der Praxis leider eine uneingelöste Vision. In vielen meiner Arbeiten – gerade für den Konzertsaal – stellt es deshalb eine wichtige Triebfeder dar, unseren vermeintlich gesicherten Musikbegriff immer wieder neu in Frage zu stellen. Mein Hauptvorwurf an den Musikbetrieb und seine OrganisatorInnen ist, daß man dort – aus zumeist kunstfernen Gründen – solch essentielle Fragen wie sie in Cages Stücken permanent aufgeworfen werden, gar nicht mehr stellen mag. Klar wird mal am Konsens gekratzt: Ein Westentaschenrevolutiönchen, das das System als Ganzes nicht erschüttert, darf schon stattfinden. Aber ich bin überzeugt, daß es in Kunst „ans Eingemachte“ gehen sollte, und dafür müssen die stillschweigenden Übereinkünfte darüber, was „gute Musik“ beziehungsweise Kunst im allgemeinen sein kann, aufgekündigt werden, damit wieder Fragen möglich sind. Ich plädiere gegen vorauseilendes Heischen nach Konsens und für diskursive Verflüssigung. Dazu gehört, Traditionen zu kennen, aber auch, vermeintlich eherne Grundsätze, immer wieder zu hinterfragen.

Zentral für deine jüngeren Instrumentalwerke ist die Konzentration auf Klanglichkeiten. „franSung“ von 1997 und das 2000 entstandene Stück „... und weil die da ...“ sind genuine Klangkompositionen und in vielen Punkten verwandt. In beiden Stücken dienen Tonhöhen weniger der diastematischen oder gar thematisch-motivischen Konstruktion, sondern primär der charakteristischen Färbung der Instrumentalklänge, obwohl „... und weil die da ...“ auf geräuschhafte Klänge weitgehend verzichtet und – wie der Titel schon sagt – fast ausschließlich aus „Tönen“ besteht. Auch rhythmische Differenzierungen erscheinen sekundär und Tonrepetitionen dienen hauptsächlich – etwa im Fall von Gitarre und Klavier – dem Erhalt sonst verlöschender Klänge oder ihrer entsprechenden Modifikation durch die schnelle Folge von Ein- und Ausschwingvorgängen. Auch dynamisch sind die Stücke sehr einheitlich und zurückgenommen. „... und weil die da ...“ erscheint mir als fortlaufendes Klangband, bei dem sich die Instrumente nacheinander leise in den Klang der anderen einschleichen und so die Färbung fließend von innen heraus verwandeln.

Ich möchte mich nicht geschmäcklerisch auf „schöne Klangfarben“ kaprizieren, sondern versuche, das Klang­ereignis „als solches“ freizulegen und wahrzunehmen, wie sich Klang ereignet und verändert, anstatt Musik als Vehikel für andere Inhalte zu nehmen. Deswegen reduziere ich die Ereignisdichte in „… und weil die da …“ so stark; nur in der Mitte des Stücks scheint das Gegenteil auf, ich beginne, Töne zu „komponieren“, was dann jäh abgebrochen wird.

Am Anfang von „... und weil die da ...“ sprechen Gitarrist und Pianist die Worte „keine Sprache“, die erst ganz am Schluß des Stücks durch die Worte „ist Musik“ zu einem kurzen Aussagesatz vervollständigt werden. Das ist paradox, weil ausgerechnet die Worte „keine Sprache“ wirklich gesprochen werden, und die Fortsetzung „ist Musik“ erst in dem Moment erfolgt, in dem die Musik bereits verklungen ist. Zugleich ist die Eingangsbehauptung jedoch richtig, da im Anschluß daran ja wirklich Musik und nicht Sprache zu hören ist. Hinzu kommt, daß das Lautmaterial der Eingangsworte mitten im Stück wieder aufgegriffen wird, wenn auch gedehnt und in umgekehrter Reihenfolge. Das Satzfragment wird unverständlich und verliert seine außermusikalische Bedeutung, das heißt, wird semantisch so weit neutralisiert, daß tatsächlich „keine Sprache“, sondern Musik zu hören ist.

Ich möchte das zum Anlaß nehmen und den Aussagesatz „keine Sprache ist Musik“ als Frage an dich als Komponist und Phonetiker in Personalunion zurückgeben: Sind Sprachen Musik, ist Musik eine Sprache? Immerhin wirken deine erwähnten Instrumentalstücke zuweilen „versprachlicht“ und es gibt von dir einige reine Sprachkompositionen, bei denen du auf Grundlage verschiedener ein- oder mehrsprachiger Texte in und mit Sprache komponierst. So zum Beispiel „deSperanto“ von 1995/96, das 1996 entstandene „parkfiguren“ und „schweigenderest“ von 2000/01. Einerseits arbeitest du mit reinem Sprachklang abgelöst von der Semantik und andererseits beziehst du über Stimmlage, Tonfall, Lautstärke, Akzente, Sprachmelodie und -tempo quasi semantische und oft ebenso bedeutungstragende Sprachmittel mit ein. Läßt sich Sprachklang also doch als Musik und umgekehrt Musik als Sprache hören, womöglich sogar verstehen? Welche Rolle spielen deine phonetischen Kenntnisse für dein Komponieren mit Instrumenten und Stimmen?

Es war ein Glücksfall, daß ich Georg Heike kennenlernte, den Meyer-Eppler-Schüler und damaligen Leiter der Phonetik an der Kölner Universität. Ich absolvierte bei seinem Schüler Georg Sachse phonetische Transkriptionskurse, um Sprechen in meinen Kompositionen präziser notieren zu können, und besuchte 1998 bis 2000 Heikes interdisziplinäre Seminare, die mich zur „Ästhetischen Phonetik“ brachten. Sie nutzt phonetische Methoden, um sich mit Sprache auf ästhetisch-klanglicher Ebene zu beschäftigen.

Den Satz „Musik ist eine Sprache“ würde ich so nicht unterschreiben. Ich hege Sprache gegenüber ein eher pessimistisches Kommunikationsmodell: „Gedacht“ ist noch nicht „formuliert“ ist noch nicht „gesagt“ ist noch nicht „übertragen“ ist noch nicht „gehört“ ist noch nicht „verstanden“ ist noch nicht „dechiffriert“. Nach dieser heiklen Kette ist es eher ein Glücksfall, wenn Kommunikation gelingt, oder wir zumindest diesen Eindruck haben. Und Musik „funktioniert“ noch viel schlechter.

Im Zusammenhang mit deiner Instrumentalmusik hast du einmal von „haptischer Präsenz“ der Klangfarben gesprochen. Die Vorstellung von der unmittelbaren „Greifbarkeit“ von Klängen, nicht zuletzt von Sprachklängen, bringt mich auf Helmut Lachenmann, der Musikhören ganz ähnlich als taktilen Vorgang, als „Abtasten“ klanglicher Strukturen beschrieben hat. Einen möglichen Einfluß Lachenmanns auf dein Schaffen sehe ich auch im Nahverhältnis von Musik und Sprache. Lachenmann hatte sich wie Schnebel und andere in den sechziger Jahren um eine konkret materiale Behandlung der Singstimme bemüht, bevor er die Auseinandersetzung mit dem Themenkomplex Sprache Anfang der neunziger Jahre im Rahmen von „Das Mädchen mit den Schwefelhölzern“ erneut aufgriff, also zu der Zeit, als du bei ihm studiert hast. Hinsichtlich der erweiterten Spiel- und Klangpraktiken, die zum Teil von Lachenmann entwickelt wurden, heute aber international und auf völlig unterschiedliche Weise in Gebrauch sind, würde mich interessieren, ob für dich Lachenmanns Ansatz einer „musique concrète instrumentale“ noch eine Rolle spielt, also der Versuch, in einem Klang die konkret mechanisch-energetischen Bedingungen seiner Hervorbringung freizulegen? Wo knüpfst du an Lachenmann an, wo grenzt du dich von seiner Musik ab und gehst über sie hinaus?

Obwohl Lachenmann mein wichtigster Lehrer war, ist mein Musikdenken nicht auf ihn fixiert. Meine innere Distanz zur „deutschen Tradition“ habe ich ja genannt. Während Lachenmanns Musik immer Konzertmusik bleibt, sind mir andere Aufführungssituationen ebenso wichtig. Ans „Ende von Geschichte“ glaube ich nicht, aber ich muß Klang nicht dauernd neu rechtfertigen wie die Nachkriegsgeneration. Deren achtbare Forderung, Musik von traditioneller Vorbelastung zu reinigen, kann ja nicht einfach seit sechzig Jahren unreflektiert fortbestehen. Durch Cage wurde das kompositorische Material auf alles „Denkbare und Undenkbare“, wie Heinz-Klaus Metzger formulierte, ausgedehnt; seit Cages Tod haben die Zustände medialer Dauerbeschallung weiter zugenommen. Als akustisch sensibilisierter Mensch reagiere ich auf solche technologischen Herausforderungen, die meine Alltagserfahrung unwillkürlich mitprägen. Das zu ignorieren wäre Weltflucht.

In „The SelfComposer“ gibt es gleich eine mehrfache Reaktion auf diese Situation: Der Computer wählt dort vorgefundenes Material, nämlich Probespielstellen für Oboe, zufällig aus, rekomponiert es und bringt es in Notenschrift auf einen Bildschirm, von wo es dann durch einen menschlichen Spieler vom Blatt (!) vorgetragen werden muß.

Rein synthetisiertes Material interessiert mich wenig, aber „musique concrète instrumentale“ ist ein historischer Stil. Ich habe einen anderen Zugriff auf „konkrete Klänge“. An Original-Tönen sprachlicher oder nichtsprachlicher Provenienz mag ich gerade, daß sie nicht „pur“ sondern „verschmutzt“, also assoziativ vorbelastet sind. Allerdings nütze ich nicht naiv die mitgebrachte Aura aus, sondern ziehe kompositorische Konsequenzen, indem ich an speziellen Qualitäten weiterarbeite. Das kann auch zusammen mit Instrumenten oder Stimmen geschehen, wobei ich oft Assoziationsräume erforsche, die ich als eine Art „akustischer Felder“ ähnlich den Bedeutungsfeldern einer Sprache umreiße. Das ist zum Beispiel in „schweigenderest“ der Fall, in dem fünf solcher Bereiche miteinander verkettet sind, die vom Ausgangsmaterial der Goebbelsrede am 18. Februar 1943 im Berliner Sportpalast herstammen und sich etwa mit den Etiketten „Publikumsreaktionen“, „Störungen“, „Zensur“, „Musik“ und „Semantik“ eingrenzen lassen.

In konzeptuellen Stücken wie „BeethovEnBloc“ versuche ich, direkt mit der Wahrnehmungsebene zu spielen. Die Haptik des Klangs ist hier nicht „Extrempunkt“ einer Skala, die vom Tonlosen ausgeht. Ich fragte mich, was die Wahrnehmung aus dem Überangebot an Information (sämtliche Sätze aller Beethoven-Symphonien überlagert) macht, wie das in etwas anderes, hoffentlich Neues umschlägt. Im Grunde arbeite ich da wie ein bildender Künstler, was eine Parallele zu Lucier oder Feldman sein mag. Meine Materialpalette schließt jenseits der Dialektik „tonhaft“ – „tonlos“ auch „objets trouvés“ ein, die nicht als „schöne Stellen“ zitiert werden, sondern als Wahrnehmungschiffren für eine bestimmte Ästhetik, Geisteshaltung (wie in „The SelfComposer“) oder Aura stehen. So bindet „writing“ an einer bestimmten Stelle ins Assoziationsfeld der Großen Trommel „Die Internationale“ ein, deren Rhythmen und Tonhöhen dann im weiteren Verlauf quasi seriell weiter benutzt werden.

Warum hast du Lachenmann für den „richtigen“ Lehrer gehalten? Was hat dich an seiner Musik interessiert und welche Stücke kanntest du von ihm?

Ich hatte ihn schon 1982 im Stuttgarter Planetarium über seine Musik sprechen hören. Damals war gerade die Debatte mit Henze im Gange, wovon ich als siebzehnjähriger Schüler wenig verstand. Von seiner Musik und der Art, darüber zu sprechen, war ich jedoch sehr beeindruckt. 1989 faszinierte mich die Uraufführung des „Allegro sostenuto“ in der Kölner Philharmonie so nachhaltig, daß ich 1993 darüber eine Analyse anfertigte, die Teil meines Kompositionsdiploms wurde. Ich entdeckte während dieser Arbeit vieles über Lachenmanns Musik, das im Widerspruch zu den öffentlich kolportierten Klischees stand, beispielsweise das Bild vom Erzserialisten, der seine Partituren von A bis Z durchrationalisiert. Gerade die Polemik, seine Stücke seien ausschließliche Kopfgeburten, stand damals noch stark im Vordergrund. Demgegenüber schienen mir seine Arbeiten oft geradezu musikantische Elemente zu enthalten. So modellhaft, holzschnittartig wie in „Ein Kinderspiel“ komponiert er in seinen größeren Stücken ja nicht. Und nach meinem Diplomabschluß wurde mir klar: Da mußt du jetzt hin! Der große Lachenmannboom stand damals erst ganz am Anfang, aber ich kannte einiges seiner auf Platte verfügbaren Musik. Dazu gehörten auch „Gran Torso“, das ich in der Meyer-Klasse analysiert hatte, „Dal niente“, „Pres­sion“ und „Accanto“.

Mein Verhältnis zu Helmut war ein sehr komplexes von Nähe und Distanz, während der Studienzeit war es selten konfliktfrei, und oft genug hatten wir beide an dem, was wir uns gegenseitig sagten, schwer zu knapsen. Gerade meine Liebe zu Cage war eine ewige Quelle des Disputs. Ich lernte bei ihm dafür andere Musik der fünfziger und sechziger Jahre besser kennen, die ich oft nur unzureichend kannte. Das verbreitete „mal eben reinhören“ oder eine Partitur wie eine Zeitschrift durchzublättern, ist – wie man sich denken kann – gar nicht seine Art. „Analyse“ hieß, sich en detail mit einer Partitur zu beschäftigen. Heute haben wir ein freundschaftliches Verhältnis, wenn wir uns – leider selten genug – begegnen. Ich weiß, wieviel ich ihm für mein künstlerisches Erwachsenwerden zu verdanken habe. Bei ihm habe ich besonders deutlich gespürt, wo ich stehe, was ich machen und nicht machen will. Trotz allem, das uns künstlerisch trennt, bleibt auf jeden Fall immer der Respekt vor ihm als einer ganz großen Künstlerpersönlichkeit.

Du hast einige Compact-Disc-Aufnahmen deiner Stücke im Eigenverlag unter dem Titel „acoustical situations“ veröffentlicht. Damit beschreibst du Musik, deren Zeitverlauf nicht durch das subjektive, dramaturgische Kalkül des Komponisten gegängelt werden soll, sondern die den Hörer freilassen und ihm die Möglichkeit bieten soll, Moment für Moment selbstbestimmt in eine Klangsituation hineinzuhören, und zwar so, daß er sich beim Hören idealerweise selbst wahrnimmt. Die Utopie einer freigelassenen Klang- und Hörsituation erinnert an Cage, die Betonung der Autoreflexivität des Hörens auf die Bedingungen des Hörens dagegen an Lachenmanns Idee einer sich selbst wahrnehmenden Wahrnehmung. In deiner Konzeption „akustischer Situationen“ scheinen sich beide Vorstellungen zu berühren beziehungsweise zu ergänzen.

Ich versuche, den Musikbegriff in meinen Arbeiten auf einer Art „physikalischem“ Level zu halten. Nicht, weil mir Gefühle unsympathisch wären, ich mag nur die künstlich emotionalisierende „Instandbesetzung“ akustischer Phänomene durch den Autor nicht. Klänge sind erstmal Klänge und weder tragisch, noch Beethoven noch Waldeslust. Daß dann jeder Hörende mit seinen Assoziationen, seiner Geschichtlichkeit, seelischen Gestimmtheit rangeht, würde ich natürlich nicht kritisieren, denn das ist ja gerade das Schöne an Musik, ihre Uneindeutigkeit, Vieldeutigkeit. Diese Lust aber liegt im Hörer, denn letztendlich macht der in seinem Kopf das Stück, und wie das dann ausfällt, darüber läßt sich eben nicht mutmaßen. Diesbezügliche Ansprüche eines Autors halte ich für bevormundend, ja sogar gewalttätig. Natürlich leben wir in einem bestimmten Kulturkreis mit einer spezifischen Tradition, das leugne ich nicht, aber die Frage ist, ob man dieses Brauchtum mit seinen Ritualen perpetuieren will oder nicht. Um die Wahrnehmung freizumachen, finde ich es wichtig, solche Konventionen aufzukündigen. Das schließt die Konvention darüber, was Musik sei, ganz essentiell mit ein, daher benutze ich statt „Musik“ den neutraleren Begriff „akustische Situation“. Wenn man nur intensiv genug arbeitet, scheint die eigene Persönlichkeit durch das Resultat hindurch. Das finde ich glaubwürdiger – und bei Musik haben wir es nach Hegel ja mit einer „Entfaltung der Wahrheit“ zu tun –, als einfach von vornherein auf die eigene Gestimmtheit zu spekulieren. Denn die interessiert mich als Hörer ja nur dann, wenn es irgendeinen Anknüpfungspunkt an meine eigene wahrnehmende Verfaßtheit gibt, sonst bleibt die Sache anekdotisch oder hermetisch. Als Zuhörer, der zum Hinhören die eigene Freizeit und Lebenszeit einsetzt, möchte ich schon einen Bezug zu meiner eigenen Realitätserfahrung herstellen können.

Zielst du auf eine Bewußtmachung der bestehenden historischen, ästhetischen, sozialen Bedingungen des Musikhörens und damit gegebenenfalls auch auf eine Veränderung derselben oder eine Befreiung davon? Siehst du darin auch einen emanzipatorischen Ansatz, mit dem sich ein im weitesten Sinne gesellschaftspolitisches Engagement artikulieren läßt?

Gesellschaftspolitisches Engagement von Kunst gab es spätestens seit den sechziger Jahren bei sehr vielen Komponisten, wenn es sich auch in sehr unterschiedlicher Weise künstlerisch äußerte, etwa geißelnd bei Nono, anarchisch bei Cage, utopisch-verweigernd bei Evangelisti, illustrierend bei Henze, um mal einige zu etikettieren. Heute muß sich solch eine Einstellung zwangsläufig anders manifestieren als vor vierzig Jahren, weil in einer postmodernen Situation ganz schnell geäußert wird: „Gesellschaftskritik ist passé, das hatten wir damals, was willst du noch damit?“

Ich denke, daß wir wieder sehr viel grundsätzlicher darüber nachdenken sollten, was wir vom erstarrten bürgerlichen Konzertritual wirklich in die Zukunft hinüberretten wollen, und was nicht. Ein großer Teil des Neue-Musik-Betriebs klammert sich ja wie der sprichwörtliche Ertrinkende an solche Strohhalme wie den emphatischen Musikbegriff und die Konzertsaalmusik. Veranstalter versuchen dann, durch gesteigerte Werbeetats, Einführungsveranstaltungen und anderes, Zuhörer für das traditionelle Konzertritual zu retten, blenden aber vollkommen aus, daß es sich dabei um einen extrem eingeschliffenen und unbeweglichen ästhetischen Zustand handelt, der bewußtes Hinhören aus unterschiedlichen – mentalen, aber auch scheinbar ganz äußerlichen – Gründen extrem erschwert. Nicht nur soziale und hörpsychologische Barrieren schieben sich da so stark vor die Wahrnehmung, daß wir dringend neue Zugangsformen erproben müssen, wenn eine genuin akustische Kunstform wirklich eine Zukunft haben soll.

Ich will allerdings nicht naiv Klanginstallation oder Ars Acustica das Wort reden. Dort spüre ich nämlich deutlich ein dialektisches Spannungsverhältnis zwischen zu viel und zu wenig kompositorischem Eingriff, das oft sehr zuungunsten des letzteren verschoben ist. Es genügt nicht, traditionelles Komponieren abzulehnen, man muß dafür etwas Neues anbieten. Auch bei einer Klanginstallation unternimmt der Autor – etwa durch Auswahl und Setting – letztendlich einen kompositorischen Akt, und deshalb bleiben die alten Fragen nach dessen Grad, Kompetenz und Angemessenheit im Prinzip genauso relevant wie wenn ich ein Streichquartett schreibe. Und was Installateure und Performer häufig vergessen: Musik ist nicht nur Klangkunst, sondern vor allem auch Zeitkunst. Beide Phänomene sind eng miteinander verflochten, aber der Faktor der gestalteten Zeit wird oft unsäglich vernachlässigt, und meist so offenkundig, daß man dahinter Inkompetenz erkennt und nicht einen behaupteten freiwilligen Verzicht. Wenn man sich künstlerisch mit Klängen beschäftigt, ist man gezwungen, sich gründlich mit dem Faktor Zeit auseinanderzusetzen, da man es nicht mit visueller Kunst zu tun hat und sich Klänge nur in und mit der Zeit entfalten und entwickeln können. Selbst wenn man Entwicklungsdenken als überkommen ablehnt, bleibt das Problem des Zeitverlaufs bestehen. Feldmans „Sec­ond String Quartet“ ist ein wunderbares Beispiel dafür, wie ein Komponist es schafft, trotz Verzicht auf traditionelle Entwicklungen mit der Lebenszeit des Hörers über die enorme Strecke von vier Stunden verantwortlich umzugehen. Das ist ein geglückter Parforceritt für die Wahrnehmung. Und das Arbeiten mit und an der menschlichen Wahrnehmung ist zentral für meine ganze künstlerische Produktion. Ich möchte mit meinen Kompositionen den Hörer – und natürlich auch mich selbst – rezeptiv gern ein Stückchen weiterbringen. Das ist eine Richtung, aus der meine Arbeit einen emanzipatorischen Ansatz erhält. Zudem denke ich permanent über den Werkbegriff und seine traditionellen Kategorien wie „logische Entwicklungen“, „Folgerichtigkeit“, „Schlüssigkeit“ und „Zu­sam­menhang“, nach. Dabei versuche ich, immer neue Konzepte zu erproben, in denen ich diese und andere abendländischen Qualitätskriterien für Musik in meiner Musik vorsätzlich unterlaufe. Das zielt ganz bewußt auf die bestehenden Bedingungen des Musikhörens und deren stillschweigende gesellschaftliche Übereinkünfte. Indem ich da so manches absichtlich aufkündige, kündige ich auch den affirmativen Konsens einer konsumgewohnten Gesellschaft auf. Ich würde noch nicht einmal sagen, daß dabei ideologische Motive die Hauptrolle spielen; es wäre mir auch viel zu eintönig und eng, ja: langweilig, mich an diesen Konsens zu halten, wie es ja fast alle meine Kollegen tun. Ich persönlich hätte dabei den Eindruck, das utopische Potential von Kunst von vornherein und ohne Not aufzugeben, die Vorstellung nämlich, es könnte auch noch einmal ganz anders sein, als es überall ohnehin schon ist. Die Idee, Dinge könnten in Bewegung kommen und bleiben und allein schon diese Utopie löst etwas Befreiendes im Kopf aus.

Kommen wir zu deiner Arbeit mit dem Computer. Der Computer gehört heute zum Alltag der meisten Menschen. Für Millionen ist er täglicher Arbeitsplatz, Schreibwerkzeug, weltweites Kommunikations- und Recherchemedium, Chat room, Bankverbindung, Kaufhaus, Reisebüro, Fernseher, Radio, Spielzeug. Es gibt kaum einen Lebensbereich, in dem er keine Anwendung fände. Er ist universal und omnipräsent. Indes scheint der Einsatz des Computers im Bereich der Kunst und insbesondere in der Musik nach wie vor mit einem gewissen Tabu belegt und auf kleine, nach außen oft „sektiererisch“ anmutende Gruppen beschränkt zu sein. Das hat vermutlich historische Wurzeln, da durch die Verwässerung der romantischen Ästhetik die Musik im Laufe des neunzehnten Jahrhunderts auf die Rolle als Stimme innerer Empfindungen und Sehnsüchte fixiert wurde. Das prämoderne Ironie-Konzept der Frühromantik mit seiner desillusionierenden Präsenta­- t­ion der technisch-materialen Mittel wurde unterschlagen und Musik zur gefühligen Gegenwelt des technisierten Alltags der industriellen und späteren digitalen Revolution stilisiert. Bis heute haben sich viele dieser antitechnischen Reflexe erhalten, wie die Auseinandersetzungen um die Dodekaphonie, den Serialismus, die Elektronische- und jetzt die Computermusik zeigen.

Das hat insgesamt nicht zu einem kritischen Umgang mit den technischen Mitteln geführt, sondern zu ideologisch fixierten Lagern, die nicht sehr reflexionsbereit sind: Auf der einen Seite erleben wir eine stereotype Technikfeindlichkeit, auf der anderen Seite die Abschottung einer positivistischen Computermusikszene, die Außenstehenden das Recht zur ästhetischen Kritik abspricht. Als ich 1996 bei einem Symposium der Kölner Computermusikinitiative GIMIK einen Vortrag1 gegen diese Ghettoisierung hielt, herrschte anschließend eisiges Schweigen, und ich wurde in der Folge von den „In­siderInnen“ gemieden. Wenn ich meinen Text heute wieder lese, so kann ich nichts prinzipiell Unwahres an ihm entdecken. Elektronik oder Computer begründen keine autonomen Ästhetiken. Beispielsweise halte ich es für künstlerisch beschränkt, wenn jemand mit dem Rechner bloß nach „neuen Sounds“ sucht, aber sich keinen Deut um den Zeitverlauf schert – was man leider laufend zu hören bekommt.

Unbestreitbar scheint mir aber, daß die elektronische Klang­erzeugung seit den frühen fünfzigerer Jahren nicht einfach ein Instrument unter anderen geblieben ist, sondern eine mitt­ler­weile beachtliche Gattungstradition mit ganz eigenen Produk­tions- und Wiedergabeformen begründet hat. Auch ältere Formationen wie Streichquartett, Klaviertrio oder Sinfonieorchester waren immer mehr als nur die Summe der beteiligten Instrumente und der mit ihnen realisierbaren Klangvorstellungen. Sie bildeten „Gattungen“ heraus mit jeweils eigenen satz­tech­nischen und expressiven Charakteristiken, sozialen, ökonomischen und politischen Implikationen, eigenen Aufführungstraditionen, Interpreten, Auftraggebern, Spielstätten und Publikumskreisen. Und einem ähnlichen technischen, ästhetischen, ökonomischen und im weitesten Sinne musiksoziologischen Prozeß unterliegt auch die musikalische Verwendung des Com­puters. Musik, die mit Hilfe des Computers kom­poniert, erzeugt und aufgeführt wird, ist zwar eine junge Erscheinung, aber in den vergangenen zwanzig Jahren haben sich mehr und mehr Komponisten dieses Mittels bedient und neue Hörerschichten und Spielstätten dafür gefunden. Statt in arrivierten Konzertsälen ist diese Musik bis heute fast nur in alternativen Spielstätten verbreitet, in Hinterhäusern, Lofts, alten Fabriken, Bunkern, Brauereien, Feuerwachen. Die Örtlichkeiten verstärken den Eindruck, es handle sich um eine typische „Szenekultur“, deren betont antikonformistisches Auftreten und Umfeld jenseits des bürgerlichen Musikbetriebs auch eigene Gruppenidentitäten entstehen läßt. Hinzu kommt, daß die meisten Komponisten, so auch du, mit ihren Laptops selbst als Interpreten und Klangregisseure in Erscheinung treten, was zur Folge hat, daß die kompositorisch-konzeptionelle Tätigkeit zuweilen hinter einem pauschalen Eindruck von Live-Performance zurücktritt. Die Rolle des Komponisten wird erweitert und das bleibt wiederum nicht ohne Folgen für den Werkbegriff. Viele Stücke leben durch die Einheit von Komposition und Interpretation in Echtzeit. Sie sind oft nicht oder nicht exakt genug notiert, basieren auf individuellen Computerprogrammen und sind von anderen dementsprechend schwer aufzuführen. Alles zusammen genommen, denke ich daher schon, daß sich durch den Einsatz des Computers so etwas wie eine neue musikalische Gattung abzeichnet.

Daß die Rolle des Komponisten und der Werkbegriff unklarer werden, betrachte ich als eine fruchtbare Heraus­forderung, ganz im Sinne von Peter Niklas Wilsons Skrip­tum, „sich ernsthaft und ohne Formelkompromisse und Verlustängste der Erosion des Partitur-Paradigmas zu stel­len“2. Will man improvisatorische Elemente miteinbeziehen, kann man logischerweise keine Einzelheiten fixieren, obwohl man ansonsten präzise Vorstellungen von ei­nem Stück hat. Die Notation muß sich öffnen, und es ist töricht, das dann traditionalistisch als „mangelnde Ausarbeitung“ zu brandmarken. Ich habe für solche Konstellationen eine Serie von Icons entwickelt. Diese kleinen Gra­phiken repräsentieren – erstmals 1996 in der Komposition „standArts“, später etwa in den „Graphischen Blättern“ aus „ausPlaste“ von 1996/97, 2001 in „ope-seynsu“ und 2003 in „The Abyss of the Eyes“ – genau umrissene musikalische Phänomene oder Verhaltensweisen. Bei diesen Stücken muß der Interpret in der Konzertsituation „live“ Entscheidungen treffen, die aufgrund der Umstände nicht vorher geprobt werden können. Trotzdem kann er nicht machen, was er will. Meine Vorgaben garantieren einen Strukturzusammenhang, ohne daß jedes Detail hundertprozentig festgelegt wäre.

Es ist leider unvermeidlich, daß individuell geschriebene Computerprogramme schlecht übertragbar sind. Hierbei geht es um sehr persönliche Instrumente, die als integraler Teil der Komposition begriffen werden müssen. Dafür gibt es keine Lösung von der Stange. Umgekehrt könnte man sonst ja auch sagen, daß sich Kollegen und Verlage, deren Stücke wie Passepartouts „mühelos“ von jedem Interpreten oder Ensemble, an jedem Ort und in jedem Programmzusammenhang realisiert werden können, einfach den Gesetzen des Markts unterwerfen.

Bei mir können Spiel-Regeln auch in einem Computerprogramm beschlossen liegen oder durch Icons repräsentiert sein. Es gibt ein festes Beziehungsnetz, das die Interpreten jedesmal neu ausfüllen müssen. Dadurch ist sowohl Zusammenhang gestiftet, als auch eine Möglichkeit für spontanes Reagieren eröffnet, die ja in der handelsüblichen Partiturécriture ausgeschlossen wird. Ich denke, daß die Epoche ausschließlicher Partiturmusik zu Ende geht. Manche verlieren damit ihre Pfründe, aber die Musik erhält eine neue Frische, die anders nicht zu bekommen ist. Musikalische Verbindlichkeit kann heute auch abseits von Notenpapier hergestellt werden, etwa durch Tonaufnahmen, Computer, Internet. Live-elektronische Konzepte erfordern sicher Einarbeitungszeit, aber es geht, wie man an den späten Nono-Stücken sieht. Daß Nono anfing, statt Instrumentenangaben konkrete Interpretennamen in die Partitur zu schreiben, halte ich für eine zutiefst menschliche und in mehrfachem Sinne revolutionäre Konzeption.

In „deChiffrAGE“ hast du 1993 zum ersten Mal den Computer eingesetzt und das Stück nicht umsonst als Wendepunkt“ in deinem Schaffen bezeichnet. Du gebrauchst den Computer hier als Zufalls- und Textgenerator, der das Wort- und Silbenmaterial eines Texts beliebig zerlegt und nach einem algorithmischen Rechenverfahren zu neuen Einheiten umformt. Der Computer übernimmt also keine unmittelbar klanglichen Aufgaben, sondern bleibt auf seine Primärfunktion als Rechenmaschine beschränkt. Ganz ähnlich hast du ihn dann auch 1995 in „miniaturen“, 1996 in „parkfiguren“ und in „deSperanto“ von 1995/96 eingesetzt. Bedeutete der erste Einsatz des Computers für dich einen gezielt herbeigeführten Bruch mit bestimmten musikalischen Normvorstellungen und Tabus? Was waren deine Beweggründe für diesen Schritt, der einige Tragweite für deine weitere Entwicklung hatte?

Dieses Denken an Traditionsbruch stand in „deChiffrAGE“ ganz klar im Vordergrund. Das Stück ist für ein Cage-Projekt der Kölner Gesellschaft für Neue Musik als Hommage an diesen großen Musikdenker und -praktiker entstanden, der solche Brüche zeitlebens provoziert hat. Ich empfand schon damals vieles an „Computermusik“ ästhetisch unbefriedigend, auch weil es oft Klischees der Instrumentalmusik mit elektronischen Mitteln fortsetzte. Gegen eine Demokratisierung des Musikmachens durch den Computer ist nichts einzuwenden, aber künstlerische Ambitionen erfordern doch Reflexionsschritte jenseits des Offensichtlichen. Viele geben den Kunstanspruch der Bequemlichkeit halber von vornherein auf.

Ich wollte in „deChiffrAGE“ den gängigen Einsatz des Computers doppelt hinterfragen: zum einen das Musikinstrument, indem der Rechner keinerlei Klänge generiert, und zum anderen die rationale Rechenmaschine, indem ein Zufallstext erzeugt wird, der vom Sprecher vom Blatt gelesen werden muß. Damit habe ich mich in ein paradoxes Verhältnis zum Computer gebracht, was für mein künstlerisches Denken und Handeln ausgesprochen typisch ist: Ich liebe solche vermeintlich abseitigen Ausgangssituationen, denn sie beflügeln meine Lust zu kreativem Umgang ungemein! Was offen auf der Hand liegt, reizt mich viel weniger, weil ich es als erprobt und durchschaubar empfinde.

In welchem Verhältnis steht dein Komponieren mit dem Computer zu dem für herkömmliche Instrumente?

In den letzten Jahren spielt der Computer innerhalb meiner Instrumental- oder Vokalmusik eine immer größere Rolle, das heißt, es gibt mittlerweile nur noch wenige Stücke, bei denen der Rechner nicht mindestens in der Planungsphase eine Rolle spielt, obwohl man es hinterher nicht mehr merkt. Darin sehe ich eine Parallele zum Alltagsleben, von dem meine Musik nicht abgelöst sein will. Es existieren ja immer weniger Bereiche, die völlig computerfrei sind. Das ist ein zweischneidiges Schwert, wenn damit Standardisierung und Schematisierung einhergehen. Man sollte statt dessen lieber die entstehenden Freiheitsgrade nutzen.

Instrumentalmusik stellt für mich die Verbindung zu einer reichen Tradition dar, die man nicht einfach perpetuieren kann, sondern – als Herausforderung – neu erfüllen muß. Einfach noch ein Streichquartett zu schreiben, kann’s natürlich nicht sein. Dabei stellt sich sofort die Frage, was bedeutet das heute, mit welchen Sinnen hören und erleben wir „Streichquartett“, und kein professioneller Musiker kann so tun, als ließe er sich darauf mit völlig jungfräulichen Ohren ein. Insofern hat eins mit dem andern zu tun, unsere musikalische Realität ist eine andere als die zu Brahms’ Zeiten, und ich benutze heutige Mittel. Es gibt für mich kein „Kopf in den Sand“ und „einfach weiter so“.

In „The SelfComposer“ für blattlesenden Oboisten mit Laptop von 1999–2002 ist der Computer als „Komponiermaschine“ thematisiert, die dem Oboisten in Echtzeit transformierte Probespielstellen präsentiert. Worin liegen für dich die musikalischen Chancen und Möglichkeiten des Computers. Inwieweit wirst du als Komponist zum „Programmierer“, der vorab entscheidende Dispositionen trifft, die dann maßgeblich den musikalischen Verlauf bestimmen?

Zunächst einmal erblicke ich hinter der Aussage, man würde zum „Programmierer“, ein konservatives Argument, um Künstler, die moderne Technologien einsetzen, pauschal abzuqualifizieren. Dieselben Leute benutzen oft Notenschreibprogramme und standardisieren damit ihre Partituren, während ich immer noch am liebsten von Hand schreibe. Programmieren kann eine sehr schöpferische Tätigkeit sein; ich vermag nicht zu erkennen, was daran per se unkünstlerisch wäre. Um ein Stück für Posaune zu schreiben, braucht man auch fundierte technische Kenntnisse, ohne daß man dadurch zum Instrumentenbauer oder Posaunisten würde.

Die Dispositionen, die man trifft, können sehr unterschiedlich gelagert sein und orientieren sich ganz am Stück. In „standArts“ und „The SelfComposer“ überstieg die Aufgabe, daß der Computer auf dem Bildschirm in Echtzeit eine Partitur darstellen sollte, meine Programmierfähigkeiten bei weitem. Das hat dann Volker Abel übernommen, so daß ich mich ganz aufs Konzeptionelle konzentrieren konnte. In letzter Zeit arbeite ich verstärkt mit dem Programm Max/MSP. Dabei handelt es sich um eine sehr offene und vielseitige graphische Programmieroberfläche für Musik, die im permanenten Feedback mit Musikern weiterentwickelt wird. Der Kompositionsprozeß wird insgesamt also vielgestaltiger, weil man seine Ideen nicht nur in Partituren, sondern auch in Programmen niederlegt. Man baut sich tatsächlich ein eigenes Instrument, oft in jedem Stück neu, und feilt bis zum Schluß an Details herum. Das berührt sich mit der Arbeit von Komponisten-Instrumentenbauern wie Volker Staub. Ich verfüge nicht nur über vorhandene Instrumente, sondern komponiere „von Grund auf“, da ich Klangverhalten, Interaktionen in der Zeit und vieles mehr als Gestaltungsmaterialien in der Hand habe. Die Programmierentscheidungen werden mit Blick auf das Ergebnis gefällt, also ich löse dabei künstlerische Probleme. Selbst beim traditionellen Komponieren stellen sich ja nicht nur Fragen etwa der Konzeption, Disposition oder Instrumentation, sondern auch nach Logistik wie Notensysteme einteilen, Rein- und Stimmenschreiben, Photokopieren und so weiter, was eben auch zum Beruf des Komponisten gehört.

Nimmt der Computer Arbeit ab, wenn ja, welche? Und welche Arbeit macht er stattdessen oder zusätzlich?

Hinter dieser Frage steht ein wenig die Idee der Rationalisierung von Arbeit durch den Rechner. Mit einem künstlerischen Ansatz hat das wenig zu tun, denn mein vorrangiges Anliegen ist es nicht, schnell fertig zu werden, sondern etwas Intensives und Eigenständiges hervorzubringen.

Man spart keine Zeit, eher im Gegenteil. Es ist ein Ammenmärchen zu glauben, der Computer könne auf Knopf­druck ohne Vorarbeit originelle Lösungen liefern. Es sei denn, einer macht es sich besonders leicht, aber das wäre kein spezifisches Problem von „Computermusik“, und man hört das dem Ergebnis genauso an wie bei einem Klavierstück.

Vieles kann man mit Bleistift und Papier allein überhaupt nicht tun, zum Beispiel in die spektrale Feinstruktur von Klängen wie mit einem Mikroskop hineingehen und an deren einzelnen Komponenten arbeiten. Mit Klangfarbe kann man sonst nur auf der Ebene von Instrumentation arbeiten. Das Resultat hängt zudem von sehr vielen Unwägbarkeiten ab und kann sich von Aufführung zu Aufführung unvorhersehbar verändern: eine französische Oboe hat eine andere Struktur als eine deutsche und so weiter. Wenn man bei einem spezifischen Timbre ansetzen und es in bestimmter Weise, womöglich stufenlos in Realzeit, verändern möchte, dann kommt man um digitale Klangbearbeitung schlecht herum – so gerne man es mit einem menschlichen Spieler realisieren würde, es geht gar nicht. Die Alternative, es eben nicht zu machen, kann man von einem Künstler nicht erwarten ...

Besteht durch den Computereinsatz die Gefahr, daß über kurz oder lang das intelligente Künstlertum durch die künstliche Intelligenz ersetzt wird? Unter Musikern ist diese Angstvorstellung ja durchaus verbreitet und führt zuweilen zum Widerstand gegen fortschreitende Digitalisierung und Technisierung sowie zur Verteidigung von schöpferischer Freiheit und Ausdrucksvermögen.

Von Intelligenz, geschweige denn künstlerischer aus dem Computer, sind wir weit entfernt. Musikalisch Interessantes läßt sich nicht formalisieren wie die Zugmöglichkeiten auf einem Schachbrett. Allerdings bedarf es dafür individueller Urteilskraft über Kunst in der Gesellschaft, und die muß erworben werden, beim Produzenten genauso wie beim Rezipienten. Ein Mehr an solcher Kompetenz wäre gerade in einer multimedial geprägten Gesellschaft von allerhöchster Brisanz, weil nur ein mündiger Hörer Kitsch und Quatsch auch als solche identifizieren kann. Das erreicht man aber nur durch einen fundierten, künstlerisch motivierenden Unterricht, in dem bereits Kinder zuhörend und praktisch erfahren können, wie Klänge beschaffen sind, und wie man mit ihnen umgehen kann. Deshalb bin ich, soweit es meine Zeit zuläßt, sehr offen für Aktivitäten wie die des Kölner Büros für Konzertpädagogik. Was da geleistet wird, ist letzten Endes eine zutiefst gesellschaftspolitische Aufgabe. Wenn es darüber einen gesellschaftlich verankerten Konsens gäbe, müßten wir uns weniger Sorgen darum machen, daß wissenschaftlicher, technologischer und künstlerischer Fortschritt im Grunde parallele Erscheinungsformen ein und derselben Idee sind, die dem Menschen und nicht der Profitgier Einzelner verpflichtet ist.

Droht Musik, die mit Hilfe des Computers entsteht, ein Teil der rasend schnellen Entwicklungen in der Informatikbranche zu werden und dabei möglicherweise ebenso schnell zu veralten, wie das heute schon mit nur zwei, drei Jahre alter Hard- und Software der Fall ist? Wäre es vor dem Hintergrund dieser Entwicklung nicht auch denkbar und vielleicht sogar ratsamer, dem technischen Innovations- und Standardisierungszwang dadurch zu begegnen, daß man sich ihm verweigert und stattdessen ganz bewußt auf herkömmliche Instrumente oder elementare Naturmaterialien, Stein, Holz, Glas, Metall zurückgreift, wie das zum Beispiel dein Kollege Volker Staub macht?

Kritische Distanz zur Technik und Fortschrittsglaube (nicht: -gläubigkeit) stehen für mich in einem ganz und gar dialektischen Verhältnis. Ich folge nicht blindlings technischen Innovationen und arbeite auch mit Rechnermodellen und Programmen, die nicht den sogenannten „state-of-the-arts“ repräsentieren, aber für meine Zwecke immer noch wunderbar funktionieren.

Weder technologische Avanciertheit noch Technikverweigerung definieren ästhetische Positionen, entscheidender ist das kritische Potential hinter den künstlerischen Konzepten. Volker Staub und ich sind ja Kölner Studienkollegen und ich bewundere die Haptik und luxuriöse Klanglichkeit seiner Arbeit, aber für mich persönlich wäre das kein „Aussteigen“, kein Widerstand sondern Resignation.

In meinen Stücken „deChiffrAGE“, „standArts“ und „The SelfComposer“ setze ich den Computer nicht simplizistisch als „tolle Klangmaschine“ ein, sondern der Rechenapparat klingt gar nicht oder nach „billiger Kiste“. Er agiert als Zufallsgenerator, und ein Mensch muß das Ergebnis in der Konzertsituation blitzschnell vom Blatt respektive Bildschirm in Klang umsetzen. Hier geht es nicht um die Magie einer phantastisch funktionierenden Maschine, sondern um unser Verhältnis zu ihr. In „The SelfComposer“ werden statt „professioneller“ Klangwiedergabe bewußt ein paar billiger Computerboxen benutzt, mit denen sich die meisten Benutzer zuhause eben­falls konfrontiert sehen. Der Oboist hat gegen die Rechengeschwindigkeit des Notebooks keine Chance, aber in Lebendigkeit und Timbre ist er ihm klar „überlegen“. Er wäre das übrigens auch dann, wenn man eine teure Verstärkeranlage nähme, so ist es nur noch geschärfter. Diese Zuspitzungen habe ich gern, ich brauche in meinen Arbeiten solche (ver)störenden Elemente.

Ich stehe den technischen Medien äußerst zwiespältig gegenüber, aber tue nicht so, als gäbe es sie nicht. Sie sind von Menschen erdacht und erweitern unsere Möglichkeiten, man darf jedoch ihrem Faszinans nicht erliegen. Ich denke, daß ich das nicht tue, indem ich weiterhin für Stimmen und Instrumente schreibe und den Umgang mit Digitalmedien breche. Diese Hilfsmittel werfen reale Fragestellungen auf, die diskursiv angegangen werden müs­sen. Ich bin nicht harmoniesüchtig und gehe Ausein­andersetzungen künstlerisch nicht aus dem Weg. Meine Erfahrung ist, daß aus solchen Gegensätzen fruchtbare Erkenntnisse erwachsen. Für mich ist es zentral, in meiner Kunst mehr Fragen als Antworten zu stellen.

Anmerkungen

1Vergleiche: Harald Muenz, Reagieren in Echtzeit. Der Computer als Klangerzeuger, im vorliegenden Heft, 46.

2Peter Niklas Wilson, „Filtern, Strukturieren, Speichern“. Anmerkungen zur Soziologie des musikalisch Neuen, in: MusikTexte 99, Köln 2003, 58.