Portrait

Karlheinz Essl / Bernhard Günther

Realtime Composition

Musik diesseits der Schrift


Lecture on Realtime Composition
Karlheinz Essl talking to music students of the University of Montana
Essl Museum, Klosterneuburg/Vienna (10 Jun 2010)



Die erste Frage, die sich einer, der etwas aufschreiben will,
vorzulegen pflegt, ist die: was soll ich aufschreiben.
In vielen Fällen kann diese Frage durch bloßes Nachdenken geklärt werden.

Ror Wolf


Betrachtet man die Geschichte der mitteleuropäischen Kunstmusik unter dem Gesichtspunkt der Entwicklung musikalischer Notation, läßt sich über weite Strecken ein stetig erscheinender Prozess der Verfeinerung nachzeichnen. Beginnend bei vagen Gedächtnisstützen wie den Neumen, wird durch Einführung eines Liniensystems zunächst die diastematische Komponente - also die Tonhöhe - erfaßt, während sich die exakte Notierung der rhythmischen Verhältnisse erst später herausbildet. Schließlich wird neben Phrasierung und Agogik auch die Dynamik im Notentext fixiert, bis schließlich mit dem minutiösen Aufschreiben instrumententypischer Spielweisen die Grenzen des für Interpreten Nachvollziehbaren erreicht (und zum Teil bereits bewußt überschritten) werden.

Diese Entwicklung des Aufschreibens spiegelt den allmählichen Verlust von Selbstverständlichkeiten wider: Je weniger in der Musik von einem "common sense" die Rede sein kann, je stärker sich die Komponierenden als Individuen zu Wort melden (was schon an Monteverdis genauen Instrumentationsanweisungen erkennbar zu werden beginnt), desto größer scheint die Notwendigkeit einer eindeutigen, präzisen Notation - und um so mehr wird sie durch das Diffundieren einer voraussetzbaren Syntax zugleich wieder unterlaufen.

Schrift wird hier (auf sehr europäische Weise) eingesetzt als Code für die Intention des Individuums, als Mittel gegen Verwässerung und Vergessen. Das Eindeutige, Ablesbare, Gesetzhafte [1] wird der Kunst mit nahezu muttersprachlich-unauffälliger Selbstverständlichkeit zugrundegelegt.

Selbst Kompositionen, die mit Gesetzmäßigkeiten nicht das geringste zu tun haben wollen, benutzen einen TEXT (der rein und ohne Verfälschungen sein muß - man denke an die Notwendigkeit sog. kritischer Werkausgaben und Urtexteditionen) als Ausgangspunkt für eine INTERPRETATION. Hermeneutische Probleme haften an der Musik wie an kaum einer zweiten Kunst.

Und selbst fixierte TEXTE sind weder eindeutig noch linear zu lesen: sie können - nach Derrida - ausschließlich in ihrem jeweiligen Kontext verstanden werden, ihre Bedeutung verändert sich mit jeder Lektüre oder Interpretation. Das Einzelelement für sich hat noch keine Bedeutung, erst im Zusammenhang und durch die Wahrnehmungsarbeit des Rezipienten entsteht der "Sinn" - als ein möglicher Weg.

Abseits von solchen Entwicklungen des schriftlichen Fixierens existiert seit Jahrzehnten Musik, die sich nicht primär auf Notentexte gründet. Neben außereuropäischer und traditioneller Musik basieren auch Spielformen der experimentellen, improvisierten und elektronischen Musik auf gänzlich anderen Vorstellungen von Schrift als den oben angedeuteten. Nach dem Zweiten Weltkrieg waren es beispielsweise in New York Morton Feldman, John Cage und Earle Brown, in Wien Roman Haubenstock-Ramati und Anestis Logothetis, die versuchten, eine musikalische Idee aufzuschreiben, ohne sie fixieren zu wollen; hier mag teilweise ein aus der jüdischen Tradition kommendes Schriftverständnis dem geläufigen Positivismus eine Alternative gegenübergestellt haben. (Nebenbei: Auch aus dem Bereich der Tonbandmusik sind unkonventionelle Realisationspartituren überliefert; durch das Überspringen der Interpretation spielt diese Form der Schriftlichkeit allerdings in einer anderen Liga.)

Im folgenden Text ist von Musik die Rede, die - mal mit, mal ohne Interpreten - im Computer notiert ist und nicht als identisches Abbild einer kompositorischen Intention konzipiert ist. Ähnliches gilt auch für den vorliegenden Text. Er entstand aus einer losen Folge von E-Mails zwischen Hörer/Leser (Bernhard Günther) und Komponist (Karlheinz Essl), die als Frage, Antwort, Kommentar, Behauptung, Fußnote, Einwand, Erläuterung oder was auch immer ineinandergreifen und deren quasi-lineare "Notation" auf den Seiten einer Zeitschrift nur eine der möglichen Ausprägungen dieser Auseinandersetzung zeigen. Die Autorschaften verschwimmen durch wechselseitige "Überschreibungen". Fragen bleiben offen, geraten aus dem Blickfeld oder werden durch - linear, nicht entstehungszeitlich gelesen - plötzlich vorgeschobene Antworten obsolet; auch in der "Druckfassung" sind nicht alle dieser Textschnitte verheilt. Anfänge und Enden, Abfolgen und Einschübe sind lesbar, aber nicht festgeschrieben.


Programmcode - Strukturgenerator

Bernhard Günther: Auf den ersten Blick sind Deine Kompositionen für Computer oder für das Medium Internet sehr weit entfernt von herkömmlichen Notationsweisen, ja generell von Schriftlichkeit als Überlieferungsträger von Musik. Ein musikalischer Ablauf entsteht beispielsweise, indem der Computer in Echtzeit Kompositionsalgorithmen realisiert, wie in der Lexikon-Sonate (1992 ff.) für computergesteuertes Klavier. Das Erklingende stammt nicht von Interpreten, sondern kommt aus dem Lautsprecher oder von einem elektro-mechanischen Musikinstrument wie dem Bösendorfer SE Computerflügel bzw. Yamaha Disklavier. Das Computersystem dahinter ist den Hörenden eine Black Box - anders als bei Tonbandkompositionen sind Ablauf, Gestalt und Zusammenklänge des Stücks nicht vorhersehbar.

Auf den zweiten Blick ist die Lexikon-Sonate jedoch zweifellos "notierte Musik": Den Strukturgeneratoren liegen eine Programmiersprache (hier: MAX) und ein von Dir geschriebenes Computerprogramm zugrunde. Was wird in einem solchen Fall durch die Schrift repräsentiert?

Karlheinz Essl: Die Lexikon-Sonate existiert zwar nicht als fixierte Notation, die interpretiert werden kann. Dennoch gibt es Schriftlichkeit, die aber hier nicht das erwünschte Resultat notiert, sondern in den Hintergrund auf die (Meta-)Ebene des Programmcodes verschoben wird. Die Schrift dient zur Beschreibung und Implementierung von Strukturgeneratoren, die schließlich die Musik selbst in Echtzeit "komponieren": Schrift als Mittel zur Formulierung einer kompositorischen Grammatik, die erst im Prozess ihrer Aufführung eingelöst wird.

BG: Was unterscheidet das Definieren eines Strukturgenerators von anderen Kompositionsprozessen?

KHE: Ein Strukturgenerator ist ein Computerprogramm, das aufgrund vorgegebener Algorithmen eine musikalische Struktur erzeugen kann. Es ist die pragmatische Umsetzung eines Gedankenmodells, das aus der Analyse einer wahrgenommenen "Wirklichkeit" gewonnen wurde. Was wir als Wirklichkeit wahrnehmen, ist ja nicht bloß Abbildung einer externen Realität, sondern mentale Konstruktion - im Sinne des Radikalen Konstruktivismus. Nun wird diese Wirklichkeitskonstruktion - zum Beispiel meine persönliche Interpretation eines musikalischen Phänomens - analysiert, und daraus ein "abstraktes" Modell gewonnen; im Sinne der Resynthese einer Analyse. Konstruktion tritt hier zweifach auf: zunächst in der Analyse ("Konstruktion von Wirklichkeit") als auch in der Synthese ("Re-Konstruktion von Wirklichkeit"); es handelt sich hier buchstäblich um die Konstruktion einer Konstruktion. Daraus folgt, dass dieses Konstrukt von meiner persönlichen Sichtweise durchdrungen ist und deshalb niemals den Anspruch erhebt, ein allgemeingültiges theoretisches Modell zu sein: es ist das Resultat meiner persönlichen kompositorischen Sichtweise.

Die Implementierung als Computerprogramm erlaubt den - interaktiven - Echtzeiteinsatz von Kompositionsmodellen, wodurch erst die Idee der "Realtime Composition" adäquat realisierbar wird.


Definition "Realtime Composition": Musik, die auf keinen Notentext zurückzuführen ist, an keine Dauer gebunden ist, nicht reproduzierbar ist und mit Hilfe von Computerprogrammen in Echtzeit hervorgebracht wird. Anstelle von vorgefertigten Objekten, die abgespielt oder mobile-artig miteinander kombiniert werden, treten hier fluide Prozesse, die in vielfältiger Beziehung miteinander stehen: sogenannte Strukturgeneratoren, die aufgrund eines implementierten Modells unzählige Varianten einer nur abstrakt beschreibbaren Meta-Struktur erzeugen können. Die Parameter der Strukutrgeneratoren lassen sich in Echtzeit manipulieren, wodurch interaktiv in den Generierungsprozess eingegriffen werden kann.


BG: Wenn von einer Eingriffsmöglichkeit in den "Generierungsprozess" die Rede ist, klingt das - etwas abstrakt gelesen - nach einer Verschiebung der Verhältnisse zwischen Komponisten und klanglichem Ergebnis; weniger abstrakt gelesen klingt das nach einem Thema, mit dem auch Haubenstock-Ramati konfrontiert war. Ich zitiere: "Es gibt keine Improvisation; es gibt nur Interpretation. Das einzige, was man als ,Improvisation' bezeichnen könnte, ist die Komposition: die Niederschrift einer neuen Musik."[2] Ließen sich die klanglichen und strukturellen Ergebnisse der Realtime Compositions auch auf anderem Wege realisieren? Andersherum gefragt - unter Berücksichtigung wiederum von Haubenstocks Überzeugung, daß die Form der Notation der Form der Komposition entspricht: Was wären formale Eigenheiten der Realtime Compositions, die sich auf anderem Wege nicht erreichen ließen?


Interaktive Notation

KHE: Das klangliche Resultat ist hier in der Tat nicht vorbestimmt, sondern verdankt sich entweder einem Automatismus oder aber der Interaktion zwischen Musiker und Maschine. Als Beispiel dafür möchte ich Amazing Maze (1996 ff.) anführen. Im Unterschied zur klaviergesättigten Lexikon-Sonate steht hier der Klang selbst in seinen verschiedenartigen Dimensionen im Vordergrund. Dieser setzt sich aus kleinsten Einheiten (sog. "Klangpartikeln") zusammen, die aus unzähligen Instrumentalaufnahmen extrahiert wurden. Dabei richtete ich mein Augenmerk besonders auf die "offenen" Klangbereiche jenseits des instrumentalen Wohlklangs, den Abfallprodukten der Klangerzeugung: rudimentäre Klangsplitter, offen für vielfältige Manipulationen, die im Moment ihres Zusammentreffens zu neuartigen Klängen und Strukturen verschmelzen oder sich auch abstoßen können. Darin sollte die sich für mich so wichtige Auffassung vom "Klang als Prozeß" manifestieren.

Ursprünglich war dieses Stück als hermetisch ablaufende selbstgenerierende Klanginstallation konzipiert, die ich via Internet beim NEMO '96 Festival in Chicago einreichte. Ohne meine Einflußnahme nahm die weitere Entwicklung eine ungeahnte Wendung. Der Kurator des Festivals, der Komponist R. Albert Falesch, reagierte in berührender Weise, indem er mir anbot, die Komposition selbst zur Uraufführung zu bringen. Er sah in darin nicht bloß eine Musikinstallation, sondern vielmehr ein Instrument, mit dem sich - zusammen mit Live-Instrumentalisten - trefflich musizieren ließ. Dies bot den Anstoß für eine Kette von spannenden Metamorphosen: in einem intensiven (über E-Mail ausgetragenen) Diskurs entwickelten wir gemeinsame Strategien zur Aufführung, was schließlich in der verbalen Beschreibung eines dramaturgischen Verlaufs gipfelte. In dieser Form wurde es am 6. 5. 1996 zusammen mit dem Baßklarinettisten Gene Coleman in Chicago aus der Taufe gehoben.

In der Folge veröffentlichte ich das Stück - als Computerprogramm und einer eigenen Webpage - im Internet und kam dadurch in Kontakt mit dem amerikanischen Cellisten Jeffrey Krieger. In seinen Soloperformances verwendet er ein eigens für ihn gebautes elektrisches Cello, mit Hilfe dessen er in Zwiesprache mit dem Computerprogramm treten wollte. Das führte neben einschneidenden strukturellen Veränderung auch zu einer Erweiterung des Klangmaterials: gemäß meinen Angaben nahm Krieger einen ganzen Katalog von Celloklängen auf, der in das Programm integriert wurde. In Zusammenarbeit mit weiteren Musikern (wie dem Oboisten Joseph Celli aus New York und der Schlagzeugerin Amy Knoles aus Los Angeles) realisierte ich weitere Varianten des Stückes, die nicht nur auf die instrumentalen Fähigkeiten und das spezielle Equipment der Musiker (MIDI-Horn und elektrisches Schlagzeug) Bezug nehmen, sondern darüber hinaus auch Klänge ihrer Instrumente mit integrierten. Interaktion findet dadurch nicht nur auf der Ebene Mensch-Maschine statt, sondern auch in der persönlichen Auseinandersetzung mit den am Projekt beteiligten Musikern, was zu einer ungemeinen Bereicherung im Künstlerischen und Persönlichen führt: hier wie dort fließt Neues und Unbekanntes ein, das sich im jeweiligen Stand des Projektes widerspiegelt.

Dadurch mutierte das ursprüngliche Konzept einer autopoietischen Kompositionsmaschine zu einem Instrument, das ich seit einiger Zeit selbst in Soloperformances und Kollektiv-Improvisationen spiele, wo ich den Computer nebst angeschlossener Devices (wie Fußpedale, Tastaturen, Schalter und Schieberegler) mit Händen und Füßen traktiere und ihm Klangwelten entlocke, von denen ich bislang nur träumen konnte.

BG: Kam der kommunikative Aspekt der Notationsebene der Realtime Compositions, der Schritt über die Einsamkeit der Tonbandrealisationspartituren hinaus, tatsächlich per Zufall zustande? Und wie veränderte sich die Notation durch die Notwendigkeit "externer" Kommunikation?

KHE: Der "Zufall" begegnet einem auf Schritt und Tritt, als Angebot, aus eingefahrenen Wegen auszuscheren. Eigentlich aber geht es um die Bereitschaft, solche Angebote anzunehmen, sich mit ihnen kreativ auseinanderzusetzen. Ich persönlich empfinde schon seit langem das Verfertigen von Partituren im Elfenbeinturm - "in splendid isolation - als unzureichend. Die Zusammenarbeit mit anderen Künstlern hat mich immer inspiriert, und tatsächlich verdanken sich einschneidende Neuorientierungen in meiner Arbeit zumeist einer Anregung von außen: durch die Zusammenarbeit mit Harald Naegeli (dem "Sprayer von Zürich") im Rahmen unseres Performanceprojektes Partikel-Bewegungen (1991) drängt sich erstmals die Notwendigkeit der "Realtime Composition" auf, die später durch die Mitarbeit an der HyperMedia-Version von Andreas Okopenkos "Lexikon-Roman" zur Lexikon-Sonate führte.

Ebenso verdankt sich die Veränderung der Notation dem kommunikativen Umstand: sobald andere Musiker an einem Projekt beteiligt sind, ergibt sich wieder die Notwendigkeit einer klaren, unmissverständlichen Schriftlichkeit, die sich im Falle von Amazing Maze in einem völlig überarbeiteten und an den jeweiligen Musiker angepassten "user interface" darstellt. Die Benutzeroberfläche des Programmes fungiert als primäre Kommunikationsebene, die dem Musiker nicht nur seinen Input in das System visualisiert, sondern ihm auch den jeweiligen Zustand des Kompositionsprogramms zeigt. Erst dadurch wird Interaktion möglich, wenn der Musiker nicht nur im Augenblick (durch das Hören) reagieren kann, sondern zudem auch durch Schriftlichkeit (also vermittels des Sehens) abzuschätzen vermag, was der Computer in den nächsten Augenblicken generieren wird.


Aktionsfelder

Im Falle meiner jüngsten Komposition - Champ d'Action (1998) für computer-gesteuertes Ensemble - stellte sich mir die Notwendigkeit, eine neue Art von Notation zu erfinden, die sich leicht überblicken läßt, klare Spielinstruktionen liefert, dabei aber Offenheit und Vielfältigkeit ermöglicht.


POINTS POINTS


long

middle

short

long

middle

short

high

middle

low

pitched

semi-pitched

unpitched

phrases

pauses

registers

sounds

types: pre / ord
periodicity: 4



Beispielseite aus Champ d'Action (1998)


BG: Hier liegt einerseits, wie auch der Lexikon-Sonate und Amazing Maze, eine "programmatische" (quasi "grammatische") Schriftlichkeit zugrunde (als source code des MAX-Programmes bzw. als JavaScript-Files für den Internet-Browser). Das Stück entstand aber im Auftrag des belgischen Ensembles "Champ d'Action", und hier waren zum ersten Mal Musiker als Interpreten vorgesehen, die via Bildschirm grafische Instruktionen zum Spielen erhalten. Welche formalen Besonderheiten gehen für Dich als Komponist mit dieser Notationsweise einher?

KHE: Im Unterschied zur Lexikon-Sonate werden in diesem Stück keine direkten Spielanweisungen für ein elektro-mechanisches Klavier generiert (welche Taste zu welcher Zeit wie stark angeschlagen und wie lange gehalten wird), sondern Strukturtypen vorgegeben, die von den Spielern realisiert werden. Der prinzipielle Ablauf aber ist in beiden Fällen gleich: ein mittels Programmcode genau definiertes Strukturmodell wird - im Moment der Aufführung, also in Echtzeit - realisiert; bei der Lexikon-Sonate durch den Computer selbst, bei Champ d'Action hingegen durch Instrumentalisten.

Hier habe ich buchstäblich ein "Aktionsfeld" geschaffen, indem sich die Musiker aufgrund eines Regelsystems bewegen, miteinander in Beziehung treten und gemeinsam zu neuen musikalischen Ausdrucksformen gelangen können, die - im Detail ungeplant - sich spontan im Moment des Zusammenspiels ergeben.

BG: Wie ist das Verhältnis zu grafischen Blättern, die dem Interpreten zur Mehrdeutung vorgelegt werden?

KHE: Der wesentlichste Unterschied ist, daß diese "Blätter" in Echtzeit erzeugt werden und ich deren Generierung direkt beeinflussen kann. Die Musiker können während der Aufführung von mir über einen zentralen Steuercomputer gezielt ein- und ausschaltet werden: dadurch läßt sich die formale Entwicklung des Stückes - im Moment seiner Aufführung - beeinflussen. Dies läßt sich mit vorgefertigten graphischen Notationen natürlich nicht bewerkstelligen.

BG: Warum hast Du diese Form der Notation gewählt? Wie kam es zu der Kombination von (quasi digital zu lesenden) beschrifteten Kästchen? Worauf basiert die Auswahl und Einteilung der Parameter?

KHE: Dem Stück liegen 8 unterschiedliche Strukturtypen mit charakteristischen Eigenschaften zugrunde, deren Parameterwerte im Verlauf des Stückes mittels stochastischer und serieller Operationen näher bestimmt werden. Diese Spielmodelle können als graphische Umsetzungen von Strukturgeneratoren verstanden werden, wie sie bei der Lexikon-Sonate und bei Amazing Maze auftreten, aber auch meiner Instrumentalmusik als syntaktische Modelle zugrunde liegen.

Das obige Beispiel zeigt eine Struktur namens POINTS; sie besteht hier aus der alternierenden Abfolge von Phrasen kurzer Dauer (= zwischen 1 und 4 Sekunden) und langen Pausen (= zwischen 4 und 16 Sekunden). Diese beiden Parameter bezeichnen die grobe zeitliche Strukturierung. In den folgenden beiden Feldern wird das Klangmaterial näher definiert: geräuschhafte Klänge im mittleren Register. Darunter finden sich spezifische Anweisungen für den Strukturtyp POINTS: die Phrasen bestehen aus kurzen, "punktartigen" Klängen, die hier in zwei Formen auftreten können: als "pre" (= kurze Vorschlagsfiguren mit Crescendo zu dem eigentlichen Punktklang) und "ord" (= Staccato). Der letzte "periodicity"-Parameter regelt zuletzt die rhythmische Binnenstruktur einer Phrase und bestimmt den Grad von rhythmischer Regelmäßigkeit zwischen den Extremen 5 (= "völlig periodisch" = konstante Pulsation) und 1 (= "völlig irreguläre Rhythmik).

Die Hauptarbeit bei den Einzelproben bestand nun darin, mit den Musikern Spielweisen für ihre Instrumente zu erarbeiten, da die Notation auf instrumentenspezifische Merkmale keine Rücksicht nimmt. Deshalb ist sie auch gewissermaßen "abstrakt" und muß erst eingelöst werden, wobei nicht nur die Besonderheiten des Instrumentes, sondern auch die individuellen Fähigkeiten des Musikers in die klingende Interpretation eingehen.

BG: Die einzelnen Bildschirmanweisungen muten konkreter, strenger an. Ergibt sich die Fluidität erst aus dem Miteinander, während die Computervorgabe der von den Musikern zu produzierenden Einzelereignisse jeweils ein möglichst geringes Maß an Beliebigkeit erzielt?

KHE: Der Musiker spielt eine Struktur - in der vorgegebenen Alternierung von Phrase und Pause - solange, bis am Bildschirm ein Fermatensymbol erscheint. Obwohl die Strukturen klar definiert sind, erlauben sie dennoch einen gewissen Spielraum für den Interpreten, vor allem im Bereich der Dynamik, die nicht näher bestimmt wird. Außerdem kann eine Struktur auf verschiedene Arten gespielt werden, deren Auswahl dem Musiker freigestellt ist, wobei der momentane Klangzustand des Ensembles die Entscheidungen mit beeinflußt: will ich mich in homogener Weise einfügen oder als Störfaktor in Erscheinung treten? usw.

BG: Welche Konsequenzen bringt aus Deiner Sicht das Lesen der "Instrumentalstimme" vom Bildschirm für die Musizierenden?

KHE: Diese sind jetzt nicht mehr bloß Exekutoren eines vorgegebenen Textes, der - reproduktiv - interpretiert wird, sondern gleichsam Mitschöpfer an einem Prozess, der nicht im Voraus geplant werden kann und seine unmittelbare Energie aus dem Zusammenwirken unterschiedlicher musikalischer Kraftfelder bezieht. Auf der anderen Seite bieten die auf den Bildschirm projizierten Spielanweisungen klare Angaben über das, was gespielt werden soll: Hinweise, die von den Musikern kreativ und durchaus in Zusammenhang mit ihrer individuellen Persönlichkeit eingelöst werden sollen. Nicht als Annäherung an eine einzige "ideale" Form der Umsetzung, sondern als die momentane (Er)findung einer Lösung, die im Gesamtkontext sinnvoll ist und durchaus Platz für Spontaneität und Intuition zuläßt; die geradezu erwünscht sind. Dadurch entsteht auch eine neue Art des Musizierens im Spannungsfeld von Improvisation, Komposition und Reproduktion.

BG: Um von den interpretatorischen Spielräumen einer Mahler-Symphonie mal ganz zu schweigen: Wofür stehen hier Formulierungen wie "Prozess", "sinnvolle Lösung" und "Gesamtkontext"?

KHE: Im Unterschied zur Cage'schen Auffassung, dass jeder Musiker seinen Notentext ohne Bezugnahme auf andere zu realisieren hat, steht hier die explizite Aufforderung, die durch die Spielanweisungen angegebenen Klangstrukturen in das sich ergebende Ganze (den "Gesamtkontext") "sinnvoll" zu integrieren. Dies kann auf vielfältigste Art erfolgen, kann auch Desintegration oder Störung beinhalten, sollte aber in jedem Falle so angelegt werden, dass für einen selbst wie auch die anderen stets weitere Wege offen bleiben. Ganz im Sinne Heinz von Försters: "Handle stets so, daß weitere Möglichkeiten entstehen." [3]

BG: Ich weiß, daß Du in "auskomponierten" Stücken intensiv am klingenden Ergebnis, an klanglichen Details feilst, also durchaus an das Hören denkst. Es war hier, im Zusammenhang mit den Realtime Compositions, viel vom Verhältnis zwischen Komponist und Musiker die Rede. Was ist mit den Zuhörenden? Werden die konzeptuellen Eigenheiten der Realtime Compositions schon beim einmaligen Hören wahrnehmbar oder erschließen sie sich erst bei längerer Beschäftigung mit dem Gedankenmodell?

KHE: Ob es sich nun um auskomponierte WERKE oder offene PROZESSE handelt: das dahinterstehende Gedankenmodell dient zur Hervorbringung einer ungehörten Musik, zur Realisierung einer kompositorischen Idee (auch wenn sich diese in nicht-eindeutiger Weise auf unterschiedlichste Art darstellen läßt). Deshalb glaube ich, dass das Wissen darum für den Hörer nicht unbedingt nötig ist. Die Stücke sollten deshalb sinnlich, also ganz im Bereich des Klanglichen, rezipiert werden. In beiden Fällen gehe ich jedoch vom Hören aus: die Strukturgeneratoren (ob sie nun die Lexikon-Sonate, Amazing Maze oder Champ d'Action betreffen) gehen immer von Wahrnehmungsphänomenen aus, niemals von abstrakten oder gar mathematischen Prämissen. Deshalb meine ich auch, dass sich meine Musik am besten durch offenes, bereitwilliges und vorbehaltloses Hören erschließt, in einem aktiven Wahrnehmungsprozess, in dem sich der Hörer aufgrund seiner jeweiligen persönlichen Voraussetzungen sozusagen seine eigene Fassung der Komposition mitkomponiert. Hören wird hier nicht zum bloßen Abbilden und Entziffern einer vorgegebenen Wirklichkeit, sondern zu einer schöpferischen Konstruktion.


Fußnoten

[1] Karlheinz Essl: Plädoyer für das offene Kunstwerk; in: Positionen. Beiträge zur neuen Musik, hrsg. von Gisela Nauck, Heft 26 "Interpretation" (Berlin 1996).

[2] Haubenstock-Ramati, Roman: Musik - Grafik. Pre-Texte. Wien: Ariadne, 1980. - S. 8. Vgl. auch ders.:"Notation: Material und Form", in: Notation Neuer Musik. - Mainz: Schott, 1965 (Darmstädter Beiträge zur Neuen Musik, Bd. 9)

[3] Heinz von Foerster, Das Konstruieren einer Wirklichkeit; in: Die erfundene Wirklichkeit. Wie wissen wir, was wir zu wissen glauben. Beiträge zum Konstruktivismus, hrsg. und kommentiert von Paul Watzlawick (München 1985), S. 40


© 1998 by Karlheinz Essl / Bernhard Günther


Erschienen in der Zeitschrift Positionen. Beiträge zur Neuen Musik, hrsg. von Gisela Nauck, No. 36 "Schrift(lichkeit)" (Berlin 1998), S. 4-9. - ISSN: 0941-4711.



Home Works Sounds Bibliography Concerts


Updated: 9 Mar 2016