Algorithmische Komposition und Live-Elektronik

Samuel Gfeller im Gespräch mit Karlheinz Essl
2010


In der Vorbereitungsphase für diese Arbeit reiste ich nach Wien, um mich mit dem Komponisten Karlheinz Essl zu treffen und mit ihm über seine Ansätze zur algorithmischen Komposition und der Umsetzung mit Live-Elektronik zu sprechen. Das Gespräch fand am 15. Februar 2010 im Café Prückel in Wien statt.


m@ze°2

Samuel Gfeller: Ausgangspunkt meiner Arbeit ist die Frage nach der Veränderung in der Art, wie man Live-Elektronik spielt, wenn man nicht direkt Samples aufnimmt und sie abspielt oder eigentlich mit den Effekten spielt und diese steuert. Bei ihnen habe ich unterschiedliche Herangehensweisen festgestellt. Mit m@ze°2 haben sie ja ohne Instrumentalisten gearbeitet; sozusagen mit ihrer Klangbibliothek. Was ändert sich, wenn man sich auf den Instrumentalisten so bezieht, dass man seinen Klang aufnimmt und ihn als Klangquelle in das Setup hineinsetzt?

Karlheinz Essl: Wenn ich mit m@ze°2 arbeite, operiere ich ganz bewusst mit einem geschlossenen System, wo ich eben nicht den Sound meines Partners manipuliere, sondern mit Klängen und Algorithmen, die in meinem System eingespeichert sind, darauf Antworten finde. Und das hat ursprünglich fast etwas von sportlichem Ehrgeiz gehabt, ein Instrument zu schaffen, das so flexibel ist, dass ich mit jedem Musiker sofort in einen Dialog oder Diskurs treten kann. Und da habe ich mir ganz bewusst vorgenommen, sein Signal nicht zu verwenden. Ich habe zwar die Möglichkeit vorgesehen, weil dies immer wieder Musiker gewünscht haben, dass ich ihre Klänge auch in Echtzeit übernehme und darauf reagiere, aber ich mache das eigentlich nicht so gerne, weil ich immer denke, jeder spielt mit seiner eigenen Sprache und wir versuchen gemeinsam zu einem Resultat zu kommen.

SG: Sie schreiben ja in ihren Texten, dass sie es nicht mögen, den Instrumentalisten nur als Ausführender im Dienste der Live-Elektronik zu haben.

KHE: Es kann die Tendenz geben, dass man ihn einfach missbraucht als Input-Geber, und das wollte ich in diesem Projekt bewusst nicht machen. Und ich bin auch darauf gekommen, dass es die Musiker sehr schätzen, wenn man sie nicht quasi missbraucht, sondern dass man mit ihnen in einen echten Diskurs tritt, wie wenn zwei Instrumentalisten miteinander spielen.


Karlheinz Essl mit seinem Elektronik-Instrument m@ze°2
Improvisationskonzert mit Gerald Preinfalk und Jörg Engels
Klosterneuburg, Essl Museum (21 Nov 2009)


Sequitur

Aber sozusagen das Gegenteil habe ich in meinem Sequitur-Projekt thematisiert, wo ganz gezielt die Elektronik so funktioniert, dass nur der Live-Input des Musikers das Einzige ist, was zählt und alles andere aus dem Computer selber kommt. Die Idee war, dass die Musiker diese Stücke selber aufführen können, ohne dass ein Elektroniker anwesend ist, weil sie ein System in die Hand bekommen, das so kompakt und einfach zu bedienen ist, dass sie anhand einer Preset-Struktur das Stück spielen können. Aber jetzt kommt auch dazu, dass es gibt einen Zeitablauf, eine Form und vor allem eine Partitur; die Abläufe und die elektronischen Veränderungen sind trotzdem flexibel und Dank der Zufallsoperationen, die ich einsetze, auch nicht vollständig reproduzierbar. Das heisst: für den Musiker ist es immer eine neue Situation, es ist endlich aber immer anders, da er weiss nicht, was genau an einer bestimmten Stelle passiert. Er weiß jedoch, das dort etwas in einer bestimmen Art und Weise passieren wird, aber nicht, ob es und wann genau es statt findet. Und dies erzeugt beim Musiker eine ganz andere Art von Aufmerksamkeit, so dass er nicht das Gefühl hat, einfach eine Partitur im perfekten Timing zu spielen, sondern interaktiv mit sich selbst musiziert.

SG: Was ändert sich an ihrer Rolle, wenn sie solche Stücke live aufführen?

KHE: Das ist eigentlich im Sequitur-Projekt eine Notlösung, weil das für die Instrumentalisten, die nicht so viel Erfahrung mit Elektronik haben, oft sehr schwierig ist, den Computer gleichzeitig zum Spiel zu bedienen. Es gibt einige Stücke, wo nicht nur Presets weitergeschaltet werden, sondern auch noch die Dynamik der Elektronik gleichzeitig zum eignen Spiel kontrolliert werden muss. Dies ist eine Sache, die man wirklich üben muss. Es bildet sich eine Art von Polyphonie, in der das Hirn auch anders funktionieren muss, da man einerseits seinen eigenen Part spielt und dazu mit Fusspedalen die Elektronik nach einer genauen Partitur steuern muss.


Jennifer Hymer spielt Sequitur XIV für Kalimba und Live-Elektronik
Hamburg, Klang!-Container (13 Sep 2009)


el-emen'

Es war die Idee von Sequitur, den Interpreten ins Zentrum zu stellen und weniger mich, der das Stück zwar komponiert hat, als Interpret. Bei anderen Stücken, wie dem el-emen' für Schlagzeug und Live-Elektronik, gibt es eigentlich zwei Instrumentalisten, die in einer Art Environment, das ich gestaltet habe, improvisieren. Da ist es eine ganz andere Situation, in der es unglaublich schnell hin und her geht. Das Stück arbeitet mit Live-Inputs und einem Klangverteilungs-Algorithmus, der die Klänge im Raum verwirbelt. Da ist es so, dass sich die Körperlichkeit der Bewegung auf die Regler übertragen eine unmittelbare Auswirkung auf den Klang hat.

SG: Steuern sie in diesem Stück auch algorithmische Prozesse?

KHE: Ich kontrolliere sozusagen eine Meta-Ebene. Diese Meta-Ebene wird dann auf einer darunter liegenden Schicht mit Hilfe von Algorithmen und statistischen Prozessen oder Zufall dann ausgeführt. Das heisst, ich steuere also nicht, wie sich ein Input-Signal verstimmt, sondern ich gebe nur den Grad der Verstimmung an, wie viel Freiheit der Algorithmus hat. Und den Rest macht der Algorithmus. Aber ich weiss, dass, wenn ich den Regler wieder zurückziehe, dann bleibt der Klang wieder auf der Originaltonhöhe. Und wenn ich den Fader öffne, dann "eiert" der Klang in einem vorher bestimmten Ambitus in einer algorithmisch bestimmten Geschwindigkeit herum.

SG: Ich kenne von meiner Arbeit vor allem das Spielen von Effektgeräten. Wenn man nun diesen Zufall und die Kontrolle aus der Hand gibt, verlangt dies nicht nach einem anderen Ansatz, mit dem man an die Musik heran geht oder sich in der Improvisation verhält?


el-emen' (Ausschnitt) gespielt von Stephan Froleyks und Karlheinz Essl
Kunsthaus Kloster Gravenhorst (17 April 2010)


Improvisation

KHE: Das kommt aus meiner Beschäftigung mit Improvisation und auch mit Interpretation. Weil es letztlich ja so ist, auch wenn das Stück eine genau Partitur hat und wenn man es noch einmal aufführt, es nie gleich sein wird; sich immer wieder verändert. Einer der Parameter, der besonders stark auf die Interpretation wirkt, ist meiner Meinung nach der Raum, seine Grösse und Akustik. Es ist eine alte Erfahrung seit Jahrhunderten, dass das Tempo eines Stücks vor allem in der klassischen Musik auf den Raum abgestimmt ist, da Zäsuren und Fermaten viel mit dem Raum zu tun haben. Je nach Raum, in dem man zum Beispiel ein barockes Stück aufführt, wird es immer wieder anders klingen. Gerade beim Generalbass ist die Situation die, dass eine Kurznotation improvisatorisch umgesetzt wird. Diese Erfahrung hat mich dazu gebracht, Musik zu komponieren, die zwar als Komposition definiert ist, die aber Prozesse beinhaltet, welche jede Aufführung zu etwas Einmaligem werden lassen.

SG: Aber weniger auf den Raum bezogen, sondern direkt auf den Klang.

KHE: Ja, aber der Raum spielt natürlich auch eine Rolle. Wenn ich ein Stück in einem sehr halligen Raum aufführe, dann wird der Musiker ein anderes Tempo machen, wird andere Verzögerungen verwenden, wird die Fermaten länger oder kürzer machen, die in diesen Stücken eine wichtige Rolle spielen, da gerade dort die Elektronik in den Vordergrund tritt.


Karlheinz Essl improvisiert mit seinem Computer-Instrument m@ze°2
Berlin, 401contemporary fine art gallery (13 Jun 2009)


Form

SG: Wir haben jetzt über die Gestaltung des Klanges mit Hilfe von Algorithmen gesprochen. Wie sieht es mit der Form aus, wenn sie mit einem „algorithmischen Instrument“ spielen?

KHE: Die Form entsteht, wenn ich so improvisiere, dynamisch. Zur Form in der Improvisation gibt es verschiedene Grundmodelle, die sich etabliert haben. Eines der Grundmodelle ist, einen unendlichen Prozess zu beginnen und an irgendeiner Stelle wieder zu stoppen. Es entsteht eine statistische Verteilung von Klang, wo verschiedene Aspekte des Klanges abgetastet und dargestellt werden. Es ereignet sich hier keine dramatische Form mit Höhepunkten und Entwicklungen, sondern dieses Abtasten ziemlich linear vor sich geht. Das ist eine Art reduktionistisches Formprinzip, welches vor allem in Berlin zu lokalisieren wäre.

Dann gibt es eine Form, die eher aus dem Freejazz kommt - aus dem hot play - wo man quasi geballte Energie in den Raum schickt und aufeinander einprügelt und dabei eine Art Kampfsituation - ein battle - entsteht. Da gibt es dann immer wieder Momente, wo einer die Oberhand hat und ein Solo spielen darf und der andere unterliegt.

Dann gibt es eine Art der Improvisationsform - man kann sie auch als Bogenform bezeichnen - die sehr beliebt ist, wenn Musiker zum ersten Mal miteinander spielen. Dabei ist es naheliegend, dass man sehr vorsichtig beginnt, so wie wenn man sich nicht kennt in einem Gespräch, dass man sich erst gegenseitig abtastet und beschnuppert und schließlich so gemeinsam zu einem Höhepunkt kommt und am Schluss wieder langsam verebbt.

Die Form, die mich jedoch am meisten interessiert, ist die dynamische Form, die sich kein Formmodell vorgenommen hat, sondern aus dem Moment heraus einen Weg sucht im gemeinsamen Spiel. Und jetzt kommt der Punkt: Dieser Weg ist nicht einfach nur ein Weiterlaufen, ein von-Situation-zu Situation-gehen, sondern ein Weg durch eine Art Landschaft. Eine Landschaft, die man sich selber mit seinen Klängen baut. Und der Punkt ist, dass man immer wieder zurückkehren kann, dass bereits schon gespieltes Material wieder ins Spiel gebracht wird und dann man schaut, wie die Mitspieler darauf reagieren.

Das ist eine Idee, die eigentlich von Beethoven kommt. Das ist eine Form, die auch mit Motivik, Entwicklung und Variation arbeitet, die aber auch nicht wie in der klassischen Musik eine Art von Bogen spannt, sondern sich dynamisch entwickelt und die sich zu jedem Zeitpunkt total verändern kann. Das ist für mich eine sehr spannende Möglichkeit des Spielens, die ich sehr mag.

SG: Sie schreiben in ihren Texten ja von dieser Matrix von Möglichkeiten, die sie im Vorfeld abtasten, um dann während des Spielens die verschiedenen Zustände aufzusuchen.

KHE: Ja, das ist eher systematisch, ein abstraktes Modell und die Verbildlichung wäre dann eben der Garten oder die Landschaft, die man selber baut.

Wenn ich ein Solo-Improvisation mache, habe ich meist Stücke vorbereitet, die in ihrer Erscheinung jedoch jedesmal anders werden, weil sie nicht einem genauen Zeitplan oder Ablaufplan gehorchen. Jedes dieser Stücke bildet sozusagen eine eigene Gartenanlage, wo ich weiss, da gibt es einen See, verschiedene Wege, verschiedene Bäume und Pflanzen und Blumen und ich kann jetzt entscheiden, wie ich mich in diesem Garten bewege. Ich kann am Anfang beginne und gehe durch ein Eingangstor hinein, aber ich kann auch über die Mauer klettern und gehe mal in den See baden. Bei manchen dieser Stücke - wie etwa bei action rituelle - hat sich allmählich eine Form herauskristallisiert, die sich als stimmig erwiesen hat. Manchmal ist es für mich spannend, das Stück komplett neu aufzuzäumen und nicht mit der Eingangstüre zu beginnen, sondern an einem anderen Ort in das Stück einzusteigen. Dabei gilt es immer wieder im Moment zu entscheiden, was für das Stück jetzt sinnvoll ist.



Agnes Heginger (Stimme) and Karlheinz Essl spielen action rituelle
Verein08, Wien (21 Jan 2010)


Lexikon-Sonate

SG: In Improvisationen oder auch bei der Aufführung von Stücken spielt ja aber die Intuition eine grosse Rolle. Müsste man nicht konsequenterweise sagen, dass in einem Stück auch die Form algorithmisch bestimmt oder improvisiert werden müsste, wie dies zum Beispiel bei der Lexikon-Sonate passiert.

KHE: Bei der Lexikon-Sonate gibt es verschiedene Modi. Der Modus Auto-Pilot funktioniert so, dass ein Algorithmus die Form bestimmt. Das war eigentlich die Ursprungsidee des Stücks. Das Einzige, was der User oder der Benützer des Programm machen konnte, war, diesen Auto-Piloten auszuschalten und selber per Tastendruck zu bestimmen, wann sich die Musik verändert. Als Bild könnte dafür die Fahrt in einer Eisenbahn dienen, bei der der Passagier bestimmen kann, wann die Bahn anhält, damit man die Landschaft, in der man sich befindet, genauer betrachten kann. Das kann er unendlich lange machen oder gleich sagen, es sei langweilig, und wieder weiterfahren.

Wichtig ist auch, dass der Übergang keine bloße Interpolation vom einen Zustand zum nächsten ist, sondern eine strukturelle Transformation stattfindet, bei dem die Klangebenen neu gemischt werden. Daraus bildet sich eine algorithmisch motivierte Form, bei der der User die Möglichkeit hat, die Zeitlichkeit zu gestalten.

Die andere Möglichkeit ist, einen MIDI-Controller anzuschliessen, und die einzelnen Kompositions-Parameter damit zu steuern. D.h. quasi die Intensität oder „statistische Lautstärke“ oder den Freiheitsgrad des Algorithmus zu kontrollieren. Dabei baut sich ein Wahrscheinlichkeitsfeld auf, was die Intensität der verschiedenen Generator anbelangt.

Wenn ich z.B. den Regler ganz unten habe, ist der Generator stumm geschaltet. In dem Moment, wo ich mit dem Regler hinauf ziehe, bewegt sich die Lautstärke zwischen dem Minimum und dem Wert, den ich gerade erreicht habe; wenn ich in der Mitte bin, habe ich den vollen Bereich der vordefinierten Dynamik; und je weiter ich nach Oben gehe, desto mehr fallen die leisen Anteile weg; und wenn der Regler sich ganz Oben befindet, spielt der Generator nur noch Fortissimo. Dies ermöglicht mir, wenn ich drei Generatoren habe und deren Lautstärken mische, dramatische Interaktionen zwischen den Strukturteilen zu spielen. Der Punkt dabei ist nun, dass ich mit dem Regler nicht bestimme, wo sich die aktuelle Lautstärke befindet, sondern ich definiere nur den Ambitus, in dem sich die Lautstärke befinden soll.

Das ist nun ein sehr mächtiges Mittel, wie man die Lautstärke von drei Generatoren in sehr komplexer Weise miteinander mischen kann. Ich reduziere die Interaktionsmöglichkeiten, gewinne dadurch aber eine unglaubliche Vielfalt an Möglichkeiten. Und weil alles, was ich als Performer höre, direkt wieder in den Prozess zurückfliesst, kann ich sofort darauf reagieren.

SG: Kann man trotzdem sagen, dass in diesem Fall die Form vom Interpreten bestimmt wird?

KHE: Ja, genau.

SG: In ihren Stücken arbeiten sie mit verschiedenen musikalischen Gesten: Cloud, Drone usw. Wie ergeben sich diese Klangtypen?

KHE: Sie entstehen eigentlich durch reverse engineering. Ich habe zuvor die einzelnen Strukturtypen der Lexikon-Sonate analysiert und versucht, sie anschließend als algorithmisches Modell zu implementieren. Dabei sind sie so konstruiert, dass sich die Resulatet niemals wiederholen und dass aus einer übergeordneten Idee heraus, viele verschiedene Varianten entstehen können, die zwar unterschiedlich sind, sich aber immer auf die Idee der Modellbildung beziehen. Ich habe das einmal in einem Text mit der „Urpflanze“ von Goethe verglichen. Als ich den Text geschrieben habe und dieses Bild auf meine Art zu Komponieren übertragen habe, gab es diese Photoshop-Erweiterung „Bryce“. (Der Name bezieht sich auf das Bryce-Canyon in Kalifornien.) Es ist eine Art Generator, mit dem man virtuelle Landschaften algorithmisch generieren kann. Über verschiedene Parameter konnte man bestimmen, wie diese Landschaft dann aussehen soll. Darin fand ich eine Entsprechung zu meinem Modellbegriff, der letztlich auf Goethe zurückgeht.


Karlheinz Essl spielt seine Lexikon-Sonate
auf einem Bösendorfer CEUS Computerflügel
Bösendorfer-Saal, Wien (12 Dec 2008)


Modellbildung und Algorithmus

SG: Wenn ich die Idee der Modellbildung nun auf das Spielen von Musik mit Live-Elektronik übertrage, stelle ich mir vor, dass man von der Vorstellung wegkommen muss, in Effekten zu denken. Also dass man nicht mehr einfach ein Effektgerät spielt, bei dem man die Grösse das Halls oder die Frequenz eines Filters steuert.

KHE: Da kommt es sehr darauf an, was sie dabei von dem Algorithmus erwarten. Ich finde es wichtig, dass man den Algorithmus nicht als Über-Ich empfindet, der einem zwingt etwas Bestimmtes zu machen, sondern als Partner, den man so konstruiert, dass man immer die Möglichkeit hat zu entscheiden oder zu dominieren. So dass man ihn zuerst deterministisch verwenden kann, um dann immer mehr Freiheitsgrade einzubauen und ihn autonom werden zu lassen. Das wäre das ideale Modell, wie man sich einen Generator baut. Dass man es schafft, zwischen einer deterministischen Struktur, die man sich genau vorstellen kann, und einer ganz freien Variation dessen stufenlos zu vermitteln.

SG: Darin spiegelt sich ja auch der Übergang zwischen Serialismus und Aleatorik.

KHE: Es ist genau das. Interessant ist dabei auch das die Aleatorik aus dem Serialismus hervorgegangen ist. Historisch war ja die Erkenntnis von John Cage, dass er von der Wirkung her die gleiche Art von Musik erzeugen kann, wie sie vorher in früheren seriellen Werken mit ihrer nur noch statistisch analysierbaren Struktur und keinen hörbaren Regelmässigkeiten erzeugt wurden.

Als nächster Schritt folgte dann die Erkenntnis, wenn das schon statistische Verhältnisse sind, mit denen die Musik gebildet wird, warum dann nicht auch mit statistischen Methoden arbeiten anstelle von komplexen Reihenmanipulationen. Und das ist eigentlich der Verdienst von Gottfried Michael Koenig, der dies zuerst erkannt hat und auch die ersten Computerprogramme für algorithmische Komposition entwickelt hat, die genau mit diesem Ansatz arbeiten. Für Koenig war sehr wichtig, dass die Verbindung zwischen Regelmässigkeit - also den deterministischen Strukturen - und den unregelmässigen Strukturen als Skala zwischen den Grenzwerten Ordnung und Unordnung auffasst, auf der man sich frei bewegen kann.

SG: Also nicht als Gegensatz!

KHE: Richtig. So könnte man Schwarz und Weiss nicht als komplentäre Farbwerte sehen, sondern als unterschiedliche Intensitäten der Farbe Grau. Dies kommt wiederum der Arbeit mit Computern sehr nahe, wo man auch mit solchen Abstufungen arbeiten.


Material

SG: Wir haben ja vorher von der „Matrix der Möglichkeiten“ gesprochen. Wie entsteht eine solche Matrix, wenn sie ein Stück komponieren? Wie gehen sie dabei vor?

KHE: Das ist sozusagen das, was man früher als „Vorkomposition“ bezeichnet hat. Also die Suche des Materials, aus dem das Stück dann zusammengesetzt wird. Dabei lege ich mir eine Sammlung an von Material, das nicht mehr roh ist, sondern auch schon vorbearbeitet ist. Das ist dann meine Matrix. Dabei ist es wichtig, dass das Material sehr gut formuliert und definiert ist - eben nicht zufällig, sondern beabsichtigt. Die Anordnung des Materials ist hingegen weniger dem kompositorischen Willen unterlegen und erfolgt dann mithilfe der Algorithmen.

Für den Zyklus Sequitur habe ich für jedes Instrument eingehende Materialstudien betrieben und dann einen harmonischen Verlauf festgelegt. Beim Stück für Gitarre - Sequitur VIII - beginne ich auf dem a' und spreize allmählich den Tonumfang immer mehr in die Höhe und in die Tiefe. Der Ambitus wächst und es entwickelt sich ein breites Geflecht. Das ist für mich auch ein ganz wichtiger formaler Aspekt, damit ich mich im Stück nicht verliere. Und dann habe ich beim Komponieren die verschiedenen Möglichkeiten der Gitarre fast anekdotisch verwendet, weil ich in dem Stück die ganze Reichhaltigkeit der Gitarre, ihre vielseitigen Sounds und Spieltechniken als Façetten präsentiere. Deswegen gibt es hier immer wieder historische Bezüge zu Hardrock, Frank Zappa oder Jimi Hendrix, die aber immer dem harmonischen Prinzip untergeordnet sind. Zusammen mit der Kanon-Struktur, die bei Sequitur verwendet wird, führt dies dazu, dass neue Façetten immer wieder zeitlich auf das Vorhergehende aufbauen und damit in Beziehung treten. Beim Gitarren-Stück kommt dann dazu, dass sich die Kanonstruktur zur Mitte des Stücks verdichtet, d.h. die Verzögerungszeiten werden kürzer, und dann wieder entspannt. Dabei ist mir ganz wichtig, dass die Delay-Lines nicht die ganze Zeit laufen, sondern algorithmische einund ausgeschaltet werden. Damit bricht der Kanon-Generator auch mit der herkömmlichen Form des Kanons, weil es möglich ist, dass einzelne Einsätze gar nicht zu hören sind oder im Extremfall nur ein Einsatz hörbar wird.


in: Samuel Gfeller, Algorithmische Komposition und Live-Elektronik. Bachelor's Thesis (Hochschule der Künste Bern), 2010



Home Works Sounds Bibliography Concerts


Updated: 1 Feb 2021

Web
Analytics