Portrait

Karlheinz Essl

Wandlungen der elektroakustischen Musik

2007
in: Zwischen Experiment und Kommerz. Zur Ästhetik elektronischer Musik, hrsg. von Thomas Dézsy, Stefan Jena und Dieter Torkewitz
(= ANKLAENGE. Wiener Jahrbuch für Musikwissenschaft, hrsg. von Cornelia Szabó-Knotik und Markus Grassl, Band 2)
Mille Tre: Wien 2007, p. 37-84. - ISBN: 978-3-900198-14-5


Inhalt



Abstract

Die mittlerweile 100jährige Geschichte der elektroakustischen Musik1 spiegelt in ihren zahlreichen Façetten den gesellschaftlichen, politischen und technologischen Wandel des 20. Jahrhunderts wider. Der vorliegende Beitrag versucht zunächst, charakteristische ästhetische Positionen herauszuarbeiten, ohne damit aber Anspruch auf Vollständigkeit zu erheben. Vielmehr möchte ich die historische Entwicklung der elektroakustischen Musik (und der im Zusammenhang damit entstandenen Computermusik) als Folie begreifen, auf deren Hintergrund ihr zukunftsweisendes Potential aus meiner Sicht dargestellt werden soll.

Unsere Zeitreise beginnt zunächst bei den ersten elektro-mechanischen Instrumenten und führt nach einem kurzen Abstecher in die revolutionären Ideenwelten des italienischen Futurismus schließlich zur französischen musique concrète. In scharfem Gegensatz dazu positioniert sich in Köln eine seriell geprägte Denkschule der elektronischen Musik, die das spannungsgesteuerte Analogstudio und die Entwicklung algorithmischer Kompositionssysteme mit sich bringen. Der Einsatz des Computers ermöglicht schließlich die digitale Klangsynthese und die aktuellen Formen heutiger interaktiver Echtzeitkomposition.

Die elektroakustische Musik unserer Tage ist von einer postmodernen Vielfalt geprägt, welche die einst heftig ausgefochtenen Grabenkämpfe heute vergessen macht. Mit ihrer breiten Popularisierung („New Electronic Music“) und dank der einfachen Verfügbarkeit leistungsfähiger Computer ist sie mit dem Übergang ins dritte Jahrtausend zu einer Massenbewegung geworden, die sich vielfach außerhalb der akademischen Zirkel abspielt. Was sich daraus an kompositorischen Möglichkeiten ergeben kann, soll im Schlusskapitel dargestellt werden.


Geschichtliche Entwicklung

Elektrische Instrumente

Die Geschichte der elektroakustischen Musik beginnt mit der Wende zum 20. Jahrhundert und ist eng mit dem technischen Fortschritt und den damit verbundenen Ideologien verknüpft. In seinem 1907 erstmals erschienen Entwurf einer neuen Ästhetik der Tonkunst schlägt Ferruccio Busoni nicht nur ein neues Tonsystem auf der Basis von Sechsteltönen vor, sondern spricht auch von der Notwendigkeit neuer – elektrischer – Musikinstrumente, die solche Mikrotöne erzeugen können, bei gleichzeitiger Vermeidung instrumententypischer Klischees:

"Plötzlich, eines Tages, schien es mir klar geworden: daß die Entfaltung der Tonkunst an unseren Musikinstrumenten scheitert. […] In den allerneuesten Partituren und noch in solchen der nächsten Zukunft werden wir immer wieder auf die Eigentümlichkeiten der Klarinetten, Posaunen und Geigen stoßen, die eben nicht anders sich gebärden können, als es in ihrer Beschränkung liegt; dazu gesellt sich die Manieriertheit der Instrumentalisten in der Behandlung ihres Instrumentes; der vibrierende Überschwang des Violoncells, der zögernde Ansatz des Hornes, die befangene Kurzatmigkeit der Oboe, die prahlhafte Geläufigkeit der Klarinette; derart, daß in einem neuen und selbständigeren Werke notgedrungen immer wieder dasselbe Klangbild sich zusammenformt und daß der unabhängigste Komponist in all dieses Unabänderliche hinein= und hinabgezogen wird."2

Eines der ersten elektrischen Instrumente war eine von Busoni beschriebene Erfindung des Amerikaners Thaddeus Cahill (1867–1934), die unter den Namen Telharmonium bzw. „Dynamophon“ bekannt wurde. „Der Apparat sieht aus wie ein Maschinenraum“3 referierte Busoni, der dieses Instrument, dessen Entwicklung bereits 1897 begonnen und das 1906 erstmals öffentlich präsentiert wurde, selbst nie zu Gesicht bekommen hatte. Es bestand aus zwölf dampfgetriebenen elektromagnetischen Generatoren, deren rotierende Profilscheiben Wechselströme erzeugten4, wog an die 200 Tonnen und füllte einen ganzen Saal.5 Dieses heute leider nicht mehr erhaltene Instrument verfügte über eine anschlagsdynamische Tastatur mit 36 Tönen pro Oktave; zudem ließen sich mittels additiver Synthese verschiedene Klangfarben zusammenmischen. Da es zu jener Zeit weder leistungsfähige Verstärker noch Lautsprechersysteme gab, erfolgte die Übertragung über Telefon, was allerdings nur Subskribenten vorbehalten war.

"Zum Vermittler der Schwingungen zwischen dem elektrischen Strom und der Luft wählte der Erfinder das Telephon=Diaphragma. Durch diesen glücklichen Einfall ist es möglich geworden, von einer Zentralstelle aus nach allen den mit Drähten verbundenen Plätzen, selbst auf große Entfernungen hin, die Klänge des Apparates zu versenden; und gelungene Experimente haben erwiesen, daß auf diesem Wege weder von den Feinheiten noch von der Macht der Töne etwas eingebüßt wird. Der in Verbindung stehende Raum wird zauberhaft mit Klang erfüllt, einem wissenschaftlich vollkommenen, niemals versagenden Klang, unsichtbar, mühelos und unermüdlich."6

Das erste Beispiel von Online-Musik!

Bei den frühen elektrischen Instrumenten stand nicht nur der Wunsch nach frischen und unverbrauchten Klangfarben im Vordergrund, sondern auch die Bestrebung, neue Spielweisen zu entwickeln, um so zu neuen künstlerischen Ausdruckssphären zu gelangen. Eines dieser Instrumente fasziniert bis heute: Das 1921 von Lev Sergejewitsch Termen7 erstmals auf dem „All-Sowjetischen elektro¬technischen Kongress“ vorgestellte Theremin erlaubt mikrotonales Spiel im Tonhöhenkontinuum. Revolutionär ist sein völlig neuartiges Spiel-Interface, das nicht – wie noch beim Telharmonium – auf einer Tastatur mit ihrem impliziten Tonhöhenraster basiert. Durch Annäherung der rechten Hand an eine vertikal angebrachte Antenne wird die Tonhöhe stufenlos verändert und damit können – je nach Intonationsvermögen – Tonhöhenverläufe jenseits des zwölftönig temperierten Systems gespielt werden. Ähnliche Ansätze verfolgt auch das in den 1930er Jahren entwickelte Trautonium mit Hilfe eines sogenannten Bandmanuals.8 Beide Geräte verwenden einen „Schwebungssummer“ als Klangerzeuger: zwei hochfrequente Sinusschwingungen – eine fixe und eine variable – werden einander überlagert, und der dabei entstehende Differenzton wird hörbar gemacht.

Die damit mögliche Erweiterung des Tonsystems wurde aber zu jener Zeit kaum eingelöst. Das Theremin reüssierte als Showinstrument, da es „ätherische“ Klänge ohne direkten Körperkontakt, allein durch Bewegung der Hände in der Luft, erzeugen konnte. Sein Repertoire entsprach allerdings keinesfalls der „luft von anderem planeten“ (Stefan George), die sein Beiname „Ätherophon“ verhieß: zum Standardrepertoire zählen bis heute Kitschstücke wie Camille Saint-Saëns’ Le Cygne (1886) oder Sergej Rachmaninows Vocalise op. 34, Nr. 14.

Trotz aller Neuerungen war die Klangfarbe dieser frühen elektrischen Instrumente noch deutlich am Instrumentalklang mit seinen harmonischen Obertonspektren orientiert. Um dies zu hinterfragen, bedurfte es erst neuer Anregungen außerhalb der Musik.


Futurismus

Ein weitaus schärferer Wind kam zu jener Zeit aus dem italienischen Süden. In seinem 1909 im Pariser Le Figaro veröffentlichten Futuristischen Manifest proklamierte der Schriftsteller Filippo Tommaso Marinetti eine revolutionäre neue Ästhetik, welche die Verherrlichung der modernen Maschinen, die Faszination der Geschwindigkeit, aber auch die Schönheit der Zerstörung und des Krieges zum Inhalt hatte:
"Wir wollen den Mann besingen, der das Steuer hält. Wir wollen den Krieg als die einzige Hygiene der Welt glorifizieren, den Militarismus, den Patriotismus, die schönen Ideen für die man stirbt, und die Verachtung des Weibes. Wir wollen die Museen, die Bibliotheken und die Akademien jeder Art zerstören und gegen den Moralismus kämpfen. Wir wollen die nächtliche, vibrierende Glut der Arsenale und Werften besingen, die von grellen elektrischen Monden erleuchtet werden, die gefräßigen Bahnhöfe, die rauchende Schlangen verzehren, und die Fabriken, die mit ihren sich hochwindenden Rauchfäden an den Wolken hängen."9

Zugleich propagierte Marinetti einen radikalen Bruch mit der Tradition.

Angeregt von diesem neuen, nicht unproblematischen Geist (der später mit dem italienischen Faschismus konvergierte) veröffentlichte der Komponist Francesco Balilla Pratella 1910 sein Manifesto de musicisti futuristi: Ebenso wie zuvor Busoni fordert er die Erweiterung des herkömmlichen Tonsystems durch „Enharmonik“ (Mikrotonalität) sowie eine neue rhythmische Freiheit, die nicht mehr auf binären Unterteilungen eines Grundzeitwertes beruht („La distruzione della quadratura“, 1912).

1913 stellte der Maler Luigi Russolo in seinem Manifest L'arte dei rumori die Forderung nach der Emanzipation des Geräusches, da eine radikale neue Musik nicht länger mit den traditionellen Instrumenten dargestellt werden könne:

"Die futuristischen Musiker müssen den Bereich der Töne ständig erweitern und bereichern. Das entspricht einem Bedürfnis unserer Empfindung. Bei den genialen zeitgenössischen Komponisten stellen wir eine Neigung zu komplizierten Dissonanzen fest. Diese entfernen sich immer mehr vom reinen Ton und entwickeln sich quasi auf den Geräusch-Ton zu. Den erwähnten Bedürfnissen und Neigungen kann in Zukunft nur Genüge geleistet werden, indem man die Geräusche den Tönen hinzufügt und diese durch jene ersetzt."10


Partiturseite aus Risveglio di una città (1913) von Luigi Russolo

Partiturseite aus Risveglio di una città (1913) von Luigi Russolo


Bei den von ihm entwickelten Intonarumori handelt es sich um Geräuscherzeuger, die in Viertel- bzw. Halbtonskalen unterschiedlichste Klassen von Geräuschen erzeugen konnten. Zudem erfand er dafür eine eigene Notation, in der die „space notation“ der amerikanischen Nachkriegs-Avantgarde vorweggenommen wurde.


Musique Concrète

Durch den Nationalsozialismus und den durch ihn ausgelösten Zweiten Weltkrieg kam jede künstlerische Entwicklung, also auch jene im Bereich der elektroakustischen Musik, nahezu zum Stillstand. Erst nach Kriegsende kam es zu einer neuen Aufbruchsstimmung und einem Wiederanknüpfen an die unterdrückte und als „entartet“ geschmähte Avantgarde.

Im Paris der frühen 1940er Jahre experimentierten der Rundfunkingenieur Pierre Schaeffer und der Komponist Pierre Henry mit Alltagsgeräuschen, die zunächst auf Schallplatte und später auf Tonband aufgenommen wurden. Mit diesem „konkreten“ Klangmaterial gestalteten sie neuartige Klangcollagen, in denen die von den Futuristen geforderte Emanzipation des Geräusches erstmals mit elektroakustischen Mitteln umgesetzt wurde.

Mit der technischen Möglichkeit der Klangspeicherung und -manipulation auf Tonband entwickelte sich eine völlig neue Arbeitsmethode, die den bislang geltenden instrumental orientierten Kompositionsprozess radikal veränderte: Anstelle der jahrhundertelang praktizierten Arbeitsteilung – Ausarbeitung einer Partitur und deren Interpretation mit Instrumenten – fallen nun Komposition und Interpretation zusammen. Komponist und Interpret verschmelzen in Personalunion miteinander, wie dies Henry und Schaeffer programmatisch in ihrer Symphonie pour un homme seul (1951) demonstrierten.

Der traditionelle Kompositionsvorgang, bei dem sich das anfängliche Abstraktum einer künstlerischen Idee über viele Zwischenschritte schlussendlich zur Partitur konkretisiert, erschien hier aber genau umgekehrt: Ein konkretes Klangobjekt wurde durch Manipulation seiner materialimmanenten Eigenschaften soweit zu einer abstrakten Struktur verändert, bis zuletzt die ursprüngliche Herkunft des Klanges nicht mehr erkennbar war.

Dieser neuartige kompositorische Ansatz wurde von Pierre Schaeffer in seinem 1966 erschienenen Buch Traité des objets musicaux11 theoretisch untermauert. Potentielles Ausgangsmaterial ist das mittels Mikrophon aufgenommene und auf Tonband gespeicherte Klangobjekt (objet sonore), welches bereits eine komplexe Struktur darstellt. Mithilfe einer von Schaeffer entwickelten Analysemethode wird dieses Klangobjekt typologisch klassifiziert, wobei seine Eigenschaften durch eine systematische Höranalyse bestimmt werden.12 Erforderlich dafür ist das von Schaeffer proklamierte „reduzierte Hören“ (écoute reduit), das den Klang – ungeachtet seiner realen Herkunft – als rein phänomenologisches Objekt begreift.13 Die Aufmerksamkeit wird dabei auf die Eigenschaften der Klanges gelenkt, nicht aber auf seine Ursache. Dieser an Husserls Phänomenologie orientierte Ansatz versucht, den betrachteten Gegenstand losgelöst von seinem Bedeutungskontext als Ding-an-sich zu erfassen und seine innere Struktur als Feld von Möglichkeiten zu erfahren, die kompositorisch herausgearbeitet werden können.

Mit anderen Worten: Ein Klangobjekt wird als parametrisierbare Struktur aufgefasst – zusammengesetzt aus Eigenschaften wie Materie, Form, Körnigkeit und Bewegung – welche als Variable verändert werden können. Durch partielle und vollständige Veränderung dieser Bestimmungsgrößen lassen sich unzählige Strukturvarianten ableiten, die in unterschiedlichen Verwandtschaftsverhältnissen zueinander stehen. Dieses Konzept der Klassenbildung bzw. Familienähnlichkeiten findet sich später bei Helmut Lachenmann, der in seinen Klangtypen der Neuen Musik14 einen ähnlichen Ansatz wie Pierre Schaeffer verfolgt.


Elektronische Musik

Klangforschungen ganz anderer Art betrieb zur gleichen Zeit der deutsche Physiker Werner Meyer-Eppler am "Institut für Phonetik und Kommunikationswissenschaften" der Universität Bonn. Mit Hilfe eines Melochords und eines Magnetophons erzeugte er erstmals rein synthetische Klangstrukturen15, die er 1950 auf den Darmstädter Ferienkursen für Neue Musik präsentierte, wo sie auf reges Interesse – u.a. von Herbert Eimert und dem damals 22jährigen Karlheinz Stockhausen – stießen. Dies führte im Jahr darauf zur Gründung des Studios für Elektronische Musik am Nordwestdeutschen (später Westdeutschen) Rundfunk in Köln.

Die kompositorische Arbeit erfuhr hier eine wissenschaftliche Fundierung und sollte sich frei von geschmäcklerischer Klangbastelei als reine Kunst entfalten. Stockhausen, der 1952 seine ersten – wenig erfolgreichen – elektroakustischen Experimente im Pariser Studio gemacht hatte, berichtete darüber: „Die ‚musique concrète’, und das spürte ich vom ersten Tag an, ist nichts als die Kapitulation vor dem Unbestimmten, ist ein arg dilettantisches Glücksspiel und ungezügelte Improvisation.“16

Dies hatte unmittelbare Konsequenzen auf die Ausstattung des soeben gegründeten elektronischen Studios in Köln. Nachdem Stockhausen 1953 dort zu arbeiten begonnen hatte, wurden alle elektronischen Instrumente wie Melochord und Trautonium entfernt und stattdessen Generatoren (für Sinustöne, weißes Rauschen und Impulse) sowie Filter von der Messtechnik des Rundfunks zur Verfügung gestellt. Daneben gab es noch mehrkanalige Bandmaschinen, auf denen die einzelnen Sinustonkomponenten in mühseliger Handarbeit aufgezeichnet und miteinander abgemischt wurden. Die komplexe Studiotechnik erforderte eine konzise Planung des Kompositionsprozesses, da die Klangerzeugung zu jener Zeit nicht in Echtzeit ablief, sondern erst als Endergebnis eines vielstufigen Prozesses ein hörbares Ergebnis lieferte. Die Entwicklung kompositorischer Strategien war für die Realisation einer elektronischen Komposition unabdingbar und führte zu einer Arbeitsmethode, die stark von strukturellen Überlegungen und kompositionstheoretischen Fragestellungen geprägt war.

Der Begriff „Elektronische Musik” wurde zwar bereits 1949 von Meyer-Eppler geprägt, erfuhr aber 1954 seine ästhetische Zuspitzung durch den Musiktheoretiker Herbert Eimert. In Abgrenzung von den elektrischen Musikinstrumenten und den scheel beäugten Klangexperimenten aus Paris wurde sie als Serielle Musik in ihrer reinsten Form definiert, da nicht nur die musikalische Struktur (zusammengesetzt aus Tonhöhe, Zeitgestaltung und Dynamik), sondern bereits auch das Klangmaterial ein Produkt kompositorischer Arbeit darstellte. Anders als in der Musique concrète war das kompositorische Ausgangsmaterial kein real existierendes Klangobjekt, sondern eine abstrakte Zahlenstruktur, die dem seriellen Reihendenken entstammte und in unterschiedlichsten Erscheinungsformen alle strukturellen Aspekte durchdrang.

Der Serialismus ist eine Methode, unterschiedliche Kräfte auszubalancieren, wobei Extremwerte durch kontinuierliche Zwischenschritte vermittelt werden und dadurch ein ausgestuftes, quasi digitalisiertes Kontinuum bilden: eine Skala von Werten. Als prototypisch „moderne“ Unifikationstheorie (im Unterschied zur Polyvalenz und Multilingualität der Postmoderne) wird die Welt nicht mehr dualistisch, sondern als Einheit aufgefasst.17 Gegensätze erscheinen nicht länger als widerstreitende Prinzipien, sondern als verschiedenartige Ausprägungen desselben übergeordneten Aspekts: Schwarz und weiß werden hier nicht als Antipoden betrachtet, sondern als Extremwerte einer Skala von Graustufen.

Um die Einheit der verschiedenen musikalischen Bestimmungsgrößen ohne Zerstörung ihrer individuellen Elemente zu bewahren, werden diese demselben Organisationsprinzip unterworfen. Dabei handelt es sich um eine verbindliche Folge von Zahlenproportionen. Eine solche Abstraktion erwies sich als unumgänglich, zugleich aber als eminent fruchtbar: Dadurch erst wurde es möglich, ursprünglich voneinander getrennte musikalische Bereiche wie Form, Rhythmus, Harmonik und Klangfarbe unter einem gemeinsamen Aspekt – dem der Zeit in ihren unterschiedlichsten Erscheinungsformen – zu subsumieren. Dies führte schließlich zur Idee des „Integralen Serialismus“, in dem „Großform und alle Detailformen eines Werkes aus einer einzigen Proportionsreihe abgeleitet werden”, 18 wie dies Karlheinz Stockhausen in seinem bahnbrechenden Aufsatz … wie die Zeit vergeht …19 theoretisch beschrieben und in seinem Orchesterstück Gruppen (1957–59) kompositorisch eingelöst hat.

Ursprünglich wurden Rhythmus und Klangfarbe auf verschiedenen Ebenen des Kompositionsprozesses organisiert. Motivik als eine Funktion des Rhythmus trieb das musikalische Geschehen primär fort, während die Klangfarbe vornehmlich eingesetzt wurde, um diese Vorgänge plastisch zu verdeutlichen. Im seriellen Denken lassen sich nun diese beiden Parameter als qualitativ unterschiedliche Ausprägungen von Zeitabläufen – auf der Makro- bzw. Mikroebene – auffassen. Experimente im elektronischen Studio mit Impulsgeneratoren hatten gezeigt, dass rhythmische Pulsationen in Klang umschlagen können, wenn man deren Abfolge beschleunigt.20 Diese Erkenntnis zeitigte wiederum Auswirkungen auf die Instrumentalmusik: die orchestralen Klangflächenkompositionen György Ligetis (Apparition, 1957) und Friedrich Cerhas (Fasce, 1959) sind direkte Umsetzungen hiervon.

In der elektronischen Musik ließen sich die radikalen Forderungen des Seriellen uneingeschränkt verwirklichen. Die Ablehnung des überlieferten, geschichtlich vorbelasteten (Klang-)Materials gipfelte im Bestreben, dieses selbst zu „kom-ponieren“, anstatt auf herkömmliche Musikinstrumente mit all ihren traditionsverhafteten Implikationen – die bereits Busoni kritisiert hatte – zurückzugreifen.

"Prinzipiell geht es überhaupt nicht um die Verwendung ungewohnter Klänge, sondern darum, daß die musikalische Ordnung in die Schwingungsstruktur der Schallvorgänge hinein getrieben wird, daß die Schallereignisse in einer Komposition integraler Bestandteil dieses und nur dieses Stückes sind und aus seinen Baugesetzen hervorgehen."21

In den Apparaturen des Studios materialisierten sich nun die abstrakten Parameter des Klanges. Der Sinusgenerator diente zur Erzeugung von Tonhöhe bzw. Klangspektrum, der Verstärker zur Regelung des Lautstärkeverlaufs, die Länge der Tonbandstücke gab die exakte Dauer eines Schallereignisses an. Daraus erwuchs schließlich die Notwendigkeit, sich beim Komponieren mathematischer Operationen zu bedienen. Da man es hier mit Geräten zu tun hatte, die mit Skalen und Reglern ausgestattet waren, spiegelten die Zahlenwerte die entsprechenden Einstellungen der Apparaturen wider. Anstelle der präzisen Klangdefinition trat die Aufzeichnung der Arbeitsvorgänge, die dadurch reproduzierbar wurden: Stockhausen veröffentlichte infolgedessen die Realisationsbeschreibung seiner Studie II (1954) – die erste Partitur elektronischer Musik überhaupt.

Die ersten Experimente im elektronischen Studio des WDR zielten darauf ab, eine ganze Komposition einzig aus Sinustönen – den irreduziblen Elementarteilchen des Klanges – aufzubauen.22 Neben dieser additiven Klangsynthese aus Sinusschwingungen23 sei noch die subtraktive Methode erwähnt, bei der aus „weißem Rauschen“ (der Gleichzeitigkeit aller Frequenzen) durch gezielte Filterung bestimmte Spektralbereiche herausgelöst werden. In diesen Antipoden spiegelt sich die Dialektik des Seriellen: Rauschen und Sinuston stellen die beiden Extremwerte eines Kontinuums dar, in dem jedes mögliche Klangspektrum virtuell schon enthalten ist. Diese rudimentären Ausgangsmaterialien beinhalten eine weitere Dialektik: der Sinuston als eindeutig determinierte periodische Schwingung im Gegensatz zum Rauschen, das völlig ungeordnet erscheint und nur statistisch fassbar ist. In diesem Spannungsfeld zwischen Determination („Ordnung“) und Unbestimmtheit („Zufall“) findet nun der kompositorische Prozess statt.

Diese theoretische Erkenntnis und die praktische Erfahrung, dass Überdetermination ins krasse Gegenteil – das Chaos – umschlagen kann24, führten zu einer Erweiterung des ursprünglich streng deterministischen seriellen Konzepts. Durch Hereinnahme des Zufalls und seine kompositorische Kontrolle konnten paradoxerweise wieder Gestaltungsfreiräume geschaffen werden.25 Die informationstheoretischen Grundlagen wurden bereits 1955 von Meyer-Eppler formuliert, als er den Begriff der Aleatorik definierte: „Aleatorisch (von alea = Würfel) nennt man Vorgänge, deren Verlauf im Groben festliegt, im Einzelnen aber vom Zufall abhängt.“26 Durch dieses Konzept wurde die Entwicklung der elektronischen und der seriellen Musik nachhaltig beeinflusst, da anstelle punktueller deterministischer Größen übergeordnete Wahrnehmungskategorien27 traten, was die kompositorische Gestaltung von größeren Erlebniszusammenhängen wieder in den Vordergrund treten ließ.

Die kompositorische Umsetzung dieses durch Zufallsoperationen erweiterten seriellen Konzepts finden wir in György Ligetis Tonbandkomposition Artikulation, die 1958 unter der Mithilfe von Gottfried Michael Koenig und Cornelius Cardew im Kölner Studio entstanden war. Zunächst wurden aus Sinustönen, Rauschen und Impulsen mit Hilfe eines seriellen Plans die „Laute“ einer künstlichen Sprache synthetisiert, auf Tonbandschnipsel gespeichert und nach übergeordneten Kategorien klassifiziert.28 Dafür wurden Bandstücke mit gemeinsamen Eigenschaften in ein System von Schachteln aufgeteilt, das zuvor nach einem seriellen Schema entworfen war und es erlaubte, die Entnahme der einzelnen Bandstücke dem Zufall zu überlassen. Diese Bandstücke wurden zu „Texten“ zusammengeklebt, daraus wurden – nach subjektiver Bewertung der musikalischen Verwendbarkeit – „Wörter“ herausgeschnitten, die wiederum klassifiziert und in ein weiteres aleatorisches Schachtelsystem abgelegt wurden. Daraus wurden Bänder mit „Sprachen“ zusammengeklebt, diese in „Sätze“ unterteilt und daraus schließlich die Komposition Artikulation gebildet, die ein imaginäres Gespräch“ darstellen soll.29 Bemerkenswert erscheint mir die Anwendung dreier unterschiedlicher Kompositionsmethoden: Eine experimentelle zur Ideenfindung, eine serielle zur Generierung des Grundmaterials und eine aleatorische für die variative Kombination der Materialien und ihrer Kondensate.

Parallel dazu entwickelte sich die Idee der „Offenen Form“, welche Henri Pousseur 1957 in seiner elektronischen Komposition Scambi erstmals umsetzte. Sein Stück basiert auf 32 vorgefertigten Grundsequenzen, die zu verschiedenen Versionen zusammenmontiert werden können. Dies führte schließlich zur Theorie des Offenen Kunstwerkes, die Umberto Eco – angeregt durch „die Erörterungen der Probleme der neuen Musik“30 mit Pousseur und Berio – 1962 formulierte.


Algorithmische Komposition

Für die Weiterentwicklung des seriellen Denkens erwiesen sich die Experimente im elektronischen Studio als äußerst fruchtbar, da sie den Blick auf den kompositorischen Umgang mit dem Klangmaterial lenkten. Dieses war nicht mehr als objet trouvée verfügbar, sondern musste erst erarbeitet werden. Zugleich stellte sich dabei die Frage nach der Übersetzung kompositorischer Verfahrensweisen in maschinelle Operationen und ihre Formulierung als Algorithmen. Daraus entwickelten sich die ersten Ansätze zur Programmierung von Musik.

Wegweisend dafür war Gottfried Michael Koenig, der bereits 1963 mit Projekt 1 (PR1)31 ein Computerprogramm ausgearbeitet hatte, das die im elektronischen Studio gewonnenen Erkenntnisse für die Partitursynthese verfügbar machte. Die zwischen Sinuston und Rauschen beschlossene Dialektik von „Ordnung“ und „Zufall“ bildet das grundlegende Paradigma von Projekt 1, in dem zwischen regelmäßigen und unregelmäßigen Vorgängen unterschieden wird, die – ganz im Sinne des seriellen Kontinuums – durch Zwischenstufen vermittelt werden. Regelmäßige Strukturen führen durch Anwendung des Gruppen-Prinzips zu Wiederholungen von Parameterwerten, unregelmäßige hingegen verkörpern das altbekannte serielle Wiederholungsverbot. Im Bereich des Rhythmus führen erstere zu gleichförmigen Pulsationen, letztere zu komplexen rhythmischen Gestalten, die aus der zufälligen Permutation ihrer Ausgangswerte entstehen. Dieses Prinzip wird nun auf die fünf konstituierenden Parameter des Tonsatzes – Instrument, Einsatzabstand, Tonhöhe, Oktavlage und Dynamik – angewendet, wobei jede Parameterschicht unterschiedliche Grade von Periodizität bzw. Aperiodizität zeigt, die durch verschiedenartige Zufallsalgorithmen erzeugt werden. Ein Klangereignis wird durch das Zusammenfallen der fünf Parameterschichten auf einen gemeinsamen Zeitpunkt (entry point) bestimmt. Die Ausgabe erfolgt schließlich in Form einer Partiturliste (score list), die in weiteren Arbeitsschritten transkribiert und in musikalische Notation übertragen werden muss.


     #        Instr         ED              Pitch               Register        Dynamics
  ______________________________________________________________________________________________

     1        8             1/8             F                   5               mf
     2        8             1/8             D                   4               fff
     3        1             1/8             C#                  6               ff
     4        9             1/8             A# G#               3 4             ppp
     5        3             1/8             G                   6               p
     6        6             1/8             F D                 5 5             f
     7        6             1/8             C#                  3               pp
     8        6             1/8             A#                  3               pp
     9        4             1/8             G# G                6 6             pp
    10        5             0/0             F                   4               pp
    11        7             4/5             D C# B              5 5 5           pp
    12        7             3/4             G# G F D C#         4 4 4 4 4       pp

Auzug aus einer mit PR1 generierten Partiturliste


Mit Projekt 1 lassen sich aus einem Modell unzählige Strukturvarianten erzeugen. Zunächst diente es ausschließlich zur Komposition von Instrumentalmusik und nicht zur Generierung elektroakustischer Musik: Dies wurde erst Ende der 1970er Jahre mit der Entwicklung digitaler Klanggeneratoren – wie der 1978 von Werner Kaegi am Utrechter Instituut voor Sonologie entwickelten VOSIM-Synthese32 – möglich.

Zuvor aber kam es an diesem seit 1964 von Koenig geleiteten Institut zu einer grundlegenden Erweiterung des Analogstudios durch die Entwicklung des „variablen Funktionsgenerators“. Diese Vorform der heute weit verbreiteten Sequencers erlaubte die Speicherung einer Folge von analogen Spannungswerten, die in unterschiedlichen Geschwindigkeiten ausgelesen werden konnten und als Steuer- bzw. Audiosignale zur Verfügung standen. Damit konnten – ähnlich dem ebenfalls auf dem Paradigma der „voltage control“ aufgebauten und gleichzeitig entstandenen Moog-Synthesizer33 – weitere Hardware-Module wie Oszillatoren, Filter oder Hüllkurvengeneratoren angesteuert werden. Die im Funktionsgenerator gespeicherte Sequenz tritt dabei an die Stelle der Reihe und wird zur grundlegenden strukturellen Basis einer ganzen Komposition, die sich durch ein spezielles Verschaltungsschema der Studiokomponenten quasi programmieren lässt. Damit komponierte Koenig eine Reihe von elektronischen Werken, die mit dem Titel Funktionen (1967–69) überschrieben waren und automatisch ohne die Notwendigkeit der Tonband-Montage in Echtzeit generiert wurden.34

Indessen ging die Entwicklung der Computermusik in den USA von völlig anders gearteten Prämissen aus. Nicht die Entwicklung einer neuen Ästhetik stand zu Beginn im Zentrum des Interesses, sondern die Simulation und Resynthese historischer Stile. In den seit 1955 an der University of Illinois durchgeführten Versuchen des Chemikers Lejaren A. Hiller wurden dafür Wahrscheinlichkeitsalgorithmen verwendet, die ursprünglich zur Berechnung von Polymerkonfigurationen entwickelt wurden. In einem dreistufigen Prozess führte Hiller nun die musikalische Partitursynthese durch: Ein zufallsgesteuerter generator erzeugte das Grundmaterial, das von einem modifier transformiert und schließlich von einem selector nach bestimmten Regelsystemen ausgefiltert wurde.35 Daraus entstand 1957 schließlich als erste vollständige Computerkomposition das Streichquartett Illiac Suite, dessen vier Sätze jeweils ein eigenes musikalisches Experiment thematisierten: Kontrapunkt im Palestrina-Stil, dodekaphonische Stilübungen und – als wahrscheinlich interessantesten Punkt – die Anwendung sogenannter Markov-Ketten.36 Neben den gleichzeitig entstandenen avancierten Kompositionen der seriellen Musik wirken diese Elaborate jedoch wie ungeschickte Stilübungen.


Digitale Klangsynthese

Bedingt durch die verhältnismäßig geringe Rechenleistung der frühen Computersysteme fanden die ersten Versuche von Koenig, Hiller und Xenakis zunächst im Bereich der symbolischen Datenverarbeitung statt. Das Ergebnis war kein synthetischer Klang, sondern alpha-numerische Partiturdaten, die erst nach ihrer Übersetzung in Notenschrift von Instrumentalisten gespielt werden konnten.

Gleichwohl gab es bereits 1957 erste Ansätze digitaler Klangsynthese, als deren Vater der amerikanische Elektroingenieur Max Mathews gilt. Sein Computerprogramm MUSIC basierte auf einer Bibliothek von Softwaremodulen, die Signalverarbeitungsroutinen und Klangsynthese-Algorithmen zur Verfügung stellten und es dem Benutzer ermöglichten, damit seine eigenen Klangerzeuger zu programmieren. Diese „instruments“ wurden mit Hilfe von ebenfalls computer-generierten Partiturdaten („scores“) zum Klingen gebracht, in denen Parameter wie Höhe, Dauer, Intensität und Einsatzpunkt definiert wurden; allerdings erforderte die klangliche Umsetzung damals noch lange Rechenzeiten.

MUSIC wurde zur Mutter einer Reihe von Derivaten, von denen an erster Stelle CSound37 zu nennen ist, das bis heute weiterentwickelt wird und sich starker Verbreitung – vor allem im akademischen Umfeld – erfreut.


Computermusik

Seit Ende der 1950er Jahre war die Produktion von Computermusik an große, meist universitäre Einrichtungen gekoppelt. Diese waren nur einem auserwählten Kreis von KomponistInnen zugänglich, welche in der Regel den ästhetischen Leitlinien des jeweiligen Instituts bzw. deren Masterminds folgen mussten. Im Normalfall kommunizierte man über lokale Terminals mit einem zentralen Großrechner, den sich eine Vielzahl von Mitarbeitern teilen mussten. Die Software-Ausstattung war vom Institut vorgegeben und orientierte sich an den jeweiligen Forschungsschwerpunkten und der ästhetischen Ausrichtung. Die Programmierung des Computers war Spezialisten vorbehalten, die eng mit den Forschern des Instituts zusammenarbeiteten; ein Terrain, das für KomponistInnen (sofern sie nicht zuvor ein Informatikstudium absolviert hatten) schwer zugänglich war. In der Regel konnte man seine eigenen künstlerischen Vorstellungen nur mit der jeweiligen Instituts-Software umsetzen. Gleichzeitig entwickelte sich auch eine besondere Form der Arbeitsteilung zwischen Forschern, Programmierern und Komponisten, die nicht immer konfliktfrei blieb, da die Kommunikation innerhalb dieser drei so unterschiedlichen Bereichen – Wissenschaft, Technik und Kunst – oftmals zu fundamentalen Missverständnissen führte.

Eine entscheidende Wende begann sich Mitte der 1980er Jahre mit dem Aufkommen des Personal Computers abzuzeichnen, der eine Befreiung von herrschenden Dogmen und dem limitierten Zugang zu den Produktionsmitteln zur Folge hatte. Statt eines unerschwinglichen und unerreichbaren Mainframe-Computers konnte sich de facto bald ein jeder seine eigene Maschine leisten, womit fürs Erste die Abhängigkeit von den etablierten Computermusikzentren und deren ästhetischem Kanon nicht mehr gegeben zu sein schien.

Mit der Verfügbarkeit der Rechner war es allerdings allein noch nicht getan. Es mangelte – vor allem in den Anfangsjahren – vornehmlich an Software. Hier sprang nun die Industrie in die Bresche und begann, den Markt mit einer Vielzahl von Programmen zu versorgen, die in erster Linie auf die Erfordernisse des kommerziellen Musikbusiness’ zugeschnitten waren. Die gleichzeitige Definition des MIDI-Standards38 (1983) führte zu einem standardisierten Protokoll, mit dessen Hilfe elektronische Klangerzeuger und Computer durch Austausch von Steuerdaten in Echtzeit miteinander kommunizieren konnten.

Damit kam man allerdings vom Regen in die Traufe: Nicht länger ausschließlich auf die akademischen Computermusikzentren angewiesen, begab man sich nunmehr in eine unglückselige Abhängigkeit von den ästhetischen Vorgaben der Unterhaltungsindustrie. Die Etablierung des MIDI-Standards erlaubte es nun, statt konkreter Klangereignisse bloß Steuerdaten für Synthesizer zeitlich in sogenannten Sequenzen zu organisieren. Erst beim Abspielen solcher Daten auf externen MIDI-Instrumenten konnte die Musik hörbar gemacht werden; nachträglich konnte sie durch „Editieren“ der MIDI-Daten modifiziert werden. Dies ließ sich wegen der im Vergleich zu Audiodateien relativ geringen Datenmenge mit den damals noch recht leistungsschwachen Rechnern gut bewerkstelligen und konnte auf dem heimischen PC verhältnismäßig leicht umgesetzt werden, und zwar ohne Heranziehung eines externen Technikers.

Hinter der an sich begrüßenswerten Manipulationsfähigkeit solcher MIDI-Daten verbirgt sich aber eine tiefere Problematik: Zwar gelangt man rasch zu Resultaten, dies verführt aber zu einem unbekümmerten al-fresco-Stil, da sich nachträgliche Änderungen bequem durchführen lassen. Anstelle von künstlerischer Reflexion und Planung tritt die unbekümmerte bricolage39, das kunsthandwerkliche Gebastel. Zudem ermöglicht die computertypische Technik des „copy, cut & paste“ die rasche Vervielfältigung vorgefertigter kompositorischer Strukturen, die sich zudem auf Knopfdruck auch transponieren und in ihrer zeitlichen Ausdehnung stauchen bzw. strecken lassen. In einem Trial-and-Error-Verfahren lassen sich damit Stückwerke zusammenstoppeln, denen es oftmals an stringenter musikalischer Logik gebricht. Dieses Problem blieb grundsätzlich auch weiter bestehen, als die einstigen MIDI-Sequenzer nach und nach von Audio-Sequenzern wie Pro Tools abgelöst wurden.



Heutige Situation

Heutzutage stellt sich die Situation der elektroakustischen Musik als weit verzweigtes Feld mit vielfältigen Erscheinungsformen dar. Durch die breite Verfügbarkeit immer leistungsfähigerer Computer und die Entwicklung mächtiger high-level-Programmiersprachen wie Max/MSP40, Pd41 und SuperCollider42 ist die problematische Abhängigkeit von Musiksoftware, die in erster Linie auf die Erfordernisse kommerzieller Musikproduktionen zugeschnitten ist, keine conditio sine qua non. KomponistInnen müssen sich nicht mehr als bloße „User“ ausschließlich innerhalb der von der Software vorgegebenen ästhetischen und technologischen Grenzen bewegen. Anstatt mit bestehenden Fertiglösungen zu arbeiten besteht heute grundsätzliche die Möglichkeit – ich möchte sogar sagen: Notwendigkeit – sich seine eigenen kompositorischen Werkzeuge in Form von Software-Tools zu entwickeln.

Die modulare Ausrichtung der zuvor erwähnten Programmiersprachen ermöglicht die Gestaltung individueller „Microworlds“43: Maßgeschneiderte Werkzeuge, die sich aus kleinen, miteinander vernetzten Software-Modulen zusammensetzen. Diese können zu syntaktischen Bestandteilen eines persönlichen Programmier-Environments für computergestützte Komposition werden, das ständig verändert und erweitert werden kann (und muss).

Als Beispiel dafür sei meine Real Time Composition Library (RTC-lib)44 genannt – eine Softwarebibliothek für Max/MSP, deren Entwicklung 1992 am Pariser IRCAM begonnen wurde und bis heute weitergepflegt wird. Diese Sammlung von Max-Patches erlaubt u.a. das Experimentieren mit seriellen und stochastischen Kompositionstechniken und kann in unterschiedlichsten Kontexten und ästhetischen Konzepten eingesetzt werden. Sie stellt einerseits eine Anzahl von „Generatoren“ zur Erzeugung harmonischer, dynamischer und rhythmischer Abläufe zur Verfügung, aber auch „Siebe“, um den Datenstrom nach gewissen Kriterien auszufiltern. Funktionen, die im Bereich der algorithmischen Komposition eine wichtige Rolle spielen (wie die verschiedenen Typen des Zufalls, Tools zur Strukturierung von Daten etc.) werden als Max-Patches zur Verfügung gestellt, die miteinander verschaltet werden können. Da alle Prozesse in Echtzeit ablaufen und man sofort ein klingendes Ergebnis erhält, wird damit ein intuitiver Umgang ermöglicht, wodurch man sich mehr auf die kompositorisch-musikalischen anstatt auf die programmiertechnischen Fragestellungen konzentrieren kann.

Die Generierung und Manipulation von Klängen in Echtzeit eröffnet eine weite Palette zukunftweisender Möglichkeiten:


Wiedereinführung des Interpreten

In der Anfangsphase der elektronischen Musik war man noch stolz darauf, den ausführenden Musiker überflüssig gemacht zu haben. Denn durch die Tonbandspeicherung hatte der Komponist die absolute Kontrolle über sein Stück erlangt, das er zusätzlich auch als „Instrumentenbauer“ und „Interpret“ in jedem Detail durchgestalten konnte. Damit schuf er ein völlig determiniertes, reproduzierbares Werk, das keiner weiteren Interpretation mehr bedurfte, da es nicht als Text, sondern als vollständig ausformuliertes Objekt vorlag. Die starre Wiedergabe solcher Tonbandkompositionen im Konzertsaal – mit Lautsprechern anstelle von Musikern auf der Bühne – wurde später durch den Einsatz eines Klangregisseurs belebt, der den Klang während des Abspielens räumlich wandern ließ bzw. auf verschiedenartige Lautsprechern verteilte. Besonders hervorzuheben ist in diesem Zusammenhang das 1974 von François Bayle für die Groupe de Recherche Musicale (GRM) entwickelte „Acousmonium“ – ein 80teiliges Ensemble unterschiedlichster Lautsprechertypen, die wie Instrumente auf der Bühne und teilweise auch im Publikumsraum platziert sind. Bei einer Aufführung sitzt in der Regel der Komponist selbst am Mischpult und verteilt seine zumeist stereophon produzierte Komposition auf die verschiedenen Lautsprechergruppen, wodurch packende Raumwirkungen erzielt werden können.

Durch Verwendung von Computern lässt sich die Flexibilität bei der Wiedergabe elektroakustischer Musik noch weiter steigern. So spielt der amerikanische Minimal-Komponist Phill Niblock (* 1933) seine Musik in Live-Performances direkt aus dem Sequencer-Programm Pro Tools ab, dessen unzählige übereinander geschichteten instrumentalen „drones“ er durch kleinste Tonhöhenveränderungen live manipuliert, wodurch faszinierende spektrale Effekte durch Schwebungen und Kammfilterungen entstehen.45 Damit kann Niblock unmittelbar auf die Akustik des Aufführungsortes und die oftmals mitspielenden Live-Musiker reagieren.


Konstruktion individueller Instrumente

Durch den Einsatz von Kompositions-Algorithmen46, deren Parameter zur Laufzeit verändert werden können, lassen sich Software-Instrumente konstruieren, die sich als Hybride zwischen Klangerzeugern und Strukturgeneratoren47 darstellen. Im Zentrum steht hier die Frage nach dem „Interface“ für die Kommunikation zwischen Mensch und Maschine. Die Verwendung einer Computermaus allein scheint mir dafür denkbar ungeeignet, weil damit immer nur ein einziger Wert verändert werden kann. In der Praxis hingegen konstituiert sich jegliches instrumentale Spiel aus dem Ineinandergreifen gleichzeitig stattfindender Änderungen in unterschiedlichen Parametern: die Ortsveränderung der Finger auf dem Griffbrett, die Bewegung der Bogenhand, der dabei ausgeübte Druck und die Position des Bogens auf der Saite etc. Die Umsetzung einer solchen komplexen Interdependenz erfordert den Einsatz von Hardware-Controllern, die unabhängig voneinander bedient werden können, sowie die Verwendung von Fußpedalen und Tasten und alternativer „devices“ wie Sensoren etc. Dies verlangt zudem die Ausbildung einer eigenen Spieltechnik, mit der die verschiedenen Regler unabhängig voneinander bewegt werden können.

Das von mir seit 1998 entwickelte und in Max/MSP geschriebene Computerprogramm m@ze°2 ist ein modular aufgebautes Software-Environment, das sich aus unterschiedlichen Strukturgeneratoren zusammensetzt.48 Diese greifen auf eine umfangreiche Klangbibliothek zu – die nach ähnlichen Gesichtspunkten wie Pierre Schaeffers Klangtypologie bzw. Helmut Lachenmanns „Klangtypen“ organisiert ist – und verändern ihr Ausgangsmaterial in Echtzeit. Dabei kommen Klangverarbeitungs-Algorithmen wie die Granularsynthese zum Einsatz, deren Parameterveränderungen über verschiedenartige MIDI-Controller, die mit Schiebereglern, Drehknöpfen und Tasten ausgestattet sind, gesteuert werden. Dabei werden die strukturellen Eigenschaften eines Klangobjektes (wie seine Körnigkeit, Transparenz, Transposition, Textur und Dichte) verändert. Aus der polyphonen Interaktion der einzelnen Strukturgeneratoren entsteht schließlich der „Sound“49 als Ergebnis mannigfaltig überlagerter Prozesse. Diese sind zumeist als stochastische Modelle formuliert, in denen der Zufall und dessen Kontrolle ein zentrales Paradigma darstellen.


Benutzeroberfläche von m@ze°2
© 2006 by Karlheinz Essl


Die Flexibilität dieses Instrumentes erlaubt neben dem Einsatz in Live-Performances auch die freie Improvisation50 – allein oder zusammen mit anderen MusikerInnen – und das spontane Reagieren auf unvorhersehbare musikalische Situationen, die sich in solchem Kontext ausbilden.


Realtime Composition

Durch Implementierung einer Komposition als Computeralgorithmus lassen sich in Echtzeit elektroakustische Werke generieren, die keine definierte Dauer haben, sondern de facto unendlich sind. Dies ermöglicht neue musikalische Sujets wie generative Klanginstallationen und Software Art. An die Stelle eines eindeutig determinierten und wiederholbaren Objekts tritt der flexible Prozess, dessen Gestaltwerdung nicht an einen starren Zeitablauf gebunden ist.51 Die Komposition wird dabei durch ein Computerprogramm repräsentiert, das den Klang zur Laufzeit generiert, wobei neben stochastischen Operationen, Regelsystemen und neuronalen Netzen auch externe Steuermechanismen wie Sensoren, MIDI-Controller, Kameras und Internetdaten zum Einsatz gelangen können.

Ein frühes Beispiel dafür ist meine 1992 als work-in-progress begonnene Lexikon-Sonate für computer-gesteuertes Klavier, die nicht in Form eines reproduzierbaren Notentextes vorliegt, sondern von einem Computerprogramm52 in Echtzeit generiert und auf einem MIDI-Klavier53 ohne Mitwirkung eines Pianisten gespielt wird. Diese unendliche und sich niemals wiederholende Klavierkomposition reflektiert ihre Gattungsgeschichte von Johann Sebastian Bach bis hin zu Boulez, Stockhausen und Cecil Taylor. Charakteristische pianistische Topoi wie Espressivo-Melodien, Begleitfiguren, Arpeggi, Trillerfiguren, Akkordfolgen etc. wurden als Strukturgeneratoren implementiert und treten während des Erklingens miteinander in Beziehung. Der Generierungsprozess erfolgt entweder durch einen zufallsgesteuerten Automatismus oder wird durch Signale von außen beeinflusst.

Die Uraufführung der Lexikon-Sonate fand 1994 als Konzert im Großen Sendesaal des Österreichischen Rundfunks statt, das in der Sendung Kunstradio live übertragen wurde. Auf der Bühne befand sich einzig ein Bösendorfer SE Computerflügel und ein Computer, der über eine Telefonleitung (das Internet steckte zu jener Zeit noch in den Kinderschuhen) Impulse von außen empfangen konnte. Durch Anwählen einer Telefonnummer während der Sendung konnten die HörerInnen das kompositorische Verhalten der Lexikon-Sonate verändern, ohne damit aber die Art der Veränderung bestimmen zu können; dies wurde innerhalb des Programms mittels Zufallsoperationen entschieden. Die formale Entwicklung des Stückes gestaltete sich völlig unvorhersehbar allein durch die ankommenden Telefonimpulse, deren Auswirkungen augenblicklich in den heimischen Radioapparaten hörbar wurden.


Benutzeroberfläche der Lexikon-Sonate, vs. 3.2 (2007)
© 2007 by Karlheinz Essl


Der generative Ansatz erlaubt die Einbeziehung anderer Medien und die Simulation virtueller Welten wie in dem Klang-Environment Raumfaltung (2003) von Gerhard Eckel und Ramón González-Arroyo für das Kunstmuseum Bonn. BesucherInnen, die sich in der von Beat Zoderer realisierten Rauminstallation (im Rahmen der Ausstellung Der doppelte Boden ist tiefer als man denkt) bewegten, hörten über Kopfhörer eine jeweils maßgeschneiderte Version dieses Stückes, das aufgrund der individuellen Position im Raum errechnet wurde.54 Ziel war es, „die Vorherrschaft des Sehens zu unterwandern, indem Sehen und Hören auf neue Weise miteinander in Beziehung“55 gesetzt werden: Die Bewegung im realen architektonischen Raum (die über ein eigens im Projekt LISTEN entwickelte Tracking-System ermittelt wurde) veränderte nicht nur den visuellen Blickwinkel, sondern auch die akustische Perspektive innerhalb eines virtuellen Klangraums. Dadurch findet eine raum- und zeitabhängige Filterung auf struktureller Ebene der Musik statt. Die Klangquellen der einzelnen Schichten bewegen sich auf algorithmisch festgelegten Bahnen durch den Raum und umspielen die ZuhörerInnen.56 Die strukturelle Koppelung zweier unterschiedlicher Wahrnehmungsebenen ermöglicht neuartige synästhetische Erfahrungen, die einen in ungeahnte „immersive“57 Welten entführen können.


Lo Tech

Als Gegenströmungen zur überhand nehmenden Computerisierung entwickelten sich vielerorts subkulturelle Positionen, die den Verlust des unmittelbaren Zugriffs und die fehlende Haptik mit rein analogen Mitteln wettzumachen versuchten. Die Abstraktheit der Digitalisierung und die sattsam bekannten Klangklischees kommerzieller Musiksynthesizer, Effektprozessoren und deren digitalen Emulationen ließen den Wunsch nach Unmittelbarkeit und klanglicher Unverbrauchtheit wach werden. Zudem sollten die oftmals unsinnlichen Laptop-Performances durch körperbetonte Live-Acts ersetzt werden. Der Zugriff auf konkretes Klangmaterial erfolgt hier nicht über digitale Samples, die am Computer bearbeitet werden, sondern über Schallplatten – eine Methode, die, nach ersten Experimenten von Ernst Toch und Paul Hindemith 1928 , in den späten 1940er Jahren auch von John Cage und Pierre Schaeffer eingesetzt wurde.

Dieser in Abgrenzung zu den Dancefloor-DJs als turntablism bezeichnete artistische Zugang verwendet zwar ein ähnliches Equipment (zwei Plattenspieler und ein Mischpult), geht aber im Ästhetischen und Handwerklichen weit darüber hinaus. So etwa arbeitet der Wiener dieb13 (* 1973) mit präparierten Schallplattenspielern und die Amerikanerin Marina Rosenfeld (* 1969) mit selbst produzierten Acetat-Platten. Der aus Venezuela gebürtige Komponist Jorge Sanchez-Chiong (* 1969) wiederum legt im Umgang mit den auf Vinyls gespeicherten Klangmaterialien eine expressiv zur Schau gestellten Virtuosität an den Tag.

Daneben etablierte sich als weitere Spielart das circuit bending, bei dem mit selbst gebauten elektronischen Klangerzeugern und zweckentfremdeten bzw. umkonstruierten Schaltkreisen operiert wird. Ahnherr dieser Richtung ist der ehemals als Pianist in Erscheinung getretene David Tudor (1926–1996). Seine Kompositionen wie das work-in-progress Rainforest (1968–73) basieren auf eigens entwickelten analogen Klangerzeugern und -prozessoren, die oftmals unter bewusster Außerachtlassung des technischen common sense zu hochkomplexen Netzwerken zusammengeschaltet werden, deren Verhalten sich nicht vollständig voraussagen lässt.58 Ähnlich unvorhersehbar verhält sich die von Michel Waisvisz 1975 am Amsterdamer STEIM konstruierte „Crackle Box“. Ihre Klangerzeugung wird vom Hautwiderstand der Finger beeinflusst, wenn sie über die nach außen geführte Leiterbahnen gleiten und dabei eine breite Palette von Krach- und Piepslauten freisetzen.



9. Orte und Räume

Im Laufe ihrer Geschichte hat sich die Stellung der elektroakustischen Musik im Konzertleben stark verändert. Die zunächst von Ingenieuren und Wissenschaftlern betriebenen Experimente wurden zwiespältig aufgenommen: Einerseits als „Futuristengefahr“59 in Grund und Boden verdammt (so Hans Pfitzner in seiner hasserfüllten Replik auf Busonis Entwurf einer neuen Ästhetik der Tonkunst), andererseits aber hymnisch als Zukunftsmusik gefeiert, wenn man an Leon Termens höchst erfolgreiche Präsentationen des Theremins denkt, die ihn bis in die USA geführt haben. Daneben interessierten sich auch etablierte Komponisten für die neuen technologischen Möglichkeiten. Paul Hindemith war ein glühender Befürworter des Trautoniums, das er selbst spielte und für welches er einige Stücke komponierte. Zusammen mit Ernst Toch experimentierte er bereits 1928 mit den Möglichkeiten der Schallplatte, indem er Grammophonaufnahmen in unterschiedlichen Geschwindigkeiten ablaufen ließ, um das Klangbild der Aufnahmen bis zur Unkenntlichkeit zu verändern.60

Öffentliche Präsentationen der frühen elektrischen Instrumente erinnerten eher an Varieté-Vorstellungen als an Konzerte, und die erste Vorführung elektronischer Musik am 19. Oktober 1954 im Kölner Funkhaus – die berühmt-berüchtigten Sieben Stücke – löste einen handfesten Skandal aus.61

Es hat Jahrzehnte gedauert, bis die elektroakustische Musik Eingang in die traditionellen Konzertsäle gefunden hatte. Heutzutage gibt es kaum ein Festival mit Neuer Musik, welches ohne Lautsprecher und Computersysteme sein Auslangen fände. Zugleich aber hat sich die elektronische Musik ein neues Terrain abseits der angestammten Podien erobert: Die Uraufführung von Luigi Nonos La fabbrica illuminata (1964) für Sopran und Tonband fand in einer Fabrik statt – nicht vor einem festlich gekleideten Abonnementpublikum, sondern vor jenen Menschen, die an diesem Ort ihre tägliche Arbeit verrichteten.

Diese Tendenz geht unaufhörlich weiter, da die klassischen Konzertsäle aufgrund ihrer geschichtlichen Konnotation und den damit verbundenen Hörerwartungen keine adäquaten Präsentationsräume für elektroakustische Musik darstellen; ganz abgesehen von ihrer Architektur mit einer frontal ausgerichteten Bühne, die für die Wiedergabe von immersiven Raummusik-Konzepten schlichtweg ungeeignet ist. Weitaus angemessener erscheinen mir solche Orte, die kein Konzertritual und keine bestimmte Rezeptionshaltung nahe legen, wie sie in Sakralräumen, Industriebauten und Kunstmuseen zu finden sind.

Zugleich aber dringt die elektroakustische Musik in den öffentlichen Raum ein, wo sie als soundscape eine breite Wirkung entfalten kann, wie dies Bill Fontana 1990 mit Landscape Soundings eindrucksvoll erfahrbar machte: von Mikrophonen, die in der Hainburger Au unter Wasser, am Boden und in der Luft positioniert waren, eingefangene Klänge wurden via Richtfunk nach Wien gesendet und auf den Maria-Theresien-Platz zwischen Natur- und Kunsthistorischem Museum übertragen und von einer Vielzahl kaum sichtbarer Lautsprecher in den Fassaden der beiden Häuser hörbar gemacht. Kleinste Geräusche aus der Natur fanden sich plötzlich in einen riesenhaften Raum projiziert und erzeugten damit einen Sog, dem man sich nur schwer entziehen konnte.


10. Netzwerk-Musik

Neben diesen real existierenden Kunst- und Naturräumen gewinnt zunehmend ein anderer Raum an Bedeutung, der über keinen festen Ort verfügt: Die Rede ist von den globalen Datennetzen, in denen sich verschiedenartige soziale und künstlerische Gemeinschaften ausbilden, die sich ihre eigenen Bedingungen und Strukturen schaffen. Dort spielt auch die elektronische Musik eine immer wichtigere Rolle, da sie in solchen Kontexten besser kommunizierbar ist als über Verlage oder Labels.62 Neben der Distribution von Soundfiles und radio-on-demand haben sich Plattformen wie The Algorithmic Stream entwickelt, die von Computerprogrammen in Echtzeit generierte Klangströme ins Netz einspeisen.

Bemerkenswert sind auch Bestrebungen, im Netzwerk miteinander zu musizieren, wie es das kalifornische Elektronik-Kollektiv The HUB seit Mitte der 1980er Jahre praktiziert.63 In der Übertragung des Netzwerk-Gedankens auf die kollektive Realisierung einer Komposition steuern die miteinander vernetzten Gruppenmitglieder unterschiedliche strukturelle Aspekte einer Stückes, indem sie einander Daten und kurze Textnachrichten schicken. Jeder Musiker entwickelt dafür ein eigenes Computerinstrument, das mit den anderen über ein gemeinsames Protokoll kommuniziert.64

Einen ähnlichen Ansatz verfolgt das sechsköpfige Ensemble PowerBooks_UnPlugged. Mit unverstärkten Laptops verstreut inmitten des Publikums sitzend, schicken die drahtlos miteinander vernetzten MusikerInnen einander fortwährend modifizierbare Codefragmente in der Sprache SuperCollider zu, die sowohl als Sounds auf jedem Rechner hörbar werden können wie auch als Programm in Textform von den Mitspielenden umgeschrieben werden können. Eine Live-Performance stellt sich als musikalische Konversation dar, die über den Austausch von Programmcodes im Zuge des sogenannten live codings zustande kommt. Sie fasziniert durch subtile Klangräumlichkeit und sich stetig wandelnde zarte Klanglandschaften, in denen man durchaus eine Weiterentwicklung prozessualen Denkens und polyphoner motivischer Arbeit sehen kann.

Im Unterschied zu den beiden oben genannten Beispielen, die ein lokales Netzwerk voraussetzen, handelt es sich bei Georg Hajdus Quintet.net um ein interaktives Environment für Multimedia-Performances, das ursprünglich für das Musizieren im Internet entwickelt wurde und einen Dirigenten vorsieht, der die Spieler untereinander koordiniert. Die gemeinsam musizierenden Instrumentalisten oder Elektroniker, die sich zumeist an verschiedenen Orten der Welt befinden, kommunizieren durch Austausch musikalischer Kontrolldaten und Textbotschaften (in Form eines Live-Chats) miteinander. Eine eigens dafür entwickelte Echtzeit-Notenschrift erleichtert das Zusammenspiel: Die Interpreten sehen die musikalischen Ereignisse, die von den anderen Mitspieler erzeugt werden, in "space notation" auf herkömmlichen Fünfliniensystemen und erhalten dadurch neben dem Gesamtklang des Ensembles (der von einem eigenen Server allen Teilnehmern zur Verfügung gestellt wird) auch ein visuelles Feedback.



Ausblick

Obwohl es kaum möglich ist, für die sich derzeit so rasant umwälzende elektroakustische Musik Zukunftsprognosen zu erstellen, möchte ich dennoch den Versuch unternehmen, zwei mir bedeutsam erscheinende Aspekte zu skizzieren, die über ein interessantes Entwicklungspotential verfügen.


Klangprojektion

Das zentrale Wiedergabemedium der elektroakustischen Musik – der Lautsprecher – ist seit Jahrzehnten im Wesentlichen gleich geblieben und hat sich abgesehen von bautechnischen Verfeinerungen nicht grundsätzlich verändert. Die heutzutage vielfach verbreitete Beschallung mit standardisierten Lautsprecheraufstellungen wird durch die Vorherrschaft der kommerziellen Surround-Technologie (Dolby Surround) oftmals unhinterfragt als Maß aller Dinge angesehen. Die Absicht dahinter ist klar: In jedem Saal soll ein annähernd gleiches akustische Ergebnis erzielt werden. Dies mag allenfalls in normierten Kinosälen funktionieren; für die Wiedergabe elektroakustischer Musik in all ihren Spielarten an den unterschiedlichsten Aufführungsorten (siehe oben) ist sie jedoch oftmals nicht geeignet. Verabschieden sollte man sich deshalb von der überzogenen Erwartung, dass Musik überall gleich klingen muss. Viel sinnvoller wäre es, den Präsentationsort mit seinen charakteristischen akustischen Eigenschaften als Instrument zu begreifen, das erst die Musik zum Klingen bringt – und das zugleich durch die Musik zum Klingen gebracht wird. Dies wiederum verlangt einen kreativen und unorthodoxen Umgang mit dem Medium des Lautsprechers, der über das „Acousmonium“ der GRM hinausgeht.65 Anstelle vordefinierter Beschallungsszenarien (5.1, Achtkanal etc.), bei denen Lautsprecher direkt auf das Publikum gerichtet sind, um so den Eindruck von Klangräumlichkeit zu simulieren, könnte der Raum selbst zum Klingen gebracht werden. Etwa, indem ein Teil der Lautsprecher auf die Wände und zur Decke strahlen bzw. an weiter entfernten Bereichen des Aufführunsgsortes als Fernlautsprecher positioniert werden. Durch die damit entstehenden Zeitverzögerungen und Filterungseffekte können äußerst plastische Klangwirkungen erzielt werden, die allerdings eine sorgsame Kontrolle während der Aufführung erfordern. Darüber hinaus fallen die Lautsprecher als punktuell ortbare Klangquellen nicht mehr so störend ins Gewicht. Die Steuerung eines solchen Lautsprecher-Szenarios könnte – wie schon bei den Konzerten der GRM – durch den Komponisten selbst erfolgen, der dadurch wieder zum Interpreten wird. Dies läßt sich heute dank digitaler Mehrkanaltechnik mit einer überschaubaren Anzahl von Lautsprechern relativ einfach realisieren.

Weitaus komplexer geht es hingegen bei der seit 1988 entwickelten Wellenfeldsynthese (WFS) zu, bei der die Wände eines Saales mit einer Unzahl von Lautsprechern66 ausgekleidet sind, die einzeln über einen Computercluster angesteuert werden. Unter Anwendung eines Theorems, das der niederländische Physiker Christiaan Huygens67 bereits im 17. Jahrhundert formuliert hatte, kann damit ein virtueller akustischer Raum gebildet werden, der nicht mehr an die physikalischen Grenzen des Wiedergaberaumes gebunden ist. Damit lassen sich u.a. virtuelle Klangobjekte punktgenau innerhalb des Raumes positionieren und bewegen, was Dank einer ausgefeilten Softwaresteuerung68 mittlerweile relativ bequem möglich ist. Da sich Intensität, Ort und Entfernung der einzelnen Klangquellen unabhängig von den akustischen Eigenschaften des Raumes in der Zeit verändern lassen, können die Eigenschaften der Klangobjekte und die Rauminformation separat manipuliert werden.


Der WFS-Hörsaal H0104 der TU Berlin

Der WFS-Hörsaal H0104 der TU Berlin


Wichtiger Wegbereiter ist hier das Elektronische Studio der TU Berlin (Leitung: Folkmar Hein), das abseits kommerzieller Vermarkungsstrategien in Hinblick auf immersive Kinosäle , den WFS-Raum verstärkt für künstlerische Projekte nutzt.69 Eine erste Präsentation fand dort im März 2007 im Rahmen der 5th International Linux Audio Conference mit eigens dafür komponierten bzw. adaptierten Werken von Hans Tutschku, André Bartetzki, Christian Calon und Victor Lazzarini statt.


Visual Music

Das Potential der Grenzüberschreitung, welches der elektroakustischen Musik von Anfang an innewohnte, führt fast zwangsläufig zur Erweiterung des Akustischen um visuelle Aspekte. In dem Themenkomplex „Visual Music“ werden historische Bestrebungen, Klang und Bild miteinander in Beziehung zu setzen, wieder aufgenommen. Die synästhetischen Visionen von Alexander Scrjabin70, Walther Ruttmann71 unnd Oskar Fischinger72 finden hier – frei von ideologischem Ballast – eine zeitgemäße Fortsetzung und können mit heutiger Computertechnologie umgesetzt werden.73 Bemerkenswert erscheinen mir dabei vor allem jene Anwendungsbereiche, in denen musikalische Kompositionsalgorithmen zur Generierung von Bilderwelten eingesetzt werden. Hier berühren sich zwei Zeitkünste – Musik und Film – und verschmelzen zu neuartigen Hybriden.

Ein relativ frühes und erstaunlich ausgereiftes Beispiel stellt Scott Draves „visuelles Musikinstrument“ bomb (1995 ff.) dar, das auf Basis eines nicht-linearen iterativen Systems eine Art künstliches Leben in Form eines sich unentwegt verändernden Bilderstroms in Echtzeit generiert


Screenshot aus Scott Draves’ bomb

Screenshot aus Scott Draves’ bomb


Die wechselseitige Durchdringung von computergenerierten Klängen und Bildern verspricht ein beträchtliches Zukunftspotential, dessen künstlerische Umsetzung trotz emsiger Produktion – man denke nur an die unzähligen Visualisierungen im Popbereich und der Club-Szene – noch in den Anfängen zu stecken scheint. Derzeit dominieren technologische Fragestellungen und unbekümmerter Spieltrieb. Auch wenn Musik und Film die Zeit als primäre Kategorie der Wahrnehmung thematisieren, ist die ästhetische Umsetzung in beiden Bereichen dennoch gänzlich verschieden. Hier wäre ein intensiver interdisziplinärer Diskurs zwischen Komponisten, Künstlern und Theoretikern notwendig, der zuallererst eine Öffnung und Kommunikationsbereitschaft nach allen Seiten hin erforderlich macht.



Fußnoten

1 Der Terminus „elektroakustische Musik“ bezeichnet im allgemeinen jene Musik, die elektronisch bzw. elektro-mechanisch erzeugt wird und zu deren Wiedergabe Lautsprecher benötigt werden.

2 Ferrucio Busoni, Entwurf einer neuen Ästhetik der Tonkunst, Leipzig 19162, S. 34f.

3 Ebenda, S. 45.

4 Ein Prinzip, das später auch bei der Hammondorgel zum Einsatz kam.

5 Die Telharmonic Hall an der Ecke 39th Street und Broadway in New York City.

6 Busoni, Entwurf (Anm. 2), S. 45.

7 Albert Glinsky, Theremin: Ether Music and Espionage, University of Illinois Press 2005.

8 Peter Donhauser, Elektrische Klangmaschinen, Wien 2007, S. 67f.

9 Zitiert nach: Christa Baumgarth, Geschichte des Futurismus, Reinbeck bei Hamburg 1982, S. 26.

10 Luigi Russolo, Die Kunst der Geräusche, hrsg. von Johannes Ullmaier, Mainz 2002, S. 12.

11 Pierre Schaeffer, Traité des objets musicaux: essai interdisciplines, Paris 1966.

12 1. Materie: tonisch (bestimmte Tonhöhe), komplex (unbestimmte Tonhöhe) oder variabel (veränderliche Tonhöhe); 2. Form: ausgehaltener Klang (z.B. Liegeton), Impuls (z.B. sfz-Schlag) oder Impulskette (z.B. Tremolo); 3. Körnigkeit (grain): das innere Gefüge eines Klanges, seine Glattheit oder Rauhigkeit; 4. innere Bewegung (allure): Verallgemeinerung des traditionellen Vibratobegriffs.

13 John Dack, Instrument und Pseudoinstrument: Akusmatische Konzeption, in: Elena Ungeheuer (Hg.), Elektroakustische Musik (= Handbuch der Musik des 20. Jahrhunderts, Bd. 5), Laaber 2002, S. 243–259. Siehe auch: Pierre Schaeffer, Musique concrète, Stuttgart 1974, S. 38-39.

14 Helmut Lachenmann, Klangtypen der Neuen Musik, in: ders., Musik als existentielle Erfahrung. Schriften 1966–1995, Wiesbaden 1996, S. 1–20.

15 Siehe dazu: Elena Ungeheuer, Wie die elektronische Musik „erfunden“ wurde… Quellenstudie zu Werner Meyer-Epplers Entwurf zwischen 1949 und 1953, Mainz 1992.

16 Brief an Karel Goeyvaerts vom 7. Dezember 1952; in: Hermann Sabbe, Die Einheit der Stockhausen-Zeit… (= Musik-Konzepte, Bd. 19: „Karlheinz Stockhausen ...wie die Zeit verging...”, hrsg. von Heinz-Klaus Metzger und Rainer Riehn), München 1981, S. 42.

17 Diese uralte Idee der Versöhnung von Gegensätzen geht auf Pythagoras zurück und fand über Giordano Bruno und Spinoza Eingang in die Monadenlehre Wilhelm Leibniz’.

18 Karlheinz Stockhausen, Erfindungen und Entdeckungen. Ein Beitrag zur Form-Genese (1961); in: ders., Texte zur Musik, hrsg. von Dieter Schnebel, Bd. I, S. 228.

19 Karlheinz Stockhausen, ...wie die Zeit vergeht..., in: die Reihe III, hrsg. von Herbert Eimert unter der Mitarbeit von Karlheinz Stockhausen, Wien 1957, S. 13–42.

20 Ab einer Impulsfrequenz von ca. 20 Hz schlägt die rhythmische Pulsation in einen Tonhöheneindruck um. Oder mit anderen Worten: Zwei aufeinanderfolgende Schallereignisse, deren zeitlicher Abstand kleiner als 1/20 Sekunde ist, verschmelzen zu einem einzigen Klang. Ligeti erzielt dies beispielsweise, indem er eine Vielzahl individueller und rhythmisch sehr feinmaschig gesponnener Instrumentalschichten parallel laufen lässt, wodurch sich zwischen den einzelnen rhythmischen Werten (Duodezimolen, Undezimolen, Dezimolen, Nonolen etc.) sehr kleine Zeitdifferenzen ergeben, so dass die Einzelereignisse zu einem fluktuierenden Klang verschmelzen.

21 Karlheinz Stockhausen, Arbeitsbericht 1953: Die Entstehung der Elektronischen Musik, in: ders., Texte Bd. I (Anm. 19), S. 42.

22 Stockhausens Studie I (1953) gilt als die erste elektronische Komposition für Sinustöne, gefolgt von Karel Goeyvaerts Kompositie Nummer 5 met zuivere tonen (1954).

23 Diese wurde theoretisch bereits 1822 vom französischen Mathematiker Jean Baptiste Joseph Fourier begründet, der bewies, dass jeder periodischer Schwingungsverlauf aus überlagerten Sinuswellen zusammengesetzt werden kann.

24 So konstatierte György Ligeti in seiner Kritik des Seriellen den „Umschlag allzu fortgeschrittener Differenzierung ins Indifferente“ – siehe: György Ligeti, Form; in: Darmstädter Beiträge zur Neuen Musik, hrsg. von Ernst Thomas, Bd. X: „Form in der Neuen Musik“, Mainz 1966, S. 28.

25 Siehe dazu: Karlheinz Essl, Zufall und Notwendigkeit. Gottfried Michael Koenigs „Streichquartett 1959“ vor dem Hintergrund seiner kompositionstheoretischen Überlegungen, in: Musik-Konzepte, Bd. 66 „Gottfried Michael Koenig“, hrsg. von Heinz-Klaus Metzger und Rainer Riehn, München 1989, S. 35–76.

26 Werner Meyer-Eppler, Statistische und psychologische Klangprobleme, in: die Reihe I, hrsg. von Herbert Eimert unter der Mitarbeit von Karlheinz Stockhausen, Wien 1955, S. 22–28.

27 Meyer-Eppler nennt diese „Valenzfelder“; Stockhausen führt in seinem schon erwähnten Aufsatz …wie die Zeit vergeht… das Konzept der „Gruppe“ bzw. des „Feldes“ ein.

28 „Zuerst wurden Typen mit verschiedenen Gruppenmerkmalen und verschiedener innerer Organisation gewählt: quasi körnige, brüchige, fasrige, schleimige, klebrige und kompakte Materialien. Eine Untersuchung der gegenseitigen Permeabilität ergab, welche Typen einer Verschmelzung fähig waren, und welche sich abstießen. Die serielle Anordnung dieser Verhaltensweisen diente als Grundlage für den Aufbau der Form, wobei im Detail Kontrast der Typen und der Art der Verquickung erstrebt wurde, in der Gesamtheit jedoch ein graduelles, irreversibles Fortschreiten von anfangs heterogenen Dispositionen zu einem Vermischen und Ineinanderaufgehen der gegensätzlichen Charaktere.“ György Ligeti, Wandlungen der musikalischen Form, in: die Reihe VII, Wien 1960, S. 14.

29 Rainer Wehinger, Ligeti Artikulation. Elektronische Musik. Eine Hörpartitur von Rainer Wehinger, Mainz 1970, S. 7ff. – Gottfried Michael Koenig kann sich allerdings der Darstellung von Wehinger nicht anschließen. In einer E-Mail an den Autor vom 10. Mai 2007 schreibt er: „Ich erinnere mich noch genau, dass er mit Zetteln ins Studio kam, auf denen die Frequenzen, Lautstärken und Dauern der damals möglichen Klangmaterialien verzeichnet waren. Sie waren nicht eigentlich ‚seriell’, wohl aber so konzipiert, dass vorgegebene Bereiche ausgestuft waren, als sollten sie als Reihen auftreten können. Ich habe dies stets als ein Zugeständnis Ligetis an das serielle Dogma, wie es von Eimert und Stockhausen vertreten wurde, verstanden – ein freiwilliges Zugeständnis, wohlgemerkt, denn es half Ligeti […], sich in der unanschaulichen Studio-Umgebung zurechtzufinden. Aber kaum hatte er diese Vorbereitungen abgeschlossen und seine Klänge produziert, ließ er alle seriellen Aspirationen fahren und warf die Bandschnipsel wahllos in einen Schuhkarton, aus denen er sie mit geschlossenen Augen wieder herausfischte (meist tat ich es). Die Bandstücke, zu denen auch Weißband (für Pausen) gehörte, wurden zu vier Klangspuren hintereinander geklebt. Als sie eine gewisse Länge erreicht hatten (vielleicht 10 Sekunden oder etwas mehr), haben wir sie probeweise abgehört. Dabei entfuhr Ligeti der Ausruf: das klingt ja gerade, als ob Leute redeten! – Aufgrund dieser Erinnerung sehe ich mich gezwungen, alle Äußerungen Ligetis (auf denen wohl auch die Beschreibung Wehingers beruht) als nachträgliche Interpretationen zu verstehen, wie wir sie ja auch von anderen Komponisten kennen. Ligeti, den ich in die Studiotechnik eingeführt hatte und mit dem es während der Produktion der ‚Artikulation’ ein laufendes Gespräch gab, hat mir gegenüber niemals die Absicht geäußert, ein Stück machen zu wollen, das den Eindruck von Sprache erweckt.“

30 Umberto Eco, Das Offene Kunstwerk, Frankfurt/Main 1977, S. 24.

31 Gottfried Michael Koenig, „Projekt 1“ – Modell und Wirklichkeit (1979); in: ders., Ästhetische Praxis. Texte zur Musik, Bd. 3, hrsg. von Stefan Fricke und Wolf Frobenius, Saarbrücken 1993, S. 223–230.

32 VOSIM steht für VOice SIMulation und basiert auf dem „source-excitation“ Modell der Sprachsynthese: Ein durch Pulse erzeugtes Spektrum (das die Glottis nachahmt) wird durch ein nachgeschaltetes Filter (als Simulation des Vokaltraktes) überformt.

33 Der Moog-Synthesizer wurde seit den frühen 1960er Jahren von dem Amerikaner Robert Moog entwickelt und erstmals 1964 auf einem Kongress der Audio Engineering Society vorgestellt. Dank seiner kompakten Abmessungen, der offenen Programmierung mittels Steckverbindungen und der Verwendung einer Tastatur als Spiel-Interface fand er Eingang in die avancierte Popmusik eines Keith Emersons oder Brian Enos. Walter (heute: Wendy) Carlos’ legendäre im Mehrspur-Verfahren aufgenommene LP Switched-On Bach (1968) mit Bearbeitungen Bach’scher Werke für Moog-Synthesizer verhalfen diesem nur monophon spielbaren Instrument schließlich zu seiner weltweiten Popularität.

34 Gottfried Michael Koenig, Zu Funktionen (1986); in: Gottfried Michael Koenig, Ästhetische Praxis. Texte zur Musik, Bd. 5, hrsg. von Wolf Frobenius und Stefan Fricke, Saarbrücken 2002, S.191–210.

35 Lejaren A. Hiller & Leonard M. Isaacson, Experimental Music: Composition with an Electronic Computer, New York 1959.

36 Dieser vom sowjetischen Mathematiker Andrei Andrejewitsch Markow (1856–1922) entwickelte Algorithmus analysiert eine vorgegebenen Zeichenkette nach Übergangswahrscheinlichkeiten und führt dann mit Hilfe gewichteter Zufallsentscheidungen eine variative Resynthese des Ausgangsmaterials durch. Dieses Verfahren wurde häufig von Iannis Xenakis eingesetzt und in seinem Buch Formalized Music (Indiana University Press 1971) eingehend beschrieben.

37 Entwickelt 1985 von Barry Vercoe am MIT. Seit kurzem ist CSound integraler Bestandteil des MPEG-4 Standards für digitale Klangübertragung und -produktion.

38 MIDI (Musical Instrument Digital Interface)

39 Der von Claude Lévi-Strauss in seinem Buch La pensée sauvage (1962) verwendete Begriff „bricolage“ bedeutet im Deutschen etwa soviel wie „Bastelei“ und meint das empirische Herumprobieren im Gegensatz zur theoriebasierten Konstruktion.

40 Die Geschichte von Max begann 1986 am Pariser IRCAM, als Miller Puckette eine Steuersoftware für die von Giuseppe Di Giugno konstruierte digitale Signalverarbeitungs-Workstation 4X zu entwickeln begann. Diese Programmierumgebung trug damals noch den Namen „Patcher“ und diente zunächst der Realisierung von Pierre Boulez’ live-elektronischem Werk Répons. Damit ließen sich zunächst nur MIDI-Daten manipulieren, womit externe Synthesizer und Effektgeräte angesprochen werden konnten. Dies änderte sich 1990 mit der Entwicklung der Ircam Signal Processing Workstation (ISPW) – einem in Echtzeit arbeitenden System, das auf einem NeXT Computer mit einem eigens dafür entwickelten Signalprozessor lief. Als Mitte der 1990er Jahre die Rechner immer leistungsfähiger wurden, benötigte man zur Signalverarbeitung keine externe Hardware mehr, da diese Aufgaben von der CPU selbst übernommen werden konnten. Dies war der Beginn der beiden auf dem Max-Kernel basierenden Audioerweiterungen Pd (1996) und MSP (1997), die Klangverarbeitung in Echtzeit ermöglichen und auf handelsüblichen PCs und Apple-Rechnern laufen.

41 Pd ist eine von Miller Puckette in den 1990er Jahren entwickelte graphische Programmierumgebung für Klang- und Bildberabeitung, die auf dem selben Kernel wie Max – an dessen Entwicklung der Autor maßgeblich beteiligt war – basiert. Pd ist als freie „open source“ Software für alle gebräuchlichen Computerplattformen erhältlich.

42 SuperCollider – eine textbasierte Programmierumgebung für Klangsynthese und algorithmische Komposition in Echtzeit – wurde 1996 von James McCartney vorgestellt und ist seit 2002 ein „open source“-Projekt.

43 Dieser Begriff wurde von Seymour Papert geprägt, der 1967 die Computersprache LOGO entwickelte. Damit sollten Kinder in die Lage versetzt werden, eigene Software zu schreiben, um damit ihre Welt besser zu verstehen.

44 Die als open-source erhältliche RTC-lib basiert auf meinem in LOGO geschriebenen modularen COMPOSE-Environment (1988 ff.), für das ich Paperts Konzept der „microworlds“ als Computer Aided Composition System implementierte (Siehe: Karlheinz Essl, Computer Aided Composition; in: distel No. 46/47 „Mensch Maschine“, Bozen 1991). Diese Programmierumgebung lief damals auf einem ATARI ST Computer und war extrem langsam. Dank des Realtime-Ansatzes von Max/MSP konnten die Basismodule von COMPOSE später in ein Echtzeitsystem integriert werden und stellten den Grundstock der ersten RTC-lib Veröffentlichung (1993) dar.

45 Dazu der Komponist im Booklet seiner letzten CD Touch Three (Touch Music 2006): „Each piece uses a few tones. A simple chord, perhaps. Additional microtonal intervals were produced in Protools using pitch shift. The pieces were assembled in multitracks, usually 24 or 32 tracks. […] One hears only the sound of the instrument. There is no electronic manipulation in the recording, the editing of the tones, or in the mix. The only changes to the recorded tones are the pitch shifts to create microtones. The microtones are doing the work.“

46 Zur Geschichte der Algorithmischen Komposition siehe: Karlheinz Essl, Algorithmic Composition, in: Cambridge Companion to Electronic Music, hrsg. von Nick Collins and Julio d’Escrivan, Cambridge 2007, S. 107–125.

47 Ein „Strukturgenerator“ ist ein Computerprogramm, das ein kompositorisches Modell als Algorithmus beschreibt. Daraus lassen sich durch Veränderungen seiner Systemparameter unzählige Strukturvarianten erzeugen. Ein klassisches Beispiel stellt Gottfried Michael Koenigs Projekt 1 dar. – Siehe dazu: Karlheinz Essl, Strukturgeneratoren. Algorithmische Komposition in Echtzeit (= Beiträge zur Elektronischen Musik, Band 5, hrsg. von Robert Höldrich), Graz 1996.

48 m@ze°2 ist ein Akrostichon von „Modular Algorithmic Zound Environment“.

49 Mit dem Begriff „Sound“ soll der ganzheitliche Komplex des Klingenden in seiner unmittelbaren sinnlichen Wirkung bezeichnet werden. Zur Geschichte dieses Begriffs siehe: Frank Schätzlein, Sound und Sounddesign in Medien und Forschung; in: Sound. Zur Technologie und Ästhetik des Akustischen in den Medien, hrsg. von Harro Segeberg und Frank Schätzlein (= Schriftenreihe der Gesellschaft für Medienwissenschaft, Bd. 13), Marburg 2005.

50 Zur Frage der Improvisation im experimentellen Kontext zwischen Musik und Performance siehe: Karlheinz Essl und Jack Hauser, Improvisation über „Improvisation“; in: Musik-Wissenschaft an ihren Grenzen, hrsg. von Dominik Schweiger et al., Frankfurt/Main–Wien 2004, S. 507–516.

51 Mittlerweile hat dieses Denken sogar Eingang in die Sequencer-Software gefunden: Ableton Live erlaubt die zeitliche Dehnung und Stauchung von Samples in Echtzeit und erfreut sich deshalb großer Beliebtheit als flexibles DJ-Tool in der groove-orientierten elektronischen Popmusik.

52 Karlheinz Essl, Lexikon-Sonate. An Interactive Realtime Composition for Computer-Controlled Piano; in: Musik im virtuellen Raum, KlangArt-Kongress 1997, hrsg. von Bernd Enders, Osnabrück 2000, S. 311–328.

53 Ursprünglich für das Bösendorfer Grand Piano SE entwickelt, kann die Lexikon-Sonate heute auch auf einem Yamaha Disklavier, einem externen Sampler oder einem internen Software-Synthesizer gespielt werden. Die Komposition kann als Software von der Website des Autors herunter geladen werden.

54 Ramón González-Arroyo, Klang, Zeit, Form und Bewegung in einem strukturierten Raum; in: Beat Zoderer. Der doppelte Boden ist tiefer als man denkt (Ausstellungskatalog Kunstmuseum Bonn), Bonn 2003, S. 85f.

55 Gerhard Eckel, Die LISTEN-Vision; ebenda, S. 74f.

56 Gerhard Eckel, Audio-Augmented Reality. Ein neues Medium für die Klangkunst, in: Sonambiente Berlin 2006, hrsg. von Helga de la Motte-Haber et al., Heidelberg 2006, S. 348f.

57 Immersion meint hier das sinnliches „Eingetauchtsein“ in eine virtuelle Klangwelt.

58 Siehe: Nicolas Collins, Handmade Electronic Music: The Art of Hardware Hacking, New York 2006, S. 40. – Dieses Buch stellt eine ausgezeichnete Einführung in die Praxis des „circuit bendings“ dar.

59 Hans Pfitzner, Futuristengefahr. Bei Gelegenheit von Busonis Ästhetik, Leipzig 1917.

60 Siehe dazu: Volker Scherliess, Herausforderung der Technik – Experimentelle Musik in den Zwanziger Jahren; in: Der musikalische Futurismus, hrsg. von Dietrich Kämper, Laaber 1999, S. 243–263.

61 Die in diesem Konzert gespielten Stücke mit einer Gesamtdauer von nur 28 Minuten stammten von Stockhausen, Eimert, Goeyvaerts, Pousseur und Gredinger und formulierten das ästhetische Programm der Elektronischen Musik. Siehe dazu: Herbert Eimert, Die sieben Stücke, in: die Reihe I, Wien 1955, S. 8–13.

62 Zum Themenkomplex „Musik im Internet“ verweise ich auf die ausgezeichnete Dissertation von Golo Föllmer, Netzmusik, Berlin 2005.

63 Zu den Mitgliedern zählen John Bischoff, Tim Perkis, Scot Gresham-Lancaster, Phil Stone, Chris Brown und Mark Trayle.

64 Chris Brown, Know-Nothing Network Music, in: Proceedings der Music in the Global Village Konferenz, Budapest 6.–8. September 2007 (Budapest 2007), S. 31f.

65 Im Vordergrund steht hier immer noch das Paradigma des Konzertsaals mit seiner frontalen Bühne, auf der anstelle von Musikern nun unterschiedlichste Lautsprechermodelle aufgestellt waren. Diese Aufführungssituation trifft heutzutage oftmals nicht mehr zu – man denke nur an die verschiedenartigen Raumkonzeptionen der aktuellen Musik, wo die Klangquellen um das Publikum herum positioniert sind.

66 Der an der Technischen Universität Delft gebaute erste Demonstrationsraum wies 160 Lautsprecher auf, während die Technische Universität Berlin heute über einen mit 2.730 Lautsprechern und 840 getrennten Audiokanälen ausgestatteten Hörsaal verfügt.

67 Das „Huygenssche Prinzip“ besagt, dass jeder Punkt einer Wellenfront als Ausgangspunkt einer neuen Welle betrachtet werden kann. Damit kann das Wellenfeld einer Klangquelle durch viele Quellen reproduziert werden, die virtuell am am äußeren Rand der ursprünglichen Wellenfront angeordnet sind.

68 WONDER (Wave field synthesis of new dimensions of electronic music in realtime) – diese Software läuft derzeit unter Linux und benutzt OSC als Kommunikationsprotokoll. Siehe dazu: Marije A.J. Baalman, Torben Hohn, Simon Schampijer und Thilo Koch, Renewed architecture of the sWONDER software for wave field synthesis on large scale systems, in: Linux Audio Conference 2007, TU Berlin, 22-25 March 2007.

69 Zum derzeitigen Stand der WFS in der elektroakustischen Musik siehe: Marije A.J. Baalman, On wave field synthesis and electro-acoustic music – state of the art 2007, in: International Computer Music Conference 2007, Kopenhagen, 27.–31. August 2007.

70 Scrjabins Orchesterwerk Promethée – Le Poème du Feu op. 60 (1910) beinhaltete eine eigene Stimme für ein sogenanntes „Farbenklavier“, mit dem farbige Scheinwerfer angesteuert werden konnten.

71 Ruttmanns Film Berlin: Die Symphonie einer Großstadt (1927) beeindruckt durch seine rhythmische Schnitt- und Montagetechnik, die exakt auf die Originalmusik von Edmund Meisel abgestimmt ist.

72 Mit dem Lumigraphen entwickelte Fischinger 1950 ein Instrument, mit dem abstrakte Farbprojektionen mit Hilfe von zwei Spielern hervorgebracht werden können.

73 Die 2003 von Cycling '74 herausgebrachte Software-Erweiterung Jitter läßt sich nahtlos in Max/MSP integrieren und erlaubt damit die algorithmusgesteuerte Generierung und Manipulation von Video in Echtzeit. Als Vorläufer dazu erschien bereits 1999 das auf Quicktime basierende Max-External nato.0+55, das von einer subversiv agierenden Gruppierung namens Netochka Nezvanova entwickelt und vertrieben wurde. Auch Pd weist mit GEM (Graphics Environment for Multimedia) eine graphische Erweiterung auf, die zur Zeit am Institut für Elektronische Musik (IEM) der Grazer Musikuniversität weiterentwickelt wird.


© 2007 by Karlheinz Essl



Home Works Sounds Bibliography Concerts


Updated: 30 Mai 2010