Portrait
Karlheinz Essl

Zur Theorie der Seriellen Musik


Dieser Text ist ein Kapitel aus:

Karlheinz Essl, Strukturgeneratoren. Algorithmische Komposition in Echtzeit
in: Beiträge zur Elektronischen Musik, hrsg. vom Institut für Elektronische Musik der Universität für Musik und darstellende Kunst in Graz (Graz 1996).


Inhalt


Serialismus als Methode kompositorischen Denkens

Die grundlegende Absicht der seriellen Musik liegt in der Vermittlung zwischen dem extrem Kleinen und dem extrem Großen - den akustischen Eigenschaften des Klanges ("Parameter" genannt) und der Gesamtform der Komposition. Dabei stellt sich das Serielle weniger als Technik denn als Methode musikalischen Denkens dar, die in der uralten Idee von der Versöhnung der Gegensätze wurzelt. Diese geht auf Pythagoras zurück und fand über Giordano Bruno und Spinoza Eingang in die Monadenlehre Wilhelm Leibniz'. Die Welt wird nicht mehr dualistisch vorgestellt und die Form nicht mehr aus apriorischen Gegensätzen entwickelt, sondern als Einheit aufgefaßt, die sowohl rational als auch mystisch erfahrbar ist. Gegensätze werden nicht mehr als widerstreitende Prinzipien, sondern verschiedenartige Ausprägungen desselben übergeordneten Aspekts aufgefaßt. Über Zwischenstufen vermittelt bilden sie ein Kontinuum, das sich als "digitale" Skala von Werten darstellt. Dadurch lassen sich Aspekte des Tonsatzes, die traditionell unmittelbar nichts miteinander zu tun haben - etwa Rhythmus und Klangfarbe - als Ausprägung ein und derselben Sache begreifen. Herkömmlicherweise wurde diese beiden "Parameter" auf verschiedenen Ebenen des Kompositionsprozesses organisiert, wobei das Rhythmische eindeutig über dem Klanglichen dominierte. Motivik als eine Funktion des Rhythmus trieb das musikalische Geschehen primär fort, während die Klangfarbe eingesetzt wurde, diese Vorgänge plastisch zu verdeutlichen. Im seriellen Denken lassen sich diese beiden Parameter als verschiedenartige Ausprägung zeitlicher Prozesse auffassen. Experimente im elektronischen Studio hatten gezeigt, daß rhythmische Pulsationen in Klang umschlagen können, wenn man deren Abfolge beschleunigt (was sich mit einem Impulsgenerator leicht bewerkstelligen läßt) [1].

Ein einfaches Experiment möge dies verdeutlichen: Man lasse eine Ping-Pong-Ball auf eine harte Oberfläche fallen. Der Rhythmus des Aufschlagens wird kontinuierlich schneller, bis er zuletzt in einen singenden Klang umschlägt. Das Umkippen des Rhythmischen in eine neue Zustandsqualität (die des Klanges) passiert in dem Moment, wo die Geschwindigkeit der Prallimpulse eine Frequenz von ca. 20 Hz (d.h. die untere Hörschwelle) übersteigen.

Diese im elektronischen Studio gewonnene Erkenntnis zeitigte wiederum Auswirkungen auf die Instrumentalmusik: die Klangflächenkompositionen György Ligetis und Friedrich Cerhas sind direkte Umsetzungen hiervon.


Tabula rasa & Musica pura

Die Entwicklung des Serialismus ist eng mit der Nachkriegsgeschichte verknüpft. Sein Hauptbestreben lag in der Schaffung einer neuen musikalischen Syntax, die sich nicht auf die - verdächtig gewordenen - überlieferten Formen, Sujets und Techniken stützen konnte. Eine Weiterführung der Tendenzen der Romantik - die schließlich zum Faschismus geführt hatten - schien unmöglich, ebensowenig eine Wiederaufnahme des hindemith'schen Hantierens im Werkstoff der Töne. Der Zustand der "tabula rasa", wie er sich den Komponisten um 1950 darstellte, bot die Chance für einen Neuanfang: "Die >>Städte sind radiert<<, frohlockte Stockhausen, "man kann von Grund auf neu anfangen ohne Rücksicht auf Ruinen und >>geschmacklose<< Überreste!" [2]

Zunächst wurde alles traditionell Verbürgte über Bord geworfen. In der geschichtlichen Situation des Wiederaufbaus begann man, das zertrümmerte musikalische Material vom Nullpunkt aus neu zu organisieren. Dabei wurde grundlegende Pionierarbeit geleistet, von der wir heute noch zehren - ohne serielles Denken gäbe es weder die digitale Signalverarbeitung, den Synthesizer noch die CD. Durch methodische Strenge und eiserne Selbstkontrolle versuchte man sich gegen den Rückfall in die obsolet gewordenen traditionellen Sprachmuster abzusichern. Galt es doch, Grundsätzliches innerhalb des Tonmaterials und in bezug auf die Wahrnehmung zu erforschen, "um in absehbarer Zeit das Handwerk zu beherrschen und die neue musikalische Sprache so zu sprechen, wie einem der Schnabel gewachsen ist." [3]

Jeder Aspekt der Komposition sollte der kompositorischen Verfügungsgewalt unterstellt werden. Diese durchdringt die einst von einen "common sense" getragenen traditionellen Sprachmittel und gipfelt zuletzt in der Komposition des Klanges selbst. Doch bis dahin war es noch ein weiter Weg. In ihrer Bemühung nach Reinheit entstanden Werke wie Boulez' Extremstück Structure 1a (1952) für 2 Klaviere (das sich programmatisch auf das Gemälde "Am Rande des Fruchtlandes" von Paul Klee beruft) und Karel Goeyvaerts elektronisches Frühwerk Nummer 5 met zuivere tonen [mit reinen Tönen] (1953).


Bezugspunkte

Als Vaterfigur für die junge Komponistengeneration diente Anton Webern, in dessen Werk man bereits Ansätze des neuen musikalischen Denkens zu erkennen glaubte: Weberns (mißverstandene) Sensibilität für den Einzelton wurden als Vorbote der "Punktuellen Musik" gesehen, seine Strukturproportionen wiederum als Vorstufe der elektronischen Musik [4].

Daneben bezog man sich auch auf Claude Debussy, der in seinem Orchesterwerk Jeux (1911) von einem neuen Formkonzept ausgegangen war: dem irrationalen organisch-pflanzlichen Wuchern im Gegensatz zur funktionalen Formvorstellung der Wiener Klassik. Webern und Debussy stellen gleichsam die Extrempole einer Skala zwischen PUNKT (= punktuelle Musik) und FLÄCHE (= Feldkomposition) dar [5]. Im Kontinuum ihres Überganges entfaltet sich nun das ganze Formspektrum der seriellen Musik: vom Pointillismus der Kontrapunkte (1952/53) Stockhausens bis hin zu Cerhas Klangflächenkomposition Fasce (1959 ff.). Auch wenn es den Eindruck erwecken möchte, als wäre der Serialismus eine unmittelbare Weiterentwicklungen der Ansätze von Webern und Debussy, so zeigte es sich, daß die Legitimation erst im Nachhinein geschah, als sich die neuen Methoden schon längst etabliert hatten. Webern und Debussy dienten in erster Linie dazu, das Neue zu verdeutlichen, worauf Stockhausen ausdrücklich hingewiesen hatte: "In Weberns Werk entdeckte ich dann später - findend, was ich suchte -, daß vieles bei ihm schon vorbereitet war" [6].


Integrale Reihentechnik

Der Serialismus ist eine Methode, unterschiedliche Kräfte auszubalancieren, wobei Extreme durch Zwischenschritte vermittelt werden. Um die Einheit der verschiedenen musikalischen Bestimmungsgrößen ohne Zerstörung ihrer individuellen Elemente zu bewahren, werden diese demselben Organisationsprinzip unterworfen. Dabei handelt es sich um eine verbindliche Folge von Zahlenproportionen. Eine solche Abstraktion erwies sich als unumgänglich, zugleich aber als eminent fruchtbar: dadurch wurde es erst möglich, ursprünglich voneinander getrennte musikalische Aspekte miteinander in Beziehung zu setzen. Dies führte schließlich zum seriellen Formkonzept, in dem "Großform und alle Detailformen eines Werkes aus einer einzigen Proportionsreihe abgeleitet werden." [7].

Die in Weberns Spätwerk beobachtete Tendenz, die Reihentechnik auch auf andere Parameter des Tonsatzes auszudehnen, führte in Konsequenz schließlich zur sog. "Integralen Reihentechnik".

Damit ändert sich auch die Funktion der Reihe. Bei Schönberg verdankte sie sich noch ganz dem Einfall und diente als thematische Keimzelle, aus der sich alle Gestalten der Komposition in ihrer horizontalen und vertikalen Dimension ableiten lassen.

Anders aber in der Seriellen Musik:


Parameter

Die Reihe als Steuermechanismus beeinflußt nun das Verhalten der sog. Parameter. Dieser Terminus bezeichnet im seriellen Sprachgebrauch zunächst die akustischen Toneigenschaften Höhe, Dauer, Lautstärke und Klangfarbe. Mit der zunehmenden rationalen Durchdringung aller kompositorischen Teilaspekte wurde dieser Begriff auch auf übergeordnete Struktureigenschaften wie Dichtegrad, Gruppencharakteristik, Harmonik, Tonhöhenambitus etc. erweitert. Was als Parameter zu gelten hat, muß nun von Komposition zu Komposition jeweils aufs Neue definiert werden.

In der im Anschluß an die serielle Poetik entstandene Computermusik bedeutet der Ausdruck "Parameter" nunmehr eine Variable im formalisierbaren Kompositionsprozeß, die die Veränderungen der musikalischen Struktureigenschaften kontrolliert. In diesem Sinne verwenden wir ihn auch bei der Diskussion der Strukturgeneratoren.

Das Denken in Parametern läßt sich als Weiterführung polyphoner Techniken - des Kanons zumal - deuten. Erinnert sei auch an die unabhängige Organisation von Tonhöhen und Dauern - als "color" bzw. "talea" - in der isorhythmischen Motette des 14. und 15. Jahrhunderts. Faßt man Polyphonie als das geordnete gleichzeitige Ablaufen selbständiger Stimmen auf, so treten im Seriellen die ineinandergreifenden Parameterschichten an Stelle der kontrapunktischen Stimmzüge. Diese Parameterschichten, aufeinander projiziert, schießen zur Struktur zusammen.

Hatte man in den Anfängen der seriellen Musik noch geglaubt, die einzelnen Parameter nach dem gleichen Reihenschema organisieren zu müssen, so erkannten die Komponisten sehr bald, daß diese entsprechend ihrer eigenen Voraussetzungen zu differenzieren seien: als Ausdruck des angestrebten materialgerechten Denkens. Experimente aus der Frühzeit des Serialismus - wie Pierre Boulez' schon erwähnte Structure 1a (1951)[8] - führten zu einer kritischen Durchleuchtung der kompositorischen Theorie: Das ursprünglich als Unifikationstheorie konzipiert Serielle verwandelte sich schließlich durch die Tendenzen des Materials.


Reihenmanipulationen

Wir wollen uns im Folgenden einigen klassischen Verfahren der Reihenmanipulation widmen.

Das Prinzip der Elementwiederholung beruht auf Erfahrungen bei der Realisierung elektronischer Musik. Beim Abspielen einer einzigen Grundphase eines Klanges wird dieser nur als Knacks vernommen. Erst durch mehrfache Wiederholung der Phase wird der Klang als solcher hörbar: er tritt als periodischer Vorgang in Erscheinung. Die Anzahl der Wiederholungen läßt sich durch eine Multiplikationsreihe seriell bestimmen. Je weniger periodische Vorgänge innerhalb eines Klang stattfinden, desto mehr tendiert er zum Geräusch, das sich bekanntlich durch Aperiodizität auszeichnet. Durch Vermittlung zwischen periodischen und aperiodischen Vorgängen lassen sich im Studio alle Zwischenbereiche von Klang zum Geräusch auskomponieren. Auf ähnlichen Überlegungen basiert Gottfried Michael Koenigs Kompositionsprogramm Projekt 1 (1964 ff.) [10], das als Stammvater von algorithmischen Strukturgeneratoren von besonderem Interesse ist.

Durch Einführung des Wiederholungsgebotes verliert die serielle Musik ihre "punktuellen" Charakter, der "zugunsten übergeordneter Erlebnisqualitäten" [11] aufgehoben wird. Die von Stockhausen in seinem bahnbrechenden Aufsatz "...wie die Zeit vergeht..." [12] formulierte Theorie der Gruppenkomposition stellt die Korrektur des ursprünglichen seriellen Konzepts dar, ohne aber ins vor-serielle Fahrwasser abzugleiten. Bestimmte musikalische Eigenschaften gelten nicht mehr für Einzeltöne, sondern für übergeordnete musikalische Einheiten, "Gruppen" genannt. Dadurch wird die Artikulation komplexer musikalischer Formen wieder möglich, wie es Stockhausen in seiner programmatischen Komposition Gruppen für drei Orchester (1955-57) beispielhaft vorgeführt hat.

Für jeden Parameter (harmonische Konstellationen, Tempi, Einsatzabstände, Register, Dynamik etc.) wird nun eine Materialliste konstruiert, die alle in der Komposition vorkommenden Parameterdaten enthält. Deren Reihenfolge ist gleichgültig: sie werden ihrer Größe nach zur Skala sortiert. Nur im Grenzfall erscheint die Materialliste zur Gänze, meist aber in Auszügen, den Datenfeldern. Diese werden für jeden Abschnitt der Komposition gebildet und enthalten eine Auswahl an Elementen der Materialliste. Hinsichtlich ihrer Größe und ihres Inhaltes sind die Datenfelder variabel; sie stellen eine Selektion und damit auch eine Reduktion des zur Verfügung stehenden Ausgangsmaterials dar. Erst für die einzelnen Unterabschnitte eines Formteils wird die Häufigkeit und Anordnung der Elemente bestimmt. Aus einer amorphen Ansammlung von Daten wird so Schritt für Schritt strukturiertes Material "zubereitet".

Schematisch ließe sich dieser Vorgang so darstellen:


       Materialliste      [a b c d e f g]

                              |  
                              | Selektion
                              | (Selektionsregel) 
                              | 
                              v
  
       Datenfeld          [a c d g]               

                              |  
                              | Elementwiederholung
                              | (Multiplikationsreihe) 
                              | 
                              v

       Wiederholungsliste [a a a c d d g g g g g]

                              |
                              | Reihenfolge
                              | (Permutationsregel) 
                              |
                              v
         
       Ergebnis           [c d g g a g g d a g a]

Auf der linken Seite dieser Darstellung steht die Bezeichnung der Parameterlisten, in der Mitte in eckigen Klammern eine mögliche Erscheinungsform der Parameter, und rechts die Angabe der jeweils wirkenden Manipulationsregel.

Wir sehen hier, daß die Reihe durch eine Parameterliste ersetzt wurde. Anstatt diese Liste nun explizit auszufüllen, kann sie nun durch eine Prozedur (eine "Funktion" im Sinne der Informatik) ersetzt werden, die den Listeninhalt generiert. Dieses Verfahren hat den Vorteil, daß es allgemeiner und offener ist. Die Funktion ließe sich wiederum durch übergeordnete Parameter steuern.


Zufall

Die Auflösung der seriellen Reihenmechanik verdankt sich zudem der Erkenntnis, daß Determiniertes ins Unbestimmbare umzukippen imstande ist, wenn die Bedingungen, unter denen die Parameterwerte zusammentreffen, so kompliziert sind, daß der Komponist das Resultat im Einzelnen nicht vorauszusehen vermag. Die Ergebnisse gerieten so komplex, daß die dahinter stehende Ordnung nicht mehr rezipiert werden konnte. Was zunächst als Widerspruch anmutet, ist eine Konsequenz des Seriellen: Gerade das hochgradig Organisierte verliert seine Bestimmtheit und schlägt um ins ununterscheidbar Graue, wenn die Determination zu weit getrieben wird. Den "Umschlag allzu fortgeschrittener Differenzierung ins Indifferente" [14] bewirkt ein lebensnotwendiges Regulativ unserer Wahrnehmung: bei struktureller Überorganisation kann die Fülle von Information nicht mehr kognitiv verarbeitet werden. Dies führt zu einem Umschlagen von Ordnung in Beliebigkeit und somit zu einem Zustand, den wir als Unordnung empfinden.

Dieser Umstand zeitigte radikale Konsequenzen und führte bei Gottfried Michael Koenig zur Substituierung von seriellen Ordnungsmechanismen durch aleatorische Auswahlprinzipien - und damit zur Auflösung des Reihendenkens [15]. Durch die bewußte Anwendung von Zufallsoperationen konnte paradoxerweise gerade das gerettet werden, was die "integrale Reihentechnik" preisgegeben hatte: nämlich die Wiedergewinnung von intendiertem Ausdruck und die tatsächliche Verfügbarkeit über die kompositorischen Mittel [16].

Dies führte zur Entwicklung der aleatorischen Musik. Unter Aleatorik versteht man die Anwendung von Zufallsoperationen auf Kompositionsprozesse, die ursprünglich dem Prinzip der vollständigen Determination unterworfen waren. Das Problem des Zufalls in der Musik steht dabei in unmittelbarem Zusammenhang mit der Entwicklung der abendländischen Musikgeschichte. Die ihr innewohnende Tendenz zu immer stärkerer Determination und Ausklammerung alles Zufälligen führte in der seriellen Musik zu einer Grenze, an der das Reglement so entropisch wird wie der Zufall selbst.

Die Verwendung des Zufalls in Kompositionsprozessen ist Ausdruck einer veränderten Weltsicht, die sich seit Beginn des Jahrhunderts vor allem in den Naturwissenschaften abzeichnete, wo der Newton'sche Determinismus zunehmend durch statistische Zustandsbeschreibungen ersetzt wurde. Im atomaren Bereich konnte Heisenberg nachweisen, daß durch eine "Unschärferelation" die Messung verschiedener Zustände eines Teilchens nie exakt sein kann, wodurch eine genaue Beschreibung unmöglich ist. Damit wurde auch mit dem Köhlerglauben aufgeräumt, die Welt sei nichts als eine komplizierte Maschine, die völlig in den Griff zu bekommen sei, fände man nur ihre exakte Formel. Sie offenbart sich vielmehr als komplexes System zwischen den Bereichen des Determinierten und Chaotischen. Jedoch sollte dies weder zur ideologischen Verherrlichung des Zufalls führen, noch zum alleinigen Vertrauen auf das rational Bestimmbare. Keinesfalls darf übersehen werden, wozu der Zufall eigentlich taugt: "als ein Mittel zur Erweiterung des empirischen Horizontes, als ein Weg zu einer weiteren Kenntnis" [17] - niemals aber als Erkenntnis selbst.

Zufall und Ordnung werden im seriellen Denken nicht als Widersprüche, sondern als Extrempole aufgefaßt, zwischen denen vielfältige Übergänge möglich sind. In dieser Dialektik liegt etwas vom Geheimnis lebendiger Prozesse beschlossen: Ordnung als Stabilisierungsfaktor und Mittel zur Vertiefung; Zufall hingegen als Varianzfaktor, als Mittel zum Erkenntnisgewinn. Bildlich gesprochen: Wäre die Ameise nicht zufällig von der Ameisenstraße abgeirrt, hätte sie nicht die neue Futterquelle entdecken können.

Dieses Denken zeitigt natürlich auch kompositionstechnische Korrelate. Der Vermittlung zwischen Ordnung und Zufall hat sich Koenig verschrieben: in seinem Kompositionsprogramm Projekt 1 (1964 ff.) implementierte er drei verschiedene sog. Selektionsmechanismen, die gleichsam digitale Übergänge zwischen bestimmt und unbestimmt erzeugen: SEQUENCE, SERIES und ALEA.


...wie die Zeit vergeht...

Das serielle Denken nimmt seinen Ausgangspunkt in der Vorstellung von der "Einheit der musikalischen Zeit", die Stockhausen in seiner Abhandlung ...wie die Zeit vergeht... [18] proklamiert hatte. Besagte Theorie möchte aufzeigen, daß man es in der Musik primär mit zeitlichen Prozessen zu tun hat. Die Bestimmungsgrößen eines Tones - seine Höhe, Dauer und Klangfarbe - lassen sich als Zeitfunktionen beschreiben: die Frequenz als Anzahl der Grundtonschwingungen pro Sekunde, die Dauer als zeitliche Ausdehnung, zuletzt die Farbe als Überlagerung von Obertönen und Spektren in der Zeit.

Dabei handelt es sich um unterschiedliche Wahrnehmungsbereiche, in denen sich zeitliche Vorgänge in den verschiedenen Wirkungsebenen der Zeit ausdrücken: so sind Farbe und Tonhöhe im Bereich der "Mikro-Zeit" angesiedelt, während sich Rhythmus und Form in der "Makro-Zeit" abspielen. Koenig zufolge wären zum Beispiel "fünf Minuten - eine Formeinheit, fünf Sekunden - eine Tondauer, eine fünftel Sekunde - eine rhythmische Größe, eine fünfhundertstel Sekunde - daß Maß für eine Tonhöhe" [19].

Die Grenzen dieser Zeitbereiche sind jedoch nicht hermetisch gegeneinander abgeriegelt, sondern permeabel. So können qualitativ unterschiedliche Parameter - etwa Rhythmus und Tonhöhe - unmerklich ineinander übergehen, wie dies bereits am Beispiel des Pingpong-Ball-Experiments demonstriert werden konnte.

Wenn aber nun Rhythmus, Tonhöhe und Klangfarbe Zeitfunktionen darstellen, die in verschiedenen Wahrnehmungsbereichen angesiedelt sind und ineinander übergehen können, so verlangt dies auch die kompositionstechnische Vereinheitlichung der Parameterbehandlung. Die gleichen Prinzipien, die im Bereich der Tonhöhen ("Mikrozeit") gelten, haben auch auf dem Gebiet der Dauern ("Makro-Zeit") ihre Berechtigung. So lassen sich - ebenso wie Tonhöhen - auch Zeitwerte in "Zeitoktaven" zusammenfassen. Die Oktave, als Verhältnis von 2 : 1 definiert, wird im temperierten chromatischen Tonsystem in 12 gleich groß empfundene Glieder unterteilt. Die Relation zwischen zwei Halbtönen ist immer konstant und wird durch den "Proportionalitätsfaktor" ausgedrückt; die 12. Wurzel aus 2.

Auf gleiche Weise läßt sich eine "chromatisch temperierte Skala der Dauern" [20] konstruieren. Die Dauer kann im herkömmlichen Notationssystem indes nur metronomisch bezeichnet werden, wobei die metrische Bezugseinheit (der sog. "Grundzeitwert": zum Beispiel die ganze Note) durch Tempoangaben differenziert wird. In Stockhausens Beispiel wird eine Dauernskala im Bereich zwischen einer und einer halbe Sekunde (eine "Dauernoktav" also) konstruiert, wobei folgende Metronomzahlen, bezogen auf die ganze Note, auftreten [21]:

        MM  =   60.0            MM  =   84.9
            =   63.6                =   89.9
            =   67.3                =   95.2
            =   71.4                =   100.9
            =   75.6                =   106.9
            =   80.1                =   113.3

Die nächste Dauernoktave liegt im Bereich einer halben und einer viertel Sekunde, also zwischen MM = 120 und MM = 226. Diese läßt sich aber ebenso durch den Wechsel der metrischen Bezugseinheit, des Grundzeitwertes, erreichen. Statt einer ganzen Note steht nun die Halbe, in der folgenden Zeitoktave die Viertel etc. etc.

Die Verwendung von logarithmischen Zeitskalen (die durch chromatisch- temperierte Teilung entstanden sind) garantiert ein wohlproportioniertes Ausgangsmaterial, das sich an unserer sinnlichen Wahrnehmung orientiert: wir empfinden eine solche Skala als ausgewogen und stimmig. Ein gleichmäßiges Ritardando oder Accelerando entsteht nun ebenfalls durch "temperierte" Teilung, ohne daß man sich dessen bewußt sein muß: die Verlangsamung bzw. Beschleunigung wird dann als regelmäßig erlebt, wenn das Verhältnis zwischen zwei benachbarten Zeitwerten konstant ist.

Würde man jedoch eine Zeitskala durch lineare Teilung erzeugen (bei der jeder folgende Wert um den gleichen Betrag größer wird), ist das Verhältnis zwischen den Glieder kein proportionales mehr: die langen Zeitwerten werden die kurzen dominieren, was in einer langsamen Durchschnittsgeschwindigkeit resultiert.

Eine Gegenüberstellung dieser beiden Unterteilungsmöglichkeiten möge den Unterschied demonstrieren:

         log. Zeitskala      lin. Zeitskala      Index
         _____________________________________________

            100                 100                0
            147                 250                1
            215                 400                2
            316                 550                3
            464                 700                4
            681                 850                5
           1000                1000                6

In beiden Fällen handelt es sich um einen siebenstufigen Übergang von Zeitwerten zwischen 100 und 1000 Millisekunden (ms). Während die lineare Skala konstant ansteigt, wächst die logarithmische um den gleichen Faktor. Dies führt dazu, daß die kleineren Werte dort stärker vertreten sind und die Durchschnittsgeschwindigkeit dort schneller ist, wohingegen in der linearen Zeitreihe die kleineren Werte von den größeren "aufgefressen" werden [22].

Diese beiden Zeitunterteilungsprinzipien lassen sich natürlich als Computerprogramm allgemein formulieren:

trans (start, end, steps, mode)

Die Funktion trans führt also einen Übergang zwischen einem Startwert (start) und einem Endwert (end) und in einer bestimmten Anzahl von Schritten (steps) durch, wobei zwischen mehreren Übergangsfunktionen (mode) gewählt werden kann: logarithmisch, linear oder exponentiell.

In meinem bereits erwähntem auf xLOGO basierendem COMPOSE-Environment würde die Funktion

trans 100 1000 7 log

als Ergebnis eine Liste

> [100 147 215 316 464 681 1000]

liefern, die beliebig weiterverarbeitet werden kann.

Die selbe Funktion ließe sich aber auch in MAX implementieren und ist als solche Teil der "Real Time Composition Library for MAX". Im Unterschied zu seinem xLOGO-Pendant liefert sie aber als Ergebnis nicht die vollständige Skala, sondern nur das jeweilige durch den Index spezifizierte Listenelement. Allerdings erfolgt dort die Berechnung in "Realtime": zu dem Zeitpunkt, wo ein Listenindex in den linken Eingang der Funktion trans geschickt wird, wird der dazugehörige Listenwert als Resultat zurückgegeben.

Help-Window der Funktion trans
(aus: Karlheinz Essl's "Real Time Composition Library for MAX")


Zurück zum Inhaltsverzeichnis...


Anmerkungen

[1] Gottfried Michael Koenig, Ligeti und die elektronische Musik; in: Ligeti. Personalstil - Avantgardismus - Popularität (= Studien zur Wertungsforschung, Bd. 19, hrsg. von Otto Kolleritsch, Wien 1987), S. 13.

[2] Karlheinz Stockhausen, Zur Situation des Metiers (Klangkomposition), 1953; in: ders., Texte zur Musik, hrsg. von Dieter Schnebel (Köln 1963 ff.), Bd. I, S.48.

[3] Karlheinz Stockhausen, Zur Situation des Metiers (Klangkomposition), a.a.O., S. 48.

[4] Karlheinz Stockhausen, Weberns Konzert für 9 Instrumente op. 24. Analyse des ersten Satzes (1953); in: Texte I, S. 24 f.

[5] Karlheinz Stockhausen, Von Webern zu Debussy. Bemerkungen zur statistischen Form (1954); in: Texte I, S. 75 f.

[6] Karlheinz Stockhausen, Gruppenkomposition: Klavierstück I (Anleitung zum Hören), 1955; in: Texte I, S. 63 f.

[7] Karlheinz Stockhausen, Erfindungen und Entdeckungen. Ein Beitrag zur Form-Genese (1961); in: Texte I, S. 228.

[8] In der Absicht, an den "Rand des Fruchtlandes" (so der geplante Untertitel der Komposition in Bezug auf das gleichnamige Bild von Paul Klee) zu gelangen, treibt Boulez den Reihenschematismus bewußt auf die Spitze und leitet alle Reihen für Dauern, Lautstärken und Anschlagsarten aus der Struktur einer Zwölftonreihe ab. Dabei hat eine zwölfgliedrige Tonreihe ihre Berechtigung allein schon dadurch, da sie alle chromatischen Töne beeinhaltet. Eine in Analogie dazu gebaute zwölfteilige Dauernreihe erscheint jedoch als willkürliche Konstruktion, die aus dem Material der Zeitdauern nicht zu rechtfertigen ist. Vollends absurd wird dies bei einer Reihe von zwölf Anschlagsarten oder zwölf Dynamikstufen, die kaum mehr differenzierbar sind.

[9] Gottfried Michael Koenig, Aleatorische und serielle Verfahrensweisen in der Elektronischen Musik (1965); in: Gottfried Michael Koenig, Ästhetische Praxis, hrsg. von Stefan Fricke und Wolf Frobenius, Bd. 2 (Saarbrücken 1992), S. 308.

[10] Die zuvor im Bereich des Klanges (also der "Mikro-Zeit") betrachteten Vorgänge erscheinen hier in die "Makro-Zeit" transferiert. Es werden periodische und aperiodische Texturen unterschieden. Im ersten Fall wird ein gewählter Parameterwert (z.B. eine Dynamikangabe) mehrmals wiederholt, ehe der nächste folgt. Eine rein aperiodische Textur hingegen reiht die Parameterdaten ohne Wiederholung aneinander und bildet so den klassischen Fall einer "Reihe". Diese beiden Extreme werden durch einen 7stufigen Prozeß vermittelt, der gleichsam "digitale" Übergänge zwischen periodischen und aperiodischen Vorgängen schafft. Jeder der fünf Parameter (Instrument, Rhythmus, Harmonie, Oktavlage und Dynamik) wird für einen Formteil hinsichtlich seiner Periodizität bestimmt; die Struktur und der spezifische Charakter eines Abschnittes entstehen durch Überlagerung aperiodischer bzw. periodischer Parameter-Ströme. - cf. Gottfried Michael Koenig, Projekt Eins - Modell und Wirklichkeit (1979); in: Ästhetische Praxis, a.a.O., Bd. 3, S. 223 ff.

[11] Karlheinz Stockhausen, Gruppenkomposition, a.a.O., S. 63.

[12] Karlheinz Stockhausen, "...wie die Zeit vergeht..." (1956); in: die Reihe, Bd. III, hrsg. von Herbert Eimert unter der Mitarbeit von Karlheinz Stockhausen (Wien 1957), S. 13 ff. - Neudruck: Texte I, S. 99 ff.

[13] Gottfried Michael Koenig, Serielle und aleatorische Verfahrensweisen in der Elektronischen Musik (1965); in: Gottfried Michael Koenig, Ästhetische Praxis, hrsg. von Stefan Fricke und Wolf Frobenius, Bd. 2 (Saarbrücken 1992), S. 308.

[14] György Ligeti, Form (1966); in: Darmstädter Beiträge zur Neuen Musik, hrsg. von Ernst Thomas, Bd. X: "Form in der Neuen Musik", (Mainz1966), S. 28

[15] cf. Gottfried Michael Koenig, Serielle und aleatorische Verfahrensweisen, a.a.O., S. 300 ff.

[16] cf. Karlheinz Essl, Zufall und Notwendigkeit. Anmerkungen zu Gottfried Michael Koenigs "Streichquartett 1959" vor dem Hintergrund seiner kompositionstheoretischen Überlegungen; in: Musik-Konzepte, Bd. 66 "Gottfried Michael Koenig", hrsg. von Heinz-Klaus Metzger und Rainer Riehn (München 1989)

[17] Luigi Nono / Helmut Lachenmann, Geschichte und Gegenwart in der Musik von heute (1960); in: Darmstädter Beiträge zur Neuen Musik, Bd. 3, hrsg. von Wolfgang Steinecke (Mainz 1960), S. 47

[18] Stockhausen, ...wie die Zeit vergeht..., a.a.O.

[19] in: Ursula Stürzbecher, Werkstattgespräche mit Komponisten (Köln 1971), S. 19 f.

[20] Stockhausen, ...wie die Zeit vergeht..., a.a.O., S. 24.

[21] Für eine zwölffache Unterteilung von "Dauernoktaven" und Grundzeitwerten besteht freilich keine zwingende Notwendigkeit. Die Zwölfteiligkeit, als unserem westlichen Tonsystem historisch vermittelt, hat allein dort ihre Berechtigung. Diese Verhältnisse jedoch auf die übrigen Parameter zu übertragen, ist daraus nicht zu rechtfertigen, selbst wenn erkannt wurde, daß die Bildungsprinzipien der Tonhöhenreihe auch für andere Zeitfunktionen Geltung besitzen.

[22] Boulez hat in seinem Klavierstück Structure 1a (1952) eine lineare (arithmetische) Zeitreihe verwendet (siehe György Ligeti, Pierre Boulez. Entscheidung und Automatik in der Structure 1a; in: die reihe, Bd. 4, hrsg. von Herbert Eimert, Wien 1958, S. 39. - Siehe auch das Notenbeispiel in Stockhausen, ...wie die Zeit vergeht..., a.a.O., S. 17). Das Problem der rhythmischen Ausdünnung löst Boulez dadurch, daß er immer mehrere Rhythmusschichten synchron ablaufen läßt, wodurch sich eine Verdichtung ergibt, die im Einzelnen aber dem Zufall der Überlagerung unterliegt.



Home Works Sounds Bibliography Concerts


Updated: 1 Mar 2008