Im Rahmen des EU – Forschungsprojekts IPCity - Urban Renewal wird an der Technisches Universität Wien der Prototyp eines Mixed Reality Interactive Table-Top Interfaces entwickelt. Damit können Stadtplanungsprojekte visualisiert und von den Benutzern intuitiv verändert werden. Ziel ist es, mit Hilfe dieser neuen Technologie Veränderungen in der Stadt diskutierbar zu machen und dadurch Stadtplanungsprojekte in ihrer Entwicklungsphase zu unterstützen. Seit 2007 ist Gammon Mitarbeiter im IPCity-Team der TU-Wien und verantwortlich für das akustische Konzept, das Sounddesign und die Entwicklung der Soundapplikation (Max/MSP). Im Zuge seiner Recherchen entstand nachstehendes Interview mit dem Komponisten Karlheinz Essl am 24.11.2008 im Studio für Elektroakustische Musik der Universität für Musik und darstellende Kunst in Wien. |
Gammon: Können wir Sound auf die gleiche Ebene setzen wie visuellen und sprachlichen Ausdruck?
Karlheinz Essl: Tatsache ist, dass wir schon länger hören als wir sehen. Das Sehen lernen wir erst nachdem wir geboren werden. Danach braucht es einige Zeit, bis das Gehirn die Sinneswahrnehmungen, die von der Netzhaut aufgenommen werden, sinnvoll mit Bedeutungen verknüpft. Dieser Lernprozess dauert bei einem Neugeborenen einige Monate, bis es das, was sich ausserhalb seiner selbst befindet, als etwas von sich Abgekoppeltem begreifen kann – als Umwelt. Das Sehen ist ein Sinn, der erst langsam erworben wird, dann aber sehr dominant wird, weil er stark mit dem Cortex, dem Intellektuellen und der rationalen Kognition verknüpft ist.Das Hören hingegen beginnt schon viel früher. Schon im Mutterleib kann das Kind hören, es hört die Geräusche aus dem Körper der Mutter, hört aber auch die Stimmen aus der vertrauten Umgebung. Diese akustischen Eindrücke werden im limbischen Teil des Gehirns abgelegt, der stark mit Gefühlen und Emotionen verbunden ist, was wiederum zur Folge hat, dass wir auf Klang viel emotionaler und unmittelbarer reagieren als auf Bilder. Bilder sind immer verbunden mit Analyse, Cortex-Aktivitäten, also Begrifflichkeiten, wo hingegen Klang fast reflexiv wirkt.
Beispiel: Wenn sich einem Fußgänger ein Auto nähert. Bevor er es gesehen hat, hat er es schon gehört.
Das ist auch der Grund für die starke emotionale Wirkung von Sound. Das unterscheidet den Klang vom Bild: Unsere Augen können wir schließen, die Ohren hingegen nicht.
Gammon: Bewusstes und unbewusstes Hören. Wie beschreibst du diese beiden akustischen Wahrnehmungen?
Karlheinz Essl: Das Hören ist immer an eine bestimmte Situation gekoppelt. Wenn ich in ein Konzert gehe, habe ich eine völlig andere Hörerwartung als wenn ich in den Bergen wandere. Dort höre ich sehr genau, weil ich mich damit orientiere und auch Gefahren rechtzeitig erkennen kann. Im Konzert hingegen versuche ich mich auf die Musik zu konzentrieren, d.h. ich fokussiere mich da völlig anders. Das waren zwei Beispiele für bewusstes Hören in völlig unterschiedlichen Situationen: einmal das dezidiert ästhetische Hören in der Konzertsituation, das andere Mal das bewusste Hören, um sich in der Umwelt zurechtzufinden. Unser Hören kann also beides.Unbewusstes Hören hingegen wäre, wenn ich etwa durch Subfrequenzen, die unterhalb unseres Hörbereichs liegen, in eine bestimmte Art der Erregung gebracht werde, die auch sehr negativ sein kann. Diese Subfrequenzen werden nicht bewusst gehört, aber irgendwie spürt man doch etwas, wenn auch nur körperlich.
Karlheinz Essl beschreibt ein Erlebnis, in dem offensichtlich der Kühlschrank in seiner Wohnung bestimmte Interferenzmuster von Schallwellen erzeugte. Daraus entstanden an verschiedenen Punkten in der Wohnung „akustische Knoten“ von subfrequenten Schwingungen, welche nicht hörbar, aber körperlich sehr unangenehm waren, so schlimm, dass er den Raum verlassen musste. Karlheinz Essl beschreibt das unbewusste Hören anhand von zwei weiteren Beispielen, in denen akustische Ereignisse oder akustische Räume in eine andere Umgebung transferiert werden. Beispiel 1: Die Kirche, ein grosser, ruhiger, sakraler Raum: Wenn wir in dieser Situation plötzlich Vögel zwitschern hören, kann dies einerseits berührend, aber auch irritierend sein. Beispiel 2: Die Klangskulptur Landscape Soundings von Bill Fontana im Rahmen der Wiener Festwochen 1990. Bill Fontana platzierte eine Vielzahl von Mikrofonen in den Donauauen bei Hainburg an verschiedenen Plätzen, in Bäumen, unter Wasser und am Boden. Der auf diese Weise eingefangene akustische Raum wir live auf den Maria-Theresien-Platz in Wien übertragen. „Durch die Verstärkung der akustischen Signale und die Kontextverschiebung von der Natur in die Stadt entsteht eine Irritation und damit ein gesteigerte Aufmerksamkeit. |
Gammon: Wenn du ein Objekt, eine Szene, ein Ereignis oder ein Zitat akustisch übersetzt, wie ist dabei deine gedankliche Vorgangsweise?
Karlheinz Essl: Meine Vorgangsweise ist immer anders und richtet sich nach der künstlerischen Idee bzw. dem zu erzielenden Resultat. Bei einem Stück für Bassklarinette hätte ich einen völlig anderen Ansatzpunkt als zum Beispiel bei einer Theatermusik zu einem Stück von Andreas Okopenko. Im einen Fall würde ich mir zuerst das Instrument näher ansehen um herauszufinden, wie dieses sonst noch gespielt werden kann als in der herkömmlichen Art und Weise. Im anderen Fall würde ich versuchen, über den Text eine Struktur oder eine Stimmungslage zu finden, welche die Musik unterstützend oder auch gegenteilig zur Wirkung bringen könnte. Ich gehe immer von der Situation aus, ich versuche aber auch, immer etwas Neues zu (er)finden. In letzter Zeit orientieren ich mich mehr am Instrument, das ich – auch durch Einsatz von Live-Elektronik – mit seiner ihm eingeschriebenen Geschichte zum Sprechen bringen möchte.
Gammon: Wie überprüfst du deine Arbeit in Bezug auf die Wahrnehmung der Rezipienten?
Karlheinz Essl: Ich überprüfe meine Arbeit immer, selbst wenn ich abstrakt arbeite. Ich versuche mir immer vorzustellen, was musikalisch passiert, auch während der Probenarbeit oder bei Aufführungen, um dann eventuell noch Korrekturen anzubringen.Im Bereich der live-elektronischen Musik befinde ich mich in einem Rückkoppelungsprozess, indem ich sofort auf das reagiere, was live passiert und so meine Musik und den Klang augenblicklich verändern kann. Dabei hilft natürlich auch das Feedback vom Publikum. Ich sehe das schon so, dass das live-elektronische Spiel das Publikum mit einbezieht, und die Musik sich dadurch verändert, auf einer nicht ganz klar definierbaren Weise, die vorwiegend über das Unbewusste funktioniert – wie, das ist sehr geheimnisvoll...
Gammon: Welchen Wahrnehmungsunterschied siehst du zwischen synthetischen und akustisch erzeugten Klängen?
Karlheinz Essl: Die sogenannten ‚konkreten’ Klänge, die wir aus unserer unmittelbaren Anschauung der Natur kennen, sind mit unserem Menschsein und unserer Leiblichkeit verknüpft. Wenn ich z.B. einen Radiergummi auf den Boden werfe (Radiergummi fliegt auf den Boden), dann ist dies ein Vorgang, den ich als Kind schon unzählige Male ausprobiert habe: Ein Gegenstand fällt hinunter, schlägt kurz am Boden auf, „peppelt“ dahin und rutscht dann weg. Das ist eine recht komplexe, aber vertraute Geste. Wenn wir das mit Instrumenten kompositorisch nachbauen, kann das sehr organisch rüberkommen. Wenn wir Klänge hören, die solchen physikalischen Grunderfahrungen strukturell entsprechen, sind sie stark mit uns und unser Welterfahrung verknüpft.Diese Klänge können auch synthetisch erzeugt werden. Mit Hilfe der „Physical Modeling Synthese“ werden Körpereigenschaften, Wandstärken und Materialien definiert und man bestimmt, ob dieses Instrument angeschlagen, geblasen oder gezupft werden soll. Es können so auch unmögliche Instrumente konstruiert werden z.B. eine Flöte, die 100m lang ist und mit einem riesigen Gummihammer angeschlagen wird. Das Interessante an diesen physikalischen Modellen ist, dass der Klang, noch während er schwingt, neu angeschlagen werden kann und sich somit verändert, während beim Synthesizer bei jedem Tastendruck jeder Sound gleich klingt.
Es gibt in jedem Fall einen Wahrnehmungsunterschied zwischen synthetischen und konkreten Material: Das ist aber keine Wertung, denn es können mit Klangsynthese Wahrnehmungseffekte erzeugt werden, die mit natürlichen Klängen nicht möglich wären.
Gammon: Wodurch unterscheidet sich die Wahrnehmung im realen und im virtuellen Raum am Beispiel Kino?
Karlheinz Essl: Das Kino als virtueller Raum kann sehr verdichtet wirken, weil visuelle und akustische Impacts in einer Konzentration hinein gepackt werden können, die es in der Realität nicht gibt. Es kann aber auch sein, dass die Realität noch viel stärker ist.Andererseits gibt es Aspekte der realen Welt, die (noch) nicht virtuell erzeugt werden können: Geruch, Wärme Gefühl, Taktiles und Haptisches gibt es im Kino (noch) nicht.
Gammon: Sound kann ein Bild maßgeblich beeinflussen, mitunter sogar eine andere Bedeutung oder Aussage bewirken. Kannst du uns einige Beispiele nennen?
Karlheinz Essl: Nichts Konkretes, aber es ist eine Tatsache, dass im Film oder beim Fernsehen heute ohne Sound nicht mehr gearbeitet werden kann. Jeder Spielfilm, jeder Krimi besitzt eine Soundebene, die sehr stark mit Klischees arbeitet, um ganz bestimmte Emotionen hervorzurufen. Berüchtigt sind jene hohen, dissonanten Geigencluster, die schon seit Beginn des Tonfilms verwendet werden als Zeichen für Gefahr oder Angst. Damit kann man unheimlich leicht manipulieren.
Karlheinz Essl erzählt zuletzt von einer spontanen, im Redefluss entstehenden Idee für ein Kunstprojekt, nämlich Filmmusik nicht im herkömmlichen Sinn zu komponieren, sondern anhand von algorithmischen, oder (vom) Zufall gesteuerten Parametern, parallel und unabhängig zum Bild hinzuzufügen, um die veränderte Wirkung der Bild-Ton Kombination zu veranschaulichen. |
Home | Works | Sounds | Bibliography | Concerts |
Updated: 20 Jan 2022