Über die Zusammenhänge der Funktion von Live-Elektronik und ihres Realisationsverlaufs in zeitgenössischer Komposition

Volker Böhm
Elektronisches Studio der Hochschule für Musik Basel, 2001


Abstract

In der vorliegenden Arbeit soll anhand einer vergleichenden Analyse die Funktion der Live-Elektronik in zeitgenössischer Komposition auf die Zusammenhänge mit ihrem jeweiligen Entstehungsprozess, bei der Zusammenarbeit von Komponist und Audiodesigner untersucht werden.

Als Kompositionen wurden ausgesucht: „Enigma" von Mela Meierhans und „BendelSchlemihl" von Lucia Ronchetti, zwei Werke, bei deren Entstehung ich als Audiodesigner und Interpret bei der Uraufführung mitgewirkt habe.

 

Inhaltsverzeichnis

1. Einleitung
2. Die Arbeitsbereiche eines Audiodesigners in Bezug auf die Entwicklung und Realisierung der Elektronik in zeitgenössischer Komposition
3. Analysen
3.1. Werkanalyse: „Enigma" von Mela Meierhans
3.1.1 Das Zuspielband
3.1.2 Die Live-Elektronik

3.1.3 Die Zusammenhänge
von Live-Elektronik und Zuspielband
3.1.4 Entstehungsgeschichte/Realisationsprozess
3.2 Werkanalyse: „BendelSchlemihl" von Lucia Ronchetti
3.2.1 Das Zuspielband 3.2.2 Die Live-Elektronik
3.2.3 Entstehungsgeschichte/Realisationsprozess

4. Vergleich


5. Zusammenfassung


6. Quellen

 

 

1.Einleitung

Nach einem kurzen Ausblick über die Arbeitsbereiche eines Audiodesigners bei der Assistenz eines Komponisten, werden die ausgewählten Werke zunächst vorgestellt und analysiert, wobei der Schwerpunkt auf der Betrachtung der Live-Elektronik liegt. Anschließend schildere ich die Bedingungen, unter denen sich die jeweilige Entwicklung der live-elektronischen Teile der Kompositionen abspielte, insbesondere in Hinblick auf die gewählten Arbeitsmethoden, Vorgehensweisen und Verständigungssysteme.

In einem nächsten Kapitel wird es darum gehen die beiden Analysen zu vergleichen und die entscheidenden Unterschiede herauszuarbeiten.

In der abschließenden Zusammenfassung versuche ich die Frage zu beantworten, ob es zwischen der Funktion der Live-Elektronik in einer zeitgenössischen Komposition und ihrem Entwicklungs- bzw. Realisationsprozess, am Beispiel der Zusammenarbeit von Komponist und Audiodesigner, einen relevanten Zusammenhang gibt.

 

2. Die Arbeitsbereiche eines Audiodesigners in Bezug auf die Entwicklung und Realisierung der Elektronik in zeitgenössischer Komposition

Um die klanglichen und spieltechnischen Möglichkeiten eines bestimmten Instruments in einer neuen Komposition ausschöpfen zu können, stellt eine Zusammenarbeit von Komponist und Instrumentalist (oder zumindest die Beratung durch den Instrumentalisten) keine Ausnahme dar.

Durch die zunehmende Komplexität der Audiotechnik und das erforderliche umfangreiche, auch außermusikalische Hintergrundwissen, gilt dies im verstärkten Maße auch für die Entwicklung von Elektronischer Musik.

Schon seit den Anfängen der Elektronischen Musik gab es Tontechniker, die den Komponisten bei ihren Realisationen im Studio assistiert haben. Ihre Aufgaben waren jedoch anders gelagert als die eines Audiodesigners heute. Die frühe Elektronische Musik aus den 50er und 60er Jahren war fast ausschließlich Tonbandmusik, die vom Toningeneur ein rein operatives Wissen (handlungsorientiertes Wissen) forderte. Vor allem durch die Live-Elektronik und die rasananten Entwicklungen der Digitaltechnik in den 80er und 90er Jahren hat sich Elektronische Musik zu einem eigenständigen, sehr farbigen Medium entwickelt, das anderen Medien, wie z. B. der Video- oder Performancekunst, genauso nahe stehen kann, wie der zeitgenössischen Komposition.

Bei frühen Tonbandstücken (z.B. Studie II) liefert der Komponist quasi die abgesegnete Interpretation seines Stückes. Jede spätere Realisation anhand der in der Partitur genau festgehaltenen Anweisungen des Komponisten würde zweifelos eine deutliche Abweichung vom Originalband ergeben. Deshalb werden bei Aufführungen in der Regel nur Kopien des Originals verwendet und keine neuen Versionen hergestellt.

Mit dem Siegeszug des Personalcomputers auch durch die Arbeitszimmer der KomponistInnen in den 80ern wurde es wesentlich erschwinglicher sich ein eigenes Homestudio einzurichten. Das verschaffte vielen Künstlern die Möglichkeit ihre Ideen elektronisch selbst zu realisieren. Eine neue Generationen von Komponisten-Interpreten tat sich auf, Künstler, die ihre Musik selbstständig umsetzen und auf der Bühne etc. präsentieren.

Nicht nur das operative Wissen hat sich enorm vervielfacht - durch die neuen Möglichkeiten der Digitaltechnik ist in verstärktem Maße, neben dem rein theoretischen Wissen über die Wirkungsweisen und Funktionen der einzelnen Prozesse (z. B. Ringmodulation, Timestretching etc.), eine medientheoretische Auseinandersetzung erforderlich geworden, die sich mit der Hermeneutik der neuen Möglichkeiten beschäftigt. In vielen Fällen versagt die traditionelle Musiktheorie bei der Analyse von Elektronischer Musik, findet keine Begrifflichkeit für bestimmte Phänomene. Ein einfaches Delay beispielsweise ist nicht mit einer Wiederholung zu vergleichen, da es eine exakte Kopie dessen ist, was vorher war, und nicht ein nochmaliges Spielen einer bestimmten musikalischen Phrase. Im Sinne der Emanzipation der Elektronischen Musik zum eigenständigen Medium ist diese Auseinandersetzung über die Bedeutung der neuen Parameter und Möglichkeiten der Elektronischen Musik von großer Wichtigkeit.

Zu den theoretischen und praktischen Kenntnissen der verschiedensten elektronischen Manipulationsverfahren, der Aufnahmetechnik, der Akustik von Räumen und Instrumenten etc. gehört auch ein stilistisch ästhetisches Wissen. Immer wieder ziehen beispielsweise neue Bearbeitungsmethoden oder Programme ganze Schwämme von neuen Kompositionen nach sich, die sich mehr oder weniger oberflächlich mit der neuen Technologie auseinandersetzen. Als Mitte der 90er Jahre das IRCAM die vor allem unter KomponistInnen sehr beliebte Software „Audiosculpt" auf den Markt brachte, war es ausgesprochen Mode, sich, durch extremes Timestretching bearbeiteter Klänge - einer Besonderheit dieser Software - zu bedienen.

Die verschiedenen geschilderten Zusammenhänge und Wissensbereiche sind für Komponisten, die sich nicht regelmäßig mit Elektronischer Musik und den neuesten technischen Entwicklungen beschäftigen, schwer zu durchschauen und bedürfen der Beratung durch einen Audiodesigner.

 

 

3. Analysen

3.1. Werkanalyse: „Enigma", von Mela Meierhans

Das Werk ist eine Auftragskomposition für die „Tage für Live-Elektronik Basel" und wurde dort am 5. November 1999 durch das Ensemble Phoenix unter der Leitung von Jürg Henneberger uraufgeführt.

Die Besetzung ist: Oboe, Bassklarinette, Horn, Violine, Bratsche, Cello, Schlagzeug, Live-Elektronik und vierkanaliges Zuspielband.

„Enigma" entstand nach dem gleichnamigen Gedicht von Ingeborg Bachmann:

 

 

Enigma

für Hans Werner Henze aus der Zeit der ARIOSI

Nichts mehr wird kommen.

Frühling wird nicht mehr werden.

Tausendjährige Kalender sagen es jedem voraus.

Aber auch Sommer und weiterhin,

was so gute Namen

wie „sommerlich" hat -

es wird nichts mehr kommen.

Du sollst ja nicht weinen,

sagt eine Musik.

Sonst

sagt

niemand

etwas.


1967

Als eine mögliche, subjektive Deutung des Gedichts sieht die Komponistin einen Bezug zum Klagegesang, wie er in diversen traditionellen Kulturen noch praktiziert wird, herzustellen. Sie stützt sich bei dieser Annahme auf Aussagen Bachmanns und zitiert diese teilweise im Programmheft zur Uraufführung:

„Klage als Trost" oder wenn „Hoffnung nicht durch Freude sondern durch Klage ausgedrückt wird" ,

„Es wird ein Tag kommen.../ Kein Tag wird kommen/ Dennoch ist in der Kapitulation noch Hoffnung und diese Hoffnung wird nie aufhören" (aus Materialien zu "Malina" von I. Bachmann).

Die Komposition orientiert sich stark an der formellen Struktur des Gedichts. Dabei wurden für jede der 13 Zeilen 13 unterschiedliche musikalische Zustände komponiert, die jeweils auf eine Dauer von 60 Sekunden begrenzt sind. Die Gesamtdauer des Werkes beträgt jedoch 13 Minuten und 23 Sekunden. An verschiedenen Stellen mußte aus musikalischen Gründen von der strikten Einhaltung der Dauer von 60 Sekunden pro Abschnitt abgewichen werden, was schlußendlich zu einer Verlängerung der gesamten Komposition um 23 Sekunden führte.

 

 

3.1.1 Das Zuspielband

Die zeitliche Gesamtstruktur des Werkes ist durch das 4-kanalige Zuspielband fixiert, zu dem das instrumentale Geschehen vom Dirigenten synchronisiert werden muß. Die Pulsfrequenz ist weitgehend im Tempo Viertel = 60 gehalten, also in Sekunden, weicht aber an einigen Stellen einem langsameren Puls (Viertel = 40). Das Tonband wurde bei der Uraufführung von einem mehrkanaligen, digitalen ADAT-Band zugespielt, das vom Dirigenten selbst gestartet wurde, und ihm die Möglichkeit der visuellen Kontrolle des Timecodes zur zeitlichen Orientierung innerhalb des Stückes erlaubte.

Das vorbereitete Klangmaterial des Tonbands beinhaltet neben elektronisch bearbeiteten Fragmenten des Gedichts, vereinzelte, langgehaltene Liegetöne verschiedener Tonhöhen einer Frauenstimme, die zusammengenommen eine Art Cantus-Firmus-Melodie ergeben. Der Gedichttext und die Liegetöne wurden von der Mezzosopranistin Leslie Leon gesprochen bzw. gesungen und im Elektronischen Studio der Musikhochschule Basel aufgenommen.

Die Software, die für die elektronischen Veränderungen des gesprochenen Gedichts benutzt wurde, habe ich speziell für die Realisation dieses Werkes geschrieben. Es handelt sich dabei um eine Granulations-Software, die es erlaubt, aufgenommenes Klangmaterial in Echtzeit in winzige Klangpartikel, sog. Grains, zu zerbröseln und zeitlich neu zu kombinieren (siehe auch unten). Das Programm, sowie alle Software, die bei der Live-Elektronik zum Einsatz kam, wurde in der Programmierumgebung MAX/MSP von Cycling 74 geschrieben. Der Grundalgorithmus basiert auf einem Patch von Nobuyasu Sakodna, das ich in seiner Funktionalität leicht modifizierte und durch eine grafische Bedienoberfläche ergänzt habe.

Die elektronischen Manipulationen der rezitierten Gedichtzeilen nahm die Komponistin selbst vor. Nach eigener Aussage hat Mela dabei jeder Zeile einen ganz einfachen, außermusikalischen Ausdruck oder Charakter mitgeben wollen, wie z. B. Vogelflug, langsamer Zeitfluss, flirrende Hitze, elektrische Störung, Regen, Schluchzen etc.

Diese Bilder stellen quasi Assoziationen der Komponistin dar, die direkt inhaltlich, oder teilweise dem Wortlaut nach, dem Gedicht entnommen wurden.

Die melodische Abfolge der Liegetöne leitete Mela aus Zitaten aus Mahlers 3. Sinfonie, sowie den Altenberg Liedern von Alban Berg ab, auf die sich das Gedicht selbst ebenfalls bezieht („Nichts ist gekommen..." Altenberg Lieder, und „Du sollst ja nicht weinen,..." Mahlers 3. Sinfonie, 5. Satz).

 

 

3.1.2 Die Live-Elektronik

Bei den 13 Abschnitten, die sich aus den 13 Gedichtzeilen ergeben, übernimmt jeweils ein Instrument eine Art Führungs- oder Hauptstimme, die live-elektronisch verändert wird. Das Instrumentalsignal durchwandert dabei eine Kombination aus harmonischer Verzerrung durch Waveshaping, Frequencyshifting und ein Spektraldelay (s. u.). Die Einstellungen der Effekte für jedes Instrument, bzw. für jeden unterschiedlichen musikalischen Abschnitt, legten wir gemeinsam fest. Orientiert haben wir uns dabei wieder an den oben beschriebenen Bildern für jede Textzeile und an den klanglichen Möglichkeiten der Instrumente.

 

 

3.1.3 Die Zusammenhänge zwischen Instrumentalklang, Zuspielband und Live-Elektronik

Wie bereits geschildert besteht die Komposition aus 13 Abschnitten, die jeweils, mit kleinen Abweichungen, 60 Sekunden lang dauern. Die weitere zeitliche Untergliederung der einzelnen Abschnitte ist von der grafischen Aufteilung der Gedichtzeilen auf einem Blatt Papier abgeleitet worden. Setzt man die Dauer einer Zeile mit 60 Sekunden fest, ergibt sich ein Längenverhältnis aus geschriebenem Text und dem Leerraum bis zum Ende der Zeile, wie in Abb. 1 exemplarisch an den ersten zwei Gedichtzeilen dargestellt. Der Leerraum, der von der Komponistin als „Einheitselement Stille" bezeichnet wird, beträgt demzufolge in der ersten Zeile 23 Sekunden, der Textteil 37 Sekunden.

 

Abb. 1, Ableitung der zeitlichen Struktur aus der Anordnung der einzelnen Gedichtzeilen

 

Die sich auf diese Weise ergebenden Dauernverhältnisse werden als Orientierung für die Dauern und Abfolgen des elektronisch veränderten Gedichttextes, der Liegetöne und der live-elektronisch verfremdeten, instrumentalen Hauptstimmen eingesetzt. Ich spreche deshalb von einer „Orientierung", weil wir uns bei der Umsetzung der Dauernverhältnisse in der Partitur nicht sklavisch an die exakten Größenverhältnisse aus Text und Leerstellen gehalten haben, sondern vielmehr die grundsätzlichen Proportionen in einem fließenden Zusammenhang stellen wollten. Eine präzise Umsetzung der Verhältnisse ist wegen der beliebigen Text- und Papiergröße sowieso fragwürdig. Vielmehr war es das Ziel, die ursprüngliche Struktur aus Text und Stille des Gedichts quasi durch die Musik hindurchscheinen zu lassen.

Für die erste Gedichtzeile, resp. den ersten musikalischen Abschnitt, bedeutet das: die granulierte Sprechstimme vom Tonband beginnt in Takt 3 (in diesem ersten Abschnitt wurde das Wort „Nichts" der ersten Gedichtzeile bearbeitet), dauert 37 Sekunden und wird abgelöst durch eine Instrumentalstimme von 23 Sekunden Länge, gespielt vom Tam-Tam in Takt 10. Die gehaltenen Liegetöne der Singstimme bilden das Verbindungsstück zwischen diesen beiden Elementen, da sie meist zum Ende des Textteils beginnt und in den Anfang des live-elektronischen Teils hineinragt.

Die ersten drei Takte bilden eine Art Einleitung, die aus dramaturgischen Gründen nachträglich eingesetzt wurden. Die live-elektronisch transformierten Luftgeräusche des Horns stellen ein langsames Ein- und Ausatmen dar, das auch im weiteren Verlauf des Stückes an verschiedenen Stellen auftaucht und eine verbindende Funktion zwischen unterschiedlichen Teilen einnimmt. Das Geräusch könnte auch als das ruhige Atmen des/der Vortragenden zwischen den einzelnen Gedichtzeilen bezeichnet werden.

 

 

3.1.4 Entstehungsgeschichte/Realisationsprozess

Mela Meierhans ist eine Komponistin, die sich schon seit einigen Jahren mit Elektronischer Musik befaßt, bis dato jedoch noch nie mit Live-Elektronik gearbeitet hattte. In ihren bisherigen Werken hat sie bereits eine ausgeprägte Ästhetik im Umgang mit Elektronik entwickelt, die sich jedoch ausschließlich auf das Fertigen von Zuspielbändern bezog. Theoretisches Wissen über die Wirkungsweisen von Ringmodulatoren, Pitchshiftern etc. war nur oberflächlich, praktische Erfahrung gar nicht vorhanden.

Wir hatten vorher noch nie zusammen gearbeitet, kannten uns allerdings bereits aus dem Analysekurs von Thomas Kessler an der Musikhochschule Basel, über den auch der Kontakt für dieses Projekt zustande kam.

Zu Beginn der Zusammenarbeit stellte Mela mir ihr kompositorisches Konzept für diese Auftragsarbeit vor. In früheren Werken spielten häufig außermusikalische Vorlagen, beispielsweise aus der Literatur oder der Architektur, eine grundlegende Rolle in der Konzeption ihrer Kompositionen. Bei „Enigma" war es das gleichnamige Gedicht von Ingeborg Bachmann. So wie sie aus den einzelnen Zeilen, der Stimmung und dem Wortlaut des Gedichts die musikalische Strukturen und Inhalte ableitete, sollte auch die Elektronik sich direkt mit der literarischen Vorgabe, in diesem Fall besonders mit dem Titel, auseinandersetzen.

Enigma = Rätsel / Paradox / ein ungelöstes Problem

Aus der thematischen Beschäftigung mit der inhaltlichen Bedeutung des Rätsels stellte sich die Frage, wie ein Rätsel, ein ungelöstes Problem klanglich umzusetzen sei.

Mir kam dazu schließlich das Bild eines Puzzles in den Sinn - ein Haufen kleiner Teilchen, die, in der richtigen Art und Weise zusammengesetzt, ein Bild, eine Botschaft oder einen sonstigen Inhalt ergeben.

Klänge nach dem Vorbild des Puzzles zu zerteilen und zu neuen, rätselhaften Gebilden zusammenzusetzen, schien mir in Zusammenhang mit der literarischen Vorlage ein interessanter, lohnenswerter Ansatz zu sein.

Ich plante zwei verschiedene Klangbearbeitungsverfahren miteinander zu kombinieren, um meine Vorstellung eines Klangpuzzles softwaremäßig umzusetzen. Für das zeitliche Zergliedern bot sich Granular-Synthese an, und um Zugriff auf die einzelnen Frequenzbänder eines Klanges zu haben, wollte ich zusätzlich mit DFFTs arbeiten (Discrete Fast Fourier Transform). Ich erhoffte mir davon, wie in einer Matrix, einen direkten Zugang zu den einzelnen Klangwürfelchen zu haben (Abb. 2).

Abb. 2, oben: Sonagramm einer Geigenpassage; unten: grafisch angedeutete Klangwürfel,

die durch Zerteilung der Zeit- sowie der Frequenzebene entstehen

 

Mela zeigte sich interessiert an diesen Ideen. Mein Vorhaben, die beiden Prozesse in einer Realtime-Application für den live-elektronischen Einsatz zuammenzufassen, scheiterte jedoch am eng begrenzten Zeitlimit für die Entwicklung einer solch umfangreichen Software, bzw. an meinen beschränkten Programmierkenntnissen.

Wir entschlossen uns, die beiden Programme unabhängig voneinander für verschiedene Prozesse einzusetzen. Das Granular-Synthese-Patch benutzten wir, um die Gedichtfragmente in ihrer zeitlichen Struktur zu dekonstruieren. Diese Arbeiten wurden im Studio vorgenommen, mit den unbearbeiteten Gesangstönen der Mezzosopranistin auf einem ProTools-System geschnitten und 4-kanalig arrangiert und anschließend digital auf ein ADAT-Band überspielt.

Das Programm, das für die live-elektronischen Bearbeitungen bestimmt war, erlaubt durch die DFFT Zugriff auf den spektralen Gehalt und Verlauf eines Klanges, durch einen Algorithmus, den ich als „Spektraldelay" bezeichnen möchte, und ermöglicht so das Zerschneiden der Instrumentalklänge in einzelne Frequenzbänder. Eine genaue Beschreibung dieses Verfahrens befindet sich in der ebenfalls eingereichten Dokumentation des DSP-Projektes „Spektralverzögerer" meines Diploms. Die oben bereits erwähnten Erweiterungen durch Waveshaping und Frequencyshifting dienen zur Anreicherung des Frequenzspektrums der Eingangssignale durch harmonische, sowohl als auch inharmonische Teiltöne.

Wir arbeiteten zunächst an Prototypen der Programme, um einen Eindruck von der Klanglichkeit und den Kontrollmöglichkeiten zu bekommen. Das Schreiben der endgültigen Software braucht Zeit. Vor allem für die Entwicklung des Spektraldelays mußte viel experimentiert und ausprobiert werden.

Was die Arbeit an der Live-Elektronik jedoch sehr erschwerte, war das Fehlen von Live-Input. Wir suchten Samples der Instrumente die wir brauchten aus verschiedenen Klangarchiven zusammen. Die Klangfarbe ist aber nur ein Punkt. Wie ein live-elektronischer Effekt wirkt, hängt oftmals entscheidend vom gespielten Gestus ab.

Aus diesem Grund ist es unbedingt notwendig, das Spiel des Musikers auf den gewünschten Live-Elektronischen Effekt abzustimmen. Für Mela als Komponistin stellte es dabei kein Problem dar, die Noten für die Instrumente im Zusammenhang mit der Live-Elektronik quasi genauso als einen Parameter zu sehen, der „eingestellt" und mit dem experimentiert werden muß, wie z. B. die Delayzeit eines Frequenzbandes oder die Grain-Size etc., um die entsprechenden Klangresultate zu erzielen.

Wir hatten im späteren Verlauf der Arbeit die Möglichkeit einige befreundete Instrumentalisten ins Studio einzuladen, um unsere bis dahin erarbeiteten Programme und Einstellungen etc. zu überprüfen, bzw. mit den Spielern und ihren Instrumenten verschiedene Spieltechniken und Mikrophonierungen auszuprobieren. Wir kamen zum Schluß, daß die meisten Instrumente doppelt mikrophoniert werden müssen, da einige der angestrebten live-elektronischen Effekte Mikrophonpositionen erforderten, die für eine normale Verstärkung des Instruments völlig ungeeignet sind. Um beispielsweise das tiefe, rauschige Atmen des Horns zu Anfang des Stückes erzeugen zu können, benutzten wir ein Minikapsel-Kondesatormikrophon von Sanken, das wir in den Schalltrichter des Horn klebten, um so das Luftgeräusch des Spielers möglichst dicht abzunehmen. Für eine leichte Verstärkung, um den Instrumentalklang mit der übrigen Elektronik besser mischen zu können, brauchten wir jedoch zusätzlich ein Nierenmikrophon auf einem Stativ, in etwa 20 bis 30 cm Entfernung zum Schalltrichter.

Einen Schlagzeuger fanden wir in dieser Phase leider nicht, hatten jedoch die Möglichkeit einige Instrumente von der Musikhochschule auszuleihen und die Klänge selbst zu probieren. An einer bestimmten Stelle der Komposition wollte Mela eine Art Donnern eines Gewitters durch die große Trommel mit Hilfe der Live-Elektronik immitieren. Wir stellten nach langen Versuchen fest, daß der Effekt am besten funktioniert, wenn der Spieler selbst die Entfernung des Mikrophons zum Fell regulieren kann. Zunächst mußte das Mikrophon ca. 30 cm vom Instrument entfernt gehalten werden, um es unmittelbar nach dem Anschlagen des Fells, sehr dicht an den Rand der nachschwingenden Membran zu führen. Diese Art mit den Instrumentalisten zu experimentieren, ist in der begrenzten Probenphase des Ensembles (normalserweise maximal bestehend aus Leseprobe, Haupt- und Generalprobe) aus Zeitgründen natürlich nicht möglich. Um so wichtiger waren diese Proben für uns in dieser Phase. Nach der langen Zeit im Studio, der Arbeit an theoretischen Modellen, Strukturen und Einstellungen und der Unsicherheit über die praktischen Reslutate, herauszufinden, daß die meisten der geplanten Effekte und Klänge tatsächlich funktionieren, stellte eine große Erleichterung für uns dar. Es kam zeitweise sogar eine gewisse Euphorie auf, den Spaß an der Lebendigkeit der gespielten Klänge zu spüren, und nicht ständig mit starren Samples, die immer gleich tönen, arbeiten zu müssen.

Bei der Studioarbeit an der Vobereitung des Zuspielbandes kam es ebenfalls zu einer kritischen Phase. Das Granulationsprogramm war fertig gestellt, und nach zahlreichen Versuchen mit verschiedenen Einstellungen der Software und unterschiedlichen Gedichtfragmenten wurde es Zeit, Entscheidungen darüber zu treffen, welche Klänge und Parameter fixiert werden konnten und welche noch verändert werden mußten.

Bei Mela schien eine gewisse Unzufriedenheit aufzukommen, daß sie die Klänge nicht wirklich selbst „anfassen" und verändern konnte, wie sie es von ihrer sonstigen Arbeit als Komponistin mit Instrumentalisten gewohnt war. Gleichzeitig fühlte sie sich bei der Arbeit an Computern relativ unwohl und hatte vor allem großen Respekt vor der Komplexität des Programms und der Programmierumgebung MAX/MSP.

In der Regel stellt es grade bei komplizierteren Programmen einen verhältnismäßig großen Zeitaufwand dar, das Benutzerinterface so zu gestallten, daß Personen, die nicht direkt mit der Materie vertraut sind, sich problemlos zurecht finden können. Alle Parameter und sonstigen Eingabefelder müssen sorgfältig auf ihre Wertebereiche untersucht werden, die eine absturzfreie Funktion des Programms sicher stellen, und die gesamte Benutzerführung muß mehr oder weniger selbsterklärend sein.

Um die letzendlich gültige Auswahl der Granulationsklänge zu finden, war es jedoch notwendig, daß Mela sich mit der Materie und den Möglichkeiten der Software, sowie deren Begrenzungen selbstständig auseinandersetzen konnte. Aus diesem Grund erarbeiteten wir ein spezielles Userinterface für die Granulationssoftware, dessen grafisch orientierte Oberfläche für Mela einen intuitiven, spielerischen Zugang ermöglichen sollte. Abb. 3 zeigt einen Ausschnitt dieser Oberfläche.

Abb. 3, Ausschnitt aus der grafische Bedienoberfläche der Granulationssoftware für „Enigma"

 

Ein ähnliches grafisches Interface wurde für Teile der Live-Elektronik-Software entworfen (Abb. 4).

Abb. 4, Ausschnitt aus der Oberfläche der Live-Elektronik-Software von „Enigma"

 

Die Erfahrungen, die Mela beim selbstständigen Ausprobieren der Software machte, hatten einen sehr positiven Einfluß auf unsere weitere Kommunikation beim Suchen der richtigen Klänge. Es entwickelte sich eine Art Sprache mit eigenen Kodewörtern, die bestimmte Vorgänge oder Abläufe beschrieben und für uns beide verständlich machten.

 

 

3.2 Werkanalyse: „BendelSchlemihl", von Lucia Ronchetti

„BendelSchlemihl" ist eine Komposition für Akkordeon solo, Live-Elektronik und 4-kanaliges Zuspielband, und stützt sich auf das gleichnamige Skript für zwei Stimmen des südafrikanischen Autors Ivan Vladislavic. Die Realisation eines zusätzlichen Videoteils, konnte aus Budgetgründen nicht zu Ende geführt werden, bzw. wurde auf einen unbekannten Zeitpunkt verschoben. Die Uraufführung fand am 16. Mai 2001 im Guibal-Saal auf Schloß Solitude bei Stuttgart statt, mit dem Akkordeon-Solisten Teodoro Anzellotti.

„BendelSchlemihl", von der Komponistin in der Entstehungsphase einmal als „Straßenoper" bezeichnet, verarbeitet Vladislavics Skript, das seinerseits eine Adaption von Adelbert von Chamissos „Peter Schlemihls wundersame Geshichte" darstellt, in einer musitheatralischen Fassung. Es werden darin, in einer vergleichenden Erzählung, zwei sehr verschiedene, aber strukturell eng miteinander verwobene Geschichten kombiniert. Es sind dies die eher phantastische, märchenhafte Geschichte eines jungen Europäers am Anfang des 19. Jahrhunderts, der mit seinen magischen Stiefeln die Welt durchschreitet, sowie die Geschichte eines alten Afrikaners, der Ende des 20. Jahrhunderts in den Straßen von Johannesburg lebt.

Die gesamte Komposition orientiert sich an der Struktur des Skripts, das in zwölf Teile gegliedert ist:

Prologue

1. The first lie

2. Service

3. The imperial harvest

4. The second lie

5. I sat down and wept

6. History

7. Equipment

8. Stories

9. Fever

10. The third lie

11. Home

 

Während des Prologes wird durch das Akkordeon ein einfaches, langgezogenes, lyrisches Melodiethema vorgestellt, auf das, in leicht veränderter Weise, in anderen Teilen, bzw. zur Verbindung verschiedener Abschnitte, zurückgegriffen wird und so die gesamte Komposition wie ein Leitfaden durchzieht. Das Thema beginnt mit dem Ton d‘‘ und endet mit a‘‘ - zwei Töne, die traditionell in einem Tonika/Dominant-Verhältnis zueinander stehen. In den folgenden Abschnitten „Service" und „The imperial harvest" - „The first lie" bleibt unvertont - wird zunächst a‘‘ durch schnelle, repetitive Figuren mit gelegentlich eingestreuten chromatischen Nebentönen, und anschließend d‘‘, in ähnlicher Weise, als Zentraltöne gefestigt. Erst gegen Ende von „The imperial harvest" wird der Tonraum des Instruments allmählich durch schnelle Arpeggien ausgeweitet. Die beiden Teile werden durch eine Variation des Anfangsthemas miteinander verknüpft, das auch als Überleitung zu „I sat down and wept" dient - der Text von „The second lie" bleibt dabei wieder unvertont.

In „I sat down and wept" bestimmen schnelle Arpeggien und weit auseinanderklaffende Akkorde, die jetzt den gesamten Tonraum des Instruments abdecken, das musikalische Geschehen. „Equipment" stellt einen sehr freien, fast improvisierten Teil, mit tiefen, unterschiedlich akzentuierten Clustern und Crescendi dar, durch den die anfängliche kompositorische Strenge des Stückes endgültig verlassen wird.

„Fever" beschreibt ein furioses Finale mit schnellen, repetitiven Akkordfolgen, weiten Sprüngen und wilden Arpeggien, aus denen immer wieder das langgezogene a‘‘‘ heraussticht, wodurch die Komposition andeutungsweise zu ihrer klassischen Bauform zurückkehrt.

In „Home" greift die Komponistin In weichen, sehr leisen Akkorden, deren Tonmaterial sich aus dem Anfangsthema ableitet, die Ausgangsstimmung wieder auf. Kurioserweise ist aus dem ursprünglichen d nun ein des geworden, mit dem das Stück in der viergestrichenen Oktave leise verklingt.

 

 

3.2.1 Das Zuspielband

Die Texte wurden von einem schwarzen, sowie einem weißen südafrikanischen Schauspieler in Englisch gesprochen und in Johannesburg aufgenommen. Diese Aufnahmen stellen das Grundgerüst der gesamten Komposition dar und wurden gemeinsam mit einigen elektronisch transformierten Akkordeonklängen auf einem 4-kanaligen Zuspielband arrangiert.

Bei den elektronischen Klängen handelt es sich um kurze Akkordeon-Samples, die mit verschiedenen Algorithmen bearbeitet wurden, welche später auch in der Live-Elektronik zum Einsatz kamen und speziell für diese Komposition entwickelt wurden. Diese Klänge sind während unserer ersten gemeinsamen Arbeitsphase, im Sommer 2000, im Elektronischen Studio der Musikhochschule Basel entstanden.

Das Zuspielband ist sehr dicht strukturiert, wobei der Text einen großteil des Raumes einnimmt. Die Gesamtdauer des Werkes beträgt 24 Minuten, wovon nur ca.10 % völlig ohne Text sind.

 

 

3.2.2 Die Live-Elektronik

Die live-elektronischen Teile verfließen sehr stark mit dem vorbereiteten Klangmaterial des Tonbandes, da es sich, wie bereits erwähnt, um ähnliche Algorithmen der Klangbearbeitung handelt. Nur an wenigen Stellen offenbart sich eine direkte Verbindung mit dem Spiel des Instrumentalisten.

Die Elektronik ist von clusterartigen, rauschähnlichen Klängen unbestimmter Herkunft geprägt, die immer wieder Töne des Akkordeons verlängern, bzw. übernehmen zu scheinen, oder diese durch unterschiedliche Kopien überlagern und zu komplexen Strukturen anreichern. Die Klanglichkeit der Elektronik steht dabei dem sehr klaren, konkreten Klang des Akkordeons diametral gegenüber.

Jeder Teil der Komposition wird durch einen anderen Algorithmus transformiert, die jedoch untereinander ähnlich aufgebaut sind. Zum Einsatz kommen Granular-Synthese, Live-Sampling, sowie verschiedene Delay-Algorithmen, die das Akkordeonsignal vielschichtig überlagern, bzw. für Resonator-Effekte benutzt werden. Alle Programme wurden in der Programmierumgebung MAX/MSP geschrieben, die durch eine einzigartige Flexibilität und Geschwindigkeit beim Erstellen, bzw. Ändern von Algorithmen zur Klangtransformation in Echtzeit, ein ideales Werkzeug für die Live-Elektronik darstellt.

Der Instrumentalklang des Akkordeons, soll mit Hilfe der Live-Elektronik den dramatischen Verlauf der gesprochenen Geschichte nachzeichnen, ohne dabei klischeehaft einzelne Aussagen des Textes aufzugreifen und klanglich nachzuahmen, sondern vielmehr eine parallele, mit der textlichen Vorlage jedoch eng verbundene Geschichte erzählen. Die einzelnen Abschnitte der Komposition beginnen zumeist mit dem unbearbeiteten Akkordeonklang, der allmählich mit dem sich leicht verändernden, prozessierten Klang der Elektronik überblendet wird.

Die durchgängig sehr hohe Informationsdichte der gesamten Komposition stellt ein nicht zu unterschätzendes Problem dar. Allein das Verfolgen des Textes verlangt, wegen seiner verschachtelten Bauform, poetischen Sprache und seinem komplexen Inhalt, ein hohes Maß an Konzentration. Dadruch entsteht eher eine Art konzertantes Hörspiel, in dem die Musik eine untergeordnete Rolle spielt, als, wie von der Komponistin ursprünglich geplant, ein Musiktheater - ganz abgesehen vom Fehlen jeglicher theatralischer Aktionen.

 

 

3.2.3 Entstehungsgeschichte/Realisationsprozess

Der Kontakt zwischen Lucia Ronchetti und mir kam über Thomas Kessler, den damaligen Leiter des Elektronischen Studios, im Sommer 2000 zustande und war ursprünglich für eine Zusammenarbeit von zwei Wochen im September des gleichen Jahres geplant. Es folgte ein weiteres, kurzes Treffen, um Aufnahmen mit dem Akkordeonisten Teodoro Anzellotti zu machen und eine Intensivprobenphase von 6 Tagen im Mai diesen Jahres, kurz vor der Uraufführung.

Bei unserem ersten Zusammentreffen im September 2000 zeigte mir Lucia einige Ausschnitte aus der Partitur und schilderte mir ihre klangliche Vorstellung des Stückes. Die Live-Elektronik sollte dabei zwar mehr oder weniger durchgängig vorhanden sein, jedoch eine sehr unauffällige Rolle spielen, die eher eine farbliche Erweiterung des Instrumentalklangs darstellt.

Während Lucia auf dem ProTools-System des Studios am Zuspielband arbeitete, entwarf ich einige kleine Programme für die live-elektronische Realisation des Stückes und versuchte dabei den verbalen Klangbeschreibungen Lucias nachzukommen. Zur Verfügung standen mir hierbei einige kurze Akkordeon-Samples von Skizzen aus Lucias Notenmaterial.

In gemeinsamen Sitzungen versuchte ich anschließend meine Programmentwürfe technisch zu erklären, und auch warum ich diesen oder jenen Effekt einsetzen wollte.

Lucia hatte noch nie mit Live-Elektronik gearbeitet und Vorstellungen von den Möglichkeiten bzw. Begrenzungen dieses Mediums waren nur sehr vage vorhanden.

Ihre Vorgehensweise für die Realisation der Elektronik bestand darin, schon mit den Klängen des Zuspielbandes möglichst nah an ihre klangliche Vorstellung der gesamten Elektronik heranzukommen. Sie setzte bei ihrer Arbeit an der ProTools-Session weitgehend Klangmaterial ein, das wir beim Ausprobieren der Live-Elektronik-Patches mit den Akkordeon-Samples generierten, und einige Soundfiles, die sie auf ihrer Festplatte mitgebracht hatte. Sie wollte diese Klänge erst allmählich aus der Tonbandkomposition herausnehmen, wenn sich abzeichnete, daß die Live-Elektronik die gewünschten Klänge angemessen reproduzieren kann.

Indes zeigte sich, daß Lucias Umgang mit Live-Elektronik stark von einer Vorgehensweise, die sie im Laufe ihrer Arbeit an verschiedenen Tonbandkompositionen entwickelt hat, geprägt ist. Sie beraumte jedem Effekt eine extrem kurze Zeitdauer an und plante, wie mit einer copy&paiste-Funktion, in dichter Abfolge verschiedenste Algorithmen sich gegenseitig abwechseln, bzw. überblenden zu lassen.

Nach den zwei Wochen im September, hatten wir schließlich eine große Anzahl Patches ausgewählt, die für die Live-Elektronik in Frage kommen könnten.

Meine Aufgabe bestand in der Folgezeit darin, diese kleinen Programme zu einer großen Software zu kombinieren, die eine Art modularen Klangbaukasten darstellen sollte, um bei der Intensivprobenphase, bei der es um eine endgültige Fixierung der Effekte und ihrer Einstellungen ging, möglichst flexibel reagieren zu können. Ich machte Lucia jedoch darauf aufmerksam, daß eine so komplizierte Abfolge von verschiedenen Algorithmen, die alle die Rechenleistung des Computers recht stark in Anspruch nehmen, sehr schwierig zu realisieren sei und unter Umständen eine beliebige Kombination der Effekte nicht in Frage kommen würde.

Ich entschied mich mit einem sog. b-patcher-System zu arbeiten. Von einem Host-Programm, das während des Konzerts im Arbeitsspeicher bleibt, und quasi den Rahmen der Software darstellt, werden die einzelnen Unterprogramme (Subpatches) mit den gespeicherten Einstellungen aufgerufen und automatisch in den Signalfluß integriert. Auf der Oberfläche erscheinen nur die zur Kontrolle der Klänge ausgewählten Bedienelemente. Wird ein Effekt nur zu einem bestimmten Zeitpunkt eingesetzt, kann er im entsprechenden Moment geladen, und, nach dem Gebrauch, aus dem Signalfluß wieder entfernt werden, um die CPU des Rechners zu entlasten, ohne daß das gesamte Programm neugestartet werden muß. Alle Fader-Bewegungen könne über eine MIDI-Fader-Bank kontrolliert werden, um nicht auf die Eingabe per Maus angewiesen zu sein. Einen Ausschnitt aus der Bedienoberfläche des Programms zeigt Abb. 4.

Abb. 4, Ausschnitt aus der modularen Oberflächedes Live-Elektronik-Patches für Ronchettis „BendelSchlemihl"

 

Bei der Intensivprobenphase auf Schloß Solitude bei Stuttgart arbeiteten wir zunächst mit der Aufnahme des Akkordeonparts, die wir Anfang diesen Jahres in Basel gemacht hatten, da der Solist erst zwei Tage vor der Uraufführung anreisen konnte. Mit der neuen Akkordeonaufnahme und der veränderten akustischen Situation - wir konnten bereits im Saal, wo später die Aufführung stattfinden sollte, proben - schienen die meisten der Algorithmen und Einstellungen, die wir in Basel gemacht hatten, nicht mehr für die Komposition geeignet zu sein. Dadurch vereinfachte sich das live-elektronische Programm erheblich.

Die Auswahl der letzendlich gültigen Effekte und Einstellungen gestaltete sich jedoch recht mühsam. Lucia wußte sehr genau, was sie nicht hören wollte, ich hatte aber große Probleme anhand ihrer Beschreibungen die Klänge zu finden, die sie sich wünschte. Einige Teile der jetzt ganz fertiggestellten Partitur, oder z. T. auch nur einzelne Töne einer Passage, wollten nicht in den zugedachten Effekt passen. Nach vielen ergebnislosen Versuchen ließen wir schließlich die Aufnahme des Akkordeonparts laufen, und ich „improvisierte" mit den verschiedenen Subpatches und deren Parametern, um für die noch fehlenden Teile Ergänzungen, bzw. Verbesserungen zu finden. Lucia unterbrach mich, sobald sie etwas zu ihrer Klangvorstellung Passendes darunter entdeckte.

Bei einer anderen Passage mußten wir allerdings versuchen, die störenden Einzeltöne mit dem Inputfader manuell auszufiltern, und bei „Service" sahen wir keine andere Möglichkeit, als das Notenmaterial abzuändern, um zu einer befriedigenden Lösung mit dem Klang der Live-Elektronik zu kommen.

Die Synchronisation von Zuspielband und Live-Spiel wurde über eine Stopuhr, die dem Solisten zur Verfügung stand, gelöst und funktionierte problemlos.

Die Uraufführung stieß auf eine sehr polarisierte Publikumsreaktion. Während einige sich durch die sehr hohe Informationsdichte und den unverständlichen Zusammenhang von Tonband und Instrumentalspiel gestört sahen, lobten andere Zuhörer die klangliche Vielfalt und den dramatischen Verlauf der Komposition.

 

 

 

4. Vergleich

In der folgenden Gegenüberstellung der Analyseergebnisse finden alle äußeren Einflüsse und Begrenzungen - wie z. B. unterschiedliche zeitliche, wie finanzielle Einschränkungen - keine Berücksichtigung, da dies situationsabhängige Parameter sind, die sich zudem oftmals schwer beeinflussen lassen.

Sowohl „Enigma" also auch „BendelSchlemihl" entstanden nach einer literarischen Vorlage, und beide sind durch die Benutzung eines Zuspielbandes zeitlich fixiert. Für beide Komponistinnen war es das erste Werk, das live-elektronische Teile enthält, beide hatten aber bereits Tonbandmusik produziert. Was die theoretischen Vorkenntnisse der Elektronischen Musik betrifft, hatten sowohl Mela als auch Lucia wenig Erfahrung. Eine vergleichende Analyse stützt sich also auf relativ gleichwertige Voraussetzungen für jede Komposition.

Im Bezug auf die jeweilige Zusammenarbeit an den live-elektronischen Teilen und die Funktion der Elektronik in der Komposition, sind jedoch einige Unterschiede festzustellen.

Bei der Zusammenarbeit mit Mela wurde die Entwicklung der Live-Elektronik mit ins Konzept der Komposition einbezogen und verlief von Anfang an parallel zum restlichen Kompositionsvorgang, während die Elektronik bei „BendelSchlemihl" weitgehend unabhängig von der instrumentalen Komposition entstand und primär die Augabe hatte, die Instrumentalstimme, bzw. die gesamte Komposition um eine klangliche Ebene zu erweitern.

Durch die Analyseseminare bei Thomas Kessler kannte Mela bereits das Elektronische Studio in Basel, wo ihre Komposition weitgehend realisiert wurde, und war mit dem Umfeld, der Arbeitssituation und den Vorgehensweisen im Studio mehr oder weniger vertraut. Wir haben uns als Arbeitspartner quasi gegenseitig aussuchen können. Mit Lucia kam der Kontakt allein über die Vermittlung durch Thomas Kessler zustande. Wir kannten uns vor Arbeitsbeginn noch nicht und wußten auch nichts über die Arbeitsweisen, bzw. ästhetischen Ansichten des anderen.

Die Funktion der Live-Elektronik bei „Enigma" bestand darin, die jeweilige Hauptstimme einer Passage klanglich zu erweitern und im Sinne eines Metainstruments aus der Gruppe der restlichen Instrumente hervorzuheben. Die Partitur wurde unter Rücksichtnahme auf die live-elektronischen Erfordernissen geschrieben und entwickelte sich parallel zur gesamten Arbeitsphase im Studio. So konnten die elektronischen Effekte sehr genau mit dem instrumentalen Spiel der Musiker koordiniert und verknüpft werden.

Lucia schrieb ihre Partitur unabhängig von der Entwicklung der Live-Elektronik, und wir versuchten die richtigen Einstellungen und Effekte anhand des bereits vorhandenen Notenmaterials zu finden. Die Live-Elektronik hatte zwar ursprünglich ebenfalls die Aufgabe, das Soloinstrument klanglich zu erweitern, wurde jedoch im Grunde eingesetzt, um die Komposition durch zusätzliche farbliche Nuancen leicht zu variieren, die nicht primär mit dem Klang des Akkordeons verbunden sind.

Eine klangliche, sowie gestische Verknüpfung mit dem Spiel des Solisten ergab sich nur an vereinzelten Stellen.

 

 

 

5. Zusammenfassung

Das Aussuchen des Arbeitspartners stellt nur bedingt einen wichtigen Aspekt in der Zusammenarbeit zwischen Komponist und Audiodesigner dar. Soll die Arbeit des Audiodesigners einen gewissen ästhetischen, konzeptionellen o. ä. Einfluß auf die Komposition nehmen, also über ein rein operationales Handeln hinausgehen, ist es von Vorteil, wenn beide Parteien schon im Vorfeld einer möglichen Zusammenarbeit abschätzen können, ob die musikalisch-ästhetischen Ansichten in die gleiche Richtung tendieren. Kennen sich die Arbeitspartner vorher nicht, können trotzdem für beide Seiten sehr interessante Ergebnisse aus der Zusammenarbeit entstehen.

Entscheidend über den erfolgreichen Verlauf einer Kooperation ist jedoch, wie die Anlage der Zusammenarbeit gestaltet wird, welche Fähigkeiten vom Arbeitspartner eingefordert und welche Möglichkeiten dabei ausgelotet werden.

Bei Mela wurde auf Grund eines definierten Konzepts ein Verständigungssystem aufgebaut, eine eigene Sprache, auf deren Basis wir über die klanglichen Vorstellungen Melas kommunizieren konnten. Diese Kommunikation erfolgte dabei weniger über den Klang an sich, sondern vielmehr über die Klangerzeugung.

Bei Lucia versuchten wir uns direkt über die gewünschte Klanglichkeit zu verständigen. Dabei waren wir jedoch auf die rein verbale Beschreibung von abstrakten Klängen angewiesen, da sich ein anderes Kommunikationssystem, aufgrund des Fehlens eines klaren Konzepts für die Elektronik, nicht entwickeln konnte.

Auch in außermusikalischen Zusammenhängen ist ein gemeinsamer Erfahrungshintergrund beider Parteien Vorraussetzung für den Aufbau einer funktionierenden Kommunikationsebene.

Mela erlangte Erfahrungen in Bezug auf die eingesetzte Live-Elektronik in ihrem Stück durch eigenständiges Ausprobieren der Software. Sie kam zu einer eigenen Vorstellung von den Möglichkeiten und Begrenztheiten des Programms, ohne dabei die theoretischen und physikalischen Prozesse der Klangtransformation genau verstehen zu müssen. Für mich war es dagegen wichtig, daß Mela mich möglichst genau in ihr kompositorisches Konzept einweihte, um zu verstehen, worauf es ihr ankam, und mir somit Zugang zu ihrem Vokabular zu ermöglichen.

Bei der Zusammenarbeit mit Lucia fehlte die Schnittmenge der gemeinsamen Erfahrungen weitgehend. Auch nach mehrfachen (technischen) Erklärungsversuchen der Algorithmen, die wir in „BendelSchlemihl" benutzten, kam es immer wieder zu Mißverständnissen und Irritationen darüber, welche Funktionsweise, welche Möglichkeiten etc. die einzelnen Subpatches haben. Ebenso gelang es mir bis zum Schluß unserer Zusammenarbeit kaum, anhand Lucias Beschreibungen, die Klänge zu finden, die ihrer Vorstellung entsprachen. Ich konnte mir kein Bild von ihrem Bewertungssystem machen, aufgrund dessen sie ihre Klänge auswählte.

Das Überstülpen der Live-Elektronik über den bereits auskomponierten Instrumentalpart, ohne konzptionelle Einbindung in die Kompostion, stellte sich als sehr problematisch für den gesamten Realisationsverlauf heraus.

Für das Aufbauen eines Kommunikationssystems im Arbeitsprozess zwischen Komponist und Audiodesigner stellt also das Einbeziehen des Arbeitspartners in die eigene Materie einen entscheidenden Punkt dar. Es muß ein eigenes Vokabular auf dem Hintergrund gemeinsamer Erfahrungen angelegt werden. Um überhaupt Schnittmengen zwischen den verschiedenen Bereichen bilden zu können, sollte die Funktion oder die Bedeutung der Live-Elektronik konzeptionell mit der restlichen Komposition verbunden sein.

Aus den vorgelegten Analyseergebnissen kann und soll natürlich keine musikalische Wertung der Kompositionen abgeleitet werden. Ob ein Werk gelungen ist oder nicht, hängt von sehr vielen verschiedenen Faktoren ab, und ist schlußendlich immer eine subjektive Betrachtung. Ebenso setzen sich die Zuhörer im Konzert in der Regel nicht mit dem Entstehungsprozess der Komposition auseinander, sondern sind hauptsächlich am klanglichen Resultat des Werkes interessiert.

Rückschlüsse auf die Auslotung des Potentials der Live-Elektronik sind indes möglich.

Die Funktion der Live-Elektronik bei „BendelSchlemihl" ist der eines Tonbandes viel näher, als der Funktion der Live-Elektronik im eigentlichen Sinne. Die Klanglichkeit ist sehr ähnlich wie die des vorbereiteten Zuspielbandes, weil die Effekte aus dem gleichen Ausgangsmaterial entstanden sind (Akkordeon-Samples) und größtenteils aus ähnlichen Algorithmen der Klangtransformation generiert wurden. Zudem gestaltet sich das Spiel des Instrumentalisten weitgehend unabhängig vom Verlauf der Klänge der Live-Elektronik. Es gibt kaum einen zwingenden Zusammenhang zwischen instrumentaler Aktion und elektronischer Reaktion, der den Live-Einsatz der Elektronik plausibel und notwendig machen würde. Außerdem suchte und bewertete Lucia die live-elektronischen Klänge allein am klingenden Ergebnis des Lautsprechers. Die Tatsache, daß es sich um live prozessiertes Klangmaterial handelt, spielte bei der Komposition (konzeptionell) keine Rolle. Das Design der Live-Elektronik erforderte allein ein handlungsorientiertes und theoretisches Wissen, wobei die Bedeutung (im hermeneutischen Sinn) der verwendeten Algorithmen zur Klangtransformation nicht thematisiert oder in sonstiger Form mit der restlichen Komposition verbunden wurde.

Ich bin der Ansicht, daß eine Umsetzung der gesamten Elektronik als Zuspielband zu genaueren, effektiveren Ergebnissen geführt und der kompositorischen Idee besser entsprochen hätte. Die zeitliche Fixierung durch das Tonband ist wegen der Orientierung an der zeitlichen Struktur des Textes sowieso gegeben und stellte bei der Realisierung der Komposition kein Problem dar.

Hingegen kann die Funktion der Live-Elektronik bei „Enigma" nicht ohne weiteres durch das Zuspielband ersetzt werden. Die Aufgabe, einzelne Instrumente aus der Gruppe durch Erweiterung des Instrumentalklanges auf elektronischem Weg hervorzuheben, macht das Generieren des „Metaklanges" in Echtzeit erforderlich. Die Effekte sind eng mit dem Spiel der Musiker verbunden, und die musikalische Ausdruckskraft des Solisten spiegelt sich im live-elektronischen Klang wieder, bzw. wird durch diesen noch ergänzt.

Im gleichen Maße, wie das Ausloten der klanglichen und spieltechnischen Möglichkeiten akustischer Instrumente für die Entwicklung der Neuen Musik erforderlich und selbstverständlich ist, stellt das Ausloten des Potentials der Elektronik - und in diesem Fall besonders der Live-Elektronik - einen wichtigen Beitrag zur Entwicklung der Elektronischen Musik zu einem eigenständigen Medium dar. Dabei spielt das Arbeitsverhältnis von Komponist und Audiodesigner eine nicht zu unterschätzende Rolle, da sich aus dem Ansatz der Zusammenarbeit, wie gezeigt, eine direkte Verbindung mit der Funktion der Live-Elektronik in zeitgenössischer Komposition herstellen läßt.

 

 

 

6. Quellen


Mela Meierhans, „Enigma", 1999, Manuskript bei der Autorin

Lucia Ronchetti, „BendelSchlemihl" , 2001, Manuskript bei der Autorin

Persönliche Interviews und Gespräche mit den Komponistinnen

Karlheinz Stockhausen, „Studie II", 1945, Universal Edition

Undokumentierte persönliche Gespräche mit Wolfgang Heiniger, Thomas Kessler, Basel, Andrew Digby, Detlef Heusinger, Freiburg, Hector Moro, Stuttgart