Geschichte

Eine experimentelle Umgebung Ortstermin im Elektronischen Studio mit Erik Oña und Volker Böhm

aus: Ordnung und Chaos. Die Hochschule für Musik der Musik-Akademie der Stadt Basel im 100. Jahr ihres Bestehens, hrsg. von Michael Kunkel, Saarbrücken: Pfau 2005 © 2005 Markus Erni, Hochschule für Musik der Musik-Akademie der Stadt Basel und Pfau-Verlag, Saarbrücken.

Gerade laufen im Grossen Saal der Musik-Akademie CD-Aufnahmen mit László Gyimesi: Zusammen mit seinen Kollegen Adrian Oetiker und Evangelos Serafianos sowie Studentinnen und Studenten dieser Klassen spielt er Unterrichtsliteratur ein, also Klavierstücke für Jugendliche, von Bach bis Kelterborn. Die Regie des Elektronischen Studios ist mit Videokamera und Gegensprechanlage mit dem Geschehen verbunden. Im gängigen Mehrspur-Verfahren finden Aufzeichnungen statt, aus denen sich dann für die CD-Produktion eine Stereoversion abmischen lässt.

Das ist ein hübscher Zufall, ein sinniger Beginn für den Ortstermin im Elektronischen Studio. Denn dank der Tonmeisterausbildung, die 1956 mit einem Akustik-Kurs von Max Adam ihren Anfang nahm, hielt die Elektronik am damaligen Konservatorium allmählich Einzug. Die Tonmeisterausbildung verschwand später wieder. Ein elektronisches Studio begann in der Keyboard- und Synthesizer-Zeit, von der Musik-Akademie etwas abgekoppelt in Untermiete an der Mittleren Strasse, seine ersten Blüten zu treiben. Mit dem Erweiterungsbau auf dem Gelände der ehemaligen Druckerei Böhm erhielt Thomas Kessler 1987 die Gelegenheit, das heutige Elektronische Studio infrastrukturell wie inhaltlich aufzubauen, ihm folgte Hanspeter Kyburz. Seit 2003 heisst der Leiter Erik Oña. Er und Volker Böhm betreuen eine Kompositions- und eine Audiodesignklasse mit je acht Studentinnen und Studenten. »Das ist ein enormer Erfolg für uns«, bemerkt Oña, »wir sind so schnell gewachsen. Damit haben wir nicht gerechnet. Wir befinden uns bereits an der oberen Grenze unserer Kapazität.«

Das Herz: die Regie im Parterre

Wir stehen also in der Regie, dem Zentrum des Elektronischen Studios: Das grosse Mischpult fesselt die Aufmerksamkeit am meisten, aber es dient nur dazu, den Ein- und Ausgang von Klängen zu regeln. Die eigentliche Arbeit findet an der daneben vergleichsweise bescheiden aussehenden Computerstation statt. In diesem Raum wird produziert, gelehrt und entwickelt, die Studentinnen und Studenten erhalten auch möglichst viel Zeit, um hier selbständig zu arbeiten.

Aufnahmetechnik ist dabei bloss ein Aspekt der Arbeit, genauer gesagt des Audiodesigns. Was heisst Audiodesign? Oder: Was wird in diesem Métier neben aufnahmetechnischem Grundwissen sonst noch erwartet? Audiodesign ist sozusagen die Entsprechung zur herkömmlichen Interpretation – oder, wie es Volker Böhm, der Leiter dieses Ausbildungsgangs, nüchtern-präzise benennt, »die technisch künstlerische Umsetzung des computergestützten Komponierens«. Ganz im hergebrachten Sinn der musikalischen Wiedergabe zeigt sich das bei einem Projekt, an welchem das Elektronische Studio mit dem Ensemble Phoenix Basel für eine Aufführung von Luigi Nonos Con Luigi Dallapiccola (1979) in der Gare du Nord arbeitet. Neben sechs Schlagzeugern sind hier vier Pickups, drei Ringmodulatoren und drei Frequenzgeneratoren vorgesehen. »Natürlich könnten wir sozusagen ›historische Aufführungspraxis‹ machen und im Elektronischen Studio der Heinrich Strobel Stiftung in Baden-Baden, das Nono für solche Zwecke nutzte, die entsprechenden Geräte und die Einspielungen holen «, erklärt Erik Oña, »aber die Technologie hat sich in den vergangenen 25 Jahren natürlich mehr und mehr überholt. Sie muss irgendwann zwangsläufig an den Standard, an die Speichermedien und Steuerungsmöglichkeiten von heute angepasst werden, um ›weiterleben‹ zu können. Was wir versuchen, ist eine neue Interpretation, eine Realisation aufgrund der Angaben der Partitur und auf dem Stand der heutigen Technologie.«

Um das Mischpult in der Mitte stehen surroundmässig fünf Lautsprecher. Es darf durchaus auch an Kino gedacht werden: Filmvertonungen gehören ebenfalls zu den Aufgaben künftiger Audiodesignerinnen und -designer. Spieltrieb leuchtet in Oñas Augen, wenn er mit der Fernbedienung die Leinwand von der Decke herabrollen lässt. Er deutet auf den Projektor an der Wand hinter dem Mischpult: »Für solche Arbeiten braucht es eine realistische Dimension, am Bildschirm kann man das nicht machen.« Dann geht ihm das Ausfahren der Leinwand doch zu lange, verlegen lächelnd macht er den Vorgang wieder rückgängig. Wie kommt das Elektronische Studio zu Filmmaterial? Böhm überlegt: »Oft beteiligen wir uns an Wettbewerben. Dann realisieren wir Diplomprojekte in Zusammenarbeit mit der Hochschule für Kunst und Gestaltung in Luzern. Und mit Fred van der Kooij haben wir auch schon zusammengearbeitet.« Neben dem Film sind für solche »Vertonungen« auch andere Genres interessant: Hörspiel, Theater, Tanz, auch Klanginstallationen, eigentlich alle Ausdrucksformen, in denen Bewegung und Klang aufeinander abgestimmt werden müssen.

Vor allem aber stehen beim Audiodesign die elektronische Klangerzeugung und deren Steuerung bei der Wiedergabe im Zentrum. Und das bedeutet viel Arbeit am Bildschirm: »Ziel ist nicht so sehr die Entwicklung von eigenen Computerprogrammen, sondern die Schaffung einer geeigneten Arbeitsplattform«, betont Oña. »Wir benutzen eine bestehende Programmierungsumgebung, die uns grundlegende Funktionen zur Verfügung stellt. Darin entwickeln wir dann durchaus eigene Objekte, Module, Plug-Ins, die dann Einzellösungen darstellen. Entscheidend für uns ist, dass diese ›real-time‹, in Echtzeit funktionieren. «

Es entstehen Plattformen, mit denen gewisse Aufgabenstellungen gelöst werden können, zugeschnitten auf bestimmte Personen, die Komponistinnen und Komponisten. Hier liegt die Schnittstelle zwischen Audiodesign und Komposition: Die Entwicklung solcher Plattformen stellt das Ergebnis einer Zusammenarbeit, sozusagen die Erschaffung eines Instruments oder Instrumentariums dar. Damit in der Folge etwas zusammenzusetzen, zu bilden und gestalten ist dann Komponieren im ursprünglichen Sinn des Wortes. Sozusagen auf »höchster Ebene« werden das hier nächstens Heinz Holliger und Thomas Kessler für ein neues Stück für Oboe und Live-Elektronik durchspielen – Gäste sind wichtig fürs Elektronische Studio, und wenn immer möglich werden dabei auch die Studierenden in den Entwicklungsprozess miteinbezogen.

»Denaturierte« Klänge

»Programmierungsumgebung«, »Arbeitsplattform«, »Objekte«, »realtime « – das tönt noch reichlich abstrakt. Konkret hängt alles an einem Zauberwort, und das heisst »Max/MSP«. Wer ist Max? Max ist eine Programmierungsumgebung, um Musik- und Multimediaabläufe zu steuern. Wie ein Ablaufschema, ein Schnittstellenplan sieht die Bildschirmoberfläche auf dem Laptop aus, den Erik Oña aufgeklappt hat. Entwickelt wurde Max in den neunziger Jahren am Pariser IRCAM (Institut de Recherche et Coordination Acoustique/Musique), der Name ist eine Hommage an den amerikanischen Computermusik-Pionier Max Mathews. MSP bildet eine Erweiterung von Max, die Abkürzung steht für »Max Signal Processing«. Klänge entwickeln, ihre Veränderungen bestimmen, diese Prozesse beschreiben, ist die Funktion von MSP. Bei dieser Beschreibung greift es auf »Objekte« in einer Datenbank zurück: Vergleichbar mit einem Baukasten handelt es sich dabei um Programmierungsteile, mit denen Klänge zusammengesetzt, verändert, in einen zeitlichen Ablauf gebracht werden können. Und natürlich gehören die Klänge selber zu diesen Objekten, die synthetischen Töne wie die Samples aus Tonaufnahmen. Oña klickt ein Icon an, aus den Lautsprechern erklingt eine Frauenstimme mit Orchester, auf dem Bildschirm erscheint eine dreidimensionale, Zeit, Tonhöhe und Lautstärke abbildende Graphik des Klanggeschehens. Andere Programme werden aufgerufen, das Material wird verfremdet: Reduktion des Frequenzspektrums, Verringerung des Tempos ohne Tonhöhenverlust usw. Die verschiedenen Icons werden miteinander verbunden, zeitlich aufeinander abgestimmt. Alles geht sehr schnell.

Dies ist einer der Vorteile dieses Baukastenprinzips: Wo früher unendlich viel Zeit in die Programmierung gesteckt werden musste, kann heute auf fertige Objekte, auf funktionierende Programme zugegriffen werden. Auch braucht jetzt nicht mehr erst programmiert zu werden, um dann das klangliche Resultat am Schluss anhören zu können, sondern im Arbeitsprozess kann jede Komponente sofort – in Echtzeit (real-time) – auf ihren Einfluss überprüft, ersetzt, verändert oder für gut befunden werden. Eine solche Plattform schafft Freiheit, gibt, so Oña, »Raum für Spontaneität, kompositorische Intuition«. Dahinter liegt die C-Programmierungssprache, die einzelnen Komponenten können jederzeit umgestaltet oder frisch entwickelt und damit zu neuen Objekten werden.

»Komponieren heisst zunächst mal, sich seine Software schaffen«, sagt Oña. Die Komponistin, der Komponist muss das Konzept dahinter verstehen: »Sie brauchen diese Prozesse nicht zu können, aber sie müssen sie kennen.« Computerprogrammierung ist gewissermassen Instrumentationslehre im elektroakustischen Umfeld. Steht die Arbeitsplattform erst einmal, dann sind gleichsam die Instrumente vorbereitet, ist eine erste Phase des Komponierens abgeschlossen. Das stellt ja einen der Reize elektronischer Musik dar: Hier braucht nicht auf die Klänge hergebrachter Instrumente abgestellt zu werden, hier müssen diese erst noch erfunden werden. Mit der Arbeitsplattform ist das Instrumentarium entstanden – nicht umsonst wird in der Musikwissenschaft von »composed instruments« gesprochen. Wie kommentiert das Böhm so schön trocken? »Elektronische Musik gibt eine riesige Freiheit, erfordert aber ein grosses Wissen und braucht enorm viel Zeit …«

Ab jetzt geht es »bloss« noch um traditionelles Kompositionshandwerk. »Wichtig ist es, einen kritischen Bezug zu den eigenen Ideen zu entwickeln, das heisst: mit ihnen eine gewisse kompositorische Konsistenz zu erreichen und allmählich auch eine eigene Sprache zu finden «, meint Oña. Hierin unterscheide sich sein Kompositionsunterricht wohl kaum von demjenigen Roland Mosers. Die graphische Oberfläche von Max wird zur Partitur oder zumindest zu einem ihrer Teile, Strukturen können entstehen. Die rechnerischen Fähigkeiten des Computers, der die Zeit auf 32 Sekundenbruchteile genau festlegt, der Ideen von Abläufen in Algorithmen umzuwandeln versteht, mögen dabei helfen. Das kann zu dichter Komplexität führen, manchmal auch nur zu dekorativ arabesken Klangflächen.

Ein paar Tage später treffe ich Michelangelo Rinaldi in der Cafeteria. Er ist Pianist und macht an der Schola Cantorum ein Postgraduate-Studium auf dem Fortepiano. Als zweites Fach hat er Komposition bei Oña belegt. Eines seiner Projekte ist ein Stück für Clavichord und Live-Elektronik: »Das Clavichord hat nun mal den Ruf, zu leise zu sein. Eigentlich ist es naheliegend, das Instrument elektronisch zu verstärken. Das Spannende wird sein, was aus dieser Verstärkung entsteht.« Tatsächlich ist dieses Instrument im Vergleich zu einem Konzertflügel unendlich zart. Nur schon die fein schwingende Intonation könnte elektronisch wunderbar zu aus Mustern entwickelten Strukturen führen, ganz zu schweigen von der Modulationsfähigkeit des Tones, der geräuschhaften Mechanik …

»Die Spezialisierung des Klangs«: das Mehrkanalstudio im ersten Stock

Wir verlassen die Regie und eilen die Treppe aufwärts. Im Zwischenstock werfen wir kurz einen Blick in zwei ebenfalls zum Elektronischen Studio gehörende Räume: Da steht ein Ausweichstereoschnittplatz zur Verfügung – die Gerätschaften müssen, damit alle genügend Zeit zum Produzieren und Ausprobieren haben, eng disponiert werden, für gewisse Arbeiten reicht dieses Pult aus. Und da gibt’s auch einen Lagerraum: Wo die Instrumentalistinnen und Instrumentalisten früher Ersatzsaiten, Mundstücke etc. brauchten, benötigen sie für elektronische Musik eine Werkstatt, die jedem Radiofach- oder Elektroinstallationsgeschäft alle Ehre machen würde.

Dann sind wir oben. Innerhalb des Zonenplans der Leonhardsstrasse ist der erste Stock, zumindest in diesem Hofgeviert, das höchste der Gefühle. Und hier kann Erik Oña »abheben«, dieser Raum ist sein Konzept: Statt der bisherigen labormässigen Ausstattung mit zehn Arbeitskonsolen steht hier jetzt nur noch eine Station, der Computer und das damit verbundene Mischpult. Diese Konzentration hat den Vorteil, dass keine Beschränkung der Funktionalitäten mehr besteht.

Um diesen Arbeitsplatz ist im Moment mit Montageschienen ein Kubus aufgebaut, acht Lautsprecher darum herum aufgestellt – sie lassen sich auch an die Schienen montieren: »Das ist unsere experimentelle Umgebung«, erklärt Oña. Im Moment geht es, wie er es nennt, um die »Spatialisierung des Klangs«. Ziel der Entwicklung ist eine Installation mit 80 Lautsprechern. Was mit der herkömmlichen Stereophonie als Klangfeld entsteht, das auf uns räumlich wirkt, kann mit mehr Lautsprecherquellen zum Klangraum ausgebaut werden, der auch die Vorstellung von Bewegungen hervorrufen kann, der je nach Standort der Zuhörerinnen und Zuhörer sich verändert, auf den auch durch Anpassung der Lautsprecherstrahlung Einfluss genommen werden kann – »Ambisonics« heisst hier das Stichwort, Klangerzeugung im Raum. Beschallung bildet ein weiteres Arbeitsfeld des Audiodesigns wie der Komposition.

Im Audiodesign müssen Lösungen für Beschallungssysteme gefunden werden, mathematische Verknüpfungen zwischen In- und Output: Die Steuerung jener 80 Lautsprecher muss ausgetüftelt, mit Max/MSP ein Programmierungsumfeld gefunden werden, welches für die Komponistin, den Komponisten auf möglichst intuitive Weise handhabbar wird. Für diese wiederum eröffnet sich die Möglichkeit der Klanginszenierung, der Organisation von Klang im Raum – eine Herausforderung, bei welcher sich Berlioz oder Wagner wohl die Hände gerieben hätten.

Dieses Forschungsprojekt läuft im Hinblick auf das »Real-Time/Non Real-Time«-Festival im Juni 2005, das parallel zur Art Basel und zusammen mit dem BEAST, dem Birmingham ElectroAcoustic Sound Theatre, stattfindet. Vom BEAST kommt das 80teilige Lautsprecherorchester, aber auch – als Special Guest – der führende Kopf, Jonty Harrison, Professor für Komposition und elektroakustische Musik an der Universität in Birmingham. Es soll um den Dialog von »Real-Time« und »Non Real-Time« (Tonbandmusik) gehen, um zwei »Schulen«, die aus Oñas Sicht durchaus nicht nur in Konkurrenz zu stehen brauchen, sondern einander auch ergänzen können. Darüber hinaus gelangt übrigens eine weitere Komponente zu Max zum Einsatz: Jitter, ein Programm zur Steuerung von Bild- und Videoelementen.

Über Erfolgsaussichten dieser Ausbildungsgänge sprechen wir nur kurz. »Die Absolventen und Absolventinnen arbeiten in sehr unterschiedlichen Bereichen: in Software-Unternehmen, beim Radio, Theater oder als freischaffende Künstler und Produzenten«, hält Volker Böhm fest. Er selber ist vom einstigen Studenten zum Dozenten aufgerückt. Und ein anderer Absolvent, Tomek Kolczynski, betreut heute das Fach Audiodesign innerhalb der Allgemeinen Musikschule. Entwicklungsmöglichkeiten scheint es also mannigfach zu geben.

De natura sonorum

Neu plant Erik Oña eine Unterrichtseinheit zur Stilistik der elektronischen Musik, von der Tonbandmusik in den fünfziger Jahren bis heute. Aufhänger soll dabei der selbst erzeugte elektronische Klang sein, die Darstellung seiner Bauelemente. Auch hier wird das Rechnerische, das, was der Computer heute leistet, im Vordergrund stehen: »Das Mathematische scheint furchtbar zu dominieren. Wenn wir unsere Studenten und Studentinnen fragen, was sie im Studienangebot zusätzlich brauchen würden, sagen sie immer wieder: ›Mathematikunterricht.‹ Natürlich müssten wir, wie im Ingenieurwesen, in der Physik, Chemie und so weiter eine Form von angewandter Mathematik finden – vielleicht wird dies im Umfeld der Fachhochschule oder in Zusammenarbeit mit der Universität einmal möglich. Mathematik ist tatsächlich das Handwerkszeug zu dieser Musik. Was in der traditionellen Musik Tonsatz, Harmonielehre heisst, bedeutet hier, mit Programmierungsvorgängen umgehen zu können, und das sind mathematisch geregelte Abläufe. Das war früher aber auch nicht anders: Im mittelalterlichen Universitätsbetrieb, im Quadrivium gehörten Arithmetik und Musik als ›höhere‹ Fächer ja auch zusammen. Irgendwie passt das ja alles zueinander – letztlich auch, dass wir mit der Schola Cantorum am gleichen Platz arbeiten.«