Hoffentlich ist der Leser geneigt, zunächst einer kurzen
Erlebnisbeschreibung zu folgen. Es folgt darauf ein Interview mit Andreas Otto,
einem der beiden künstlerischen Entwickler des Interfaces "Querschläger".
Bei einer ersten Privatvorführung wurde die Einschätzung unseres
Produktes des Monats noch teilweise überlagert von der allgemeinen imposanten
technischen Potenz des neuen Uni-Studios in Gebäude 11, der Endlichkeit
einer Mittagspause auf dem Campus und einer gewissen Unruhe, die auftritt, wenn
der Computer anders macht als er soll. (Man erzählte mir, dass er dies
bei der Premiere des "Querschlägers" im Karlsruher ZKM beim »next_generation
Festival« schon einmal machte, und zwar in dem Moment, als die Zuschauer
schon auf die ersten Klänge warteten.)
Ihren ganzen Charme und Witz enthüllte die Konstruktion dann aber an einem
geselligen Abend im alten Bahnwärterhäuschen, nachdem uns der Entwickler
fragte, ob wir „noch einen Blick auf den modifizierten Playstation-Controller
werfen“ wollten. Bereit ins anliegende Musikzimmer zu gehen, wies jemand
scherzhaft auf die eigene gemütliche Schwere hin mit der Frage, ob das
nicht auch drahtlos möglich sei. War es: WIr hatten alsbald einen handelsüblichen
Game Controller auf dem Tisch, während von drüben noch Brian Enos
»music for airports« klang. Der Ambient-Musik machten wir nun Beine,
denn in unseren Händen hielten wir einen Rhythmus, seine Klänge, die
Kanalverteilung, Möglichkeiten zur Manipulation und solche zur Manipulation
der Manipulation.
Das Material, in dem die Eingriffe dabei erfolgen, ist bereits musikalische
Zeit, aber rohe musikalische Zeit. (Eno war es nicht, wohlgemerkt, der lief
nur nebenher und hätte die Verwandlungen zu Electronica, Drum&Bass,
Techno sicherlich gut gefunden.) Die fundamentale Funktion, und trotzdem bei
weitem die geringste Fähigkeit des Systems ist es, eine Spur oder allgemeiner,
etwas bereits Gespieltes oder Aufgenommenes (im beschriebenen Fall größtenteils
sequenzierte Perkussionsklänge) zu aktivieren. Schnell merkten wir, dass
es am besten ist, sie sogleich wieder zu deaktivieren, vorher aber noch ordentlich
durch den Wolf zu drehen, der in diesem Gerät steckt, was bedeutet, durch
die Modulierung von Midisignalen alle möglichen bzw. vordefinierten Parameter
eines Klanges live zu verformen.
Wir triggerten, pitchten, dehnten, schnitten, verteilten, verzerrten also munter
vor uns hin und auch wenn der musikalisch gewillte Geist dabei schnell zu Spaß
und Ergebnissen kommt, man auch zumindest subjektiv eine gewisse Fertigkeit
zu entwickeln glaubte, bevor ein anderer einem den Querschläger wieder
aus der Hand riss, so keimte doch der Gedanke, dass es mit Übung noch viel
besser ginge, und wir es hier mit einem richtigen Instrument zu tun hatten.
Gibt es einen Namen für eure Entwicklung?
Andreas Otto: Noch nicht wirklich; im Moment nennen wir es wie die Auftragskomposition,
für die wir es entwickelt haben: das live improvisierte Stück hieß
"Querschläger", weil wir über die 47 Boxen im Kubus des
ZKM spielen durften und die Raumposition den einzelnen Sounds mit dem rechten
Stick des Controllers zuordnen konnten - dadurch konnten wir die perkussiven,
agressiven Sounds von Björn mit beachtlicher Auflösung durch den Raum
schicken, als würden sie hin und her prallen.
Kannst du etwas präziser erklären, was da passiert, wie es funktioniert?
A.O.: Die Software »Junxion«, die am Steim-Institut in Amsterdam
entwickelt wurde, ermöglicht ein einfaches Übersetzen von allen eingehenden
Daten/Signalen der angeschlossenen USB-Geräte in Mididaten, also musikalische
Anweisungen. Diese Kopplung von Daten an musikalische Aktionen nennt man Mapping,
das geht mit dieser Software relativ einfach.
Und woher kommt das klangliche Rohmaterial?
A.O.: Der Sound selbst kommt bei Björn aus dem NI Kontakt und bei mir aus
dem Simpler (einem Softwaresampler) in Ableton Live. Meist mache ich die Perkussion
und Björn spielt die Bässe und einige Midrangesounds, Akzente.
Aber diese Klangquellen müssen dann noch sequenziert sein, wenn ich das
richtig verstanden habe?
A.O.: Genau, momentan kommen die Events, also das wiederholte Aufrufen der jeweiligen
Sounds, alle aus einem Master- Midiarrangement. Mit den Sounds selbst spielen
wir dann rum, wenn wir sie hörbar gemacht haben.
Wir haben die folgenden Belegungen gewählt (für alle, die einen Standard
Playstation-Controller vor Augen oder Händen haben):
Die vier Fronttasten (L1, L2; R1, R2) dienen zur Auswahl der vier Sounds, die
jeder spielt. Sind sie gedrückt, kann man:
• die Sounds mit dem x-Button Kreuz an/ausschalten
• mit dem linken Stick Parameter der Wiedergabe (Startposition in der
Audiodatei eines Klanges, Länge des Loops) oder Effekte (etwa Delay) ändern
und
• mit dem rechten Stick die Raumposition der Lautsprecherwiedergabe spielen.
Das ist in der Summe aller Kombinationsmöglichkeiten eine Riesenmenge an
musikalischen Daten, die man in den Fingern hält.
Warum habt ihr euch für den Playstation-Controller als »Bedienwerkzeug«
entschieden
A.O.: Wir wollten etwas verwenden, bei dem wir nicht erst die Bedienung lernen
müssen, sondern direkt aus der Handlung heraus überlegen können,
wie unsere kleinen Gesten in Musik übertragen werden können und wie
man die paar Knöpfe und Sensoren effektiv musikalisch belegen kann.
In welcher Hinsicht musstet ihr Kompromisse eingehen, Abstriche machen?
A.O.: In der Mitte treffen mussten wir uns eher in der Sphäre des Ästhetischen,
d.h. konkret, das wir die Genres Drum'n'Bass und Electronica zu einer Einheit
zusammenführen. Das hat super geklappt, ein Geklicker und Gerassel bei
180bpm, wie ich es noch nie gehört hatte vorher.
Ansonsten haben wir versucht, soweit wie möglich an die Grenze zu gehen,
was die Anzahl der Tastenbelegungen und die Prozessoren-Power der Rechner/Klangerzeuger
angeht.
Wie waren die Reaktionen beim next_generation Festival?
A.O.: Zwischen den vielen Playback-Konzerten aus eher akademischen Kontexten
fiel unsere Performance sowohl ästhetisch als auch aufführungstechnisch
auf: Wir saßen auf Stühlen, die Rechner unsichtbar unter der Bühne,
nur die Controller in der Hand und viel nonverbale Kommunikation über das
Gehörte. Daher haben wir zwar einerseits Begeisterung erfahren, viel Applaus
von Leuten, die sich über die metrische Struktur der experimentellen Sounds
freuten, aber andererseits auch Unverständnis darüber, warum diese
‚Techno-Jungs‘ eingeladen worden sind. Auf jeden Fall war es nicht
egal, dass wir in Karlsruhe waren, das ist die Hauptsache.
Welches Möglichkeiten siehst du, den »Querschläger« auf
der Bühne einzusetzen ?
A.O.: Toll wäre es, das vorgefertigte Midi-Arrangement durch einen weiteren
Musiker zu ersetzen, der die Midievents live spielt, z.B. über ein E-Drum-Set
oder eine experimentelle Variation davon. So ist es zur Zeit eigentlich nur
eine sehr außergewöhnliche Form von Playback-Konzert.
Ich selbst hatte bei früheren Springintgut Konzerten Kontaktmikros in Büchern
versteckt, so dass man Impulse erhält, wenn man auf die Bücher schlägt,
die wiederum von einem speziellen Interface anschlagsdynamisch in MIDI-Daten
gewandelt werden können. Wenn die resultierenden Daten unsere Synthesizer
und Sampler ansteuern würden, könnten wir diese dann wieder mit einem
Gerät wie dem hier beschriebenen „bespielen“. Eine spaßige
Band wäre das!
Querschläger Livemitschnitt aus dem ZKM Karlsruhe [MP3, 3.87 MB]