Universität Osnabrück Wintersemester 2006/2007 Fachbereich Musik/ Musikwissenschaft |
Seminar: Experimentelle Interfaces in Musik und Medienkunst Seminarleitung: Prof. Dr. Bernd Enders Protokoll der Sitzung am 02.11.2006 Protokollant: Joachim Bodde |
Thema:
Historische und systematische Entwicklung der
Technologie von Musikinstrumenten
TOP 0) Begrüßung: Prof. Enders begrüßt als Moderator die Teilnehmenden. Er gibt einen kurzen Abriss über den Plan der heutigen Sitzung und schlägt organisatorische Vorgehensweisen vor.
TOP 1) Systematisierung und geschichtlicher Abriss der Entwicklung von Musikinstrumenten:
Entwicklung des Musikinstruments
Entstehung und technische Entwicklung des Musikinstruments:
Mensch macht zunächst Musik mit dem Körper (Singen und Klatschen/ Klopfen auf Körperteile etc.). Entwicklung in Stufen:
1. Instrumentalisierung:
Mensch entdeckt, dass man Musik mit Instrumenten machen kann. à Klangwerkzeuge. Im Prinzip schon seit Antike bekannt.
2. Mechanisierung:
Der Mensch entwickelt bestimmt Spieleinrichtungen, die den Klang steuern. Etwa Klaviatur (seit dem Zeitalter der Römer: Tastatur bei Wasserorgel)
Trennung von Klangerzeugung und Steuereinrichtung à Interface zwischen musizierendem Menschen und Klangentstehungsort.
Unterschied zwischen Instrument und Klangwerkzeug: Kein direkter Kontakt mehr zum Klangentstehungsort.
Beispiel Pfeifenorgel: Instrument wird zur Maschine. Kennzeichen dafür: Hinzunahme von Fremdenergie (früher: Messdiener, die den Blasebalg bedienten, heute: Motor, Kompressor).
Moderneres Beispiel/ moderne Form: E-Gitarre
è Trennung von musizierendem Menschen und Klangerzeugungssystem
3. Automatisierung:
Basiert auf Erfindung der Stiftwalze (Bagdad, um 900 n. Chr.) à Programmierte Noten werden an Klangerzeugungssystem gegeben.
Mit Stiftwalze: viele automatische Musikinstrumente ( Glockentürme , Spieluhren , Orchestrien etc.)
Programmierungssysteme: Lochplatte/ Lochkartensteuerung
Heute auf elektronischem Wege: analoge bzw. digitale Signale steuern die Klangerzeugung
Mensch, der musikalische Verläufe steuert, wird durch Automaten ersetzt.
Filmbeispiel : automatisierte Geigen: Rundbogen, automatisierte „Finger“ greifen.
4. Elektronifizierung
Um 1900. Erkenntnis, auch mittels elektrischen Stroms können Klänge erzeugt werden. Konstruktion elektronischer Instrumente. Z.B. Telharmonium (Thaddeus Cahill). Walzen drehen sich an Tonabnehmern vorbei, sinusartige Töne entstehen. Wurde in Telefonnetz New Yorks eingespeist. Projekt wurde jedoch abgebrochen. Ersttes elektromagnetisches Instrument.
Weiteres Beispiel für elektromagnetisches Instrument: Hammondorgel .
Rein elektronisches Instrument: Theremin / Thereminvox. Referentin Ilka Fischer .
Leon Theremin entwickelt voll elektronisches Instrument: Das Thereminvox. Es zeigt das Bemühen um eine Mensch-Maschine-Schnittstelle und ermöglicht völlig berührungsfreies Spiel. Nur durch Handbewegung im Raum wird Klang erzeugt und verändert.
Erzeugung eines Tons: Überlagerung zweier hochfrequenter Töne, welche mittels zweier Oszillatoren erzeugt werden. 1919 erfunden vom St. Petersburger Physiker Theremin.
Bekannteste Interpretin: Clara Rockmore (1911 1998) Zusammen mit Schwester am Klavier viele (meist romantische) Werke in Konzerten gespielt und auf Platte aufgenommen.
Komponisten Martinu, Jarré u. a. pflegten Kontakt zu Theremin und komponierten für dieses Instrument.
Auch in Rockmusik findet das Instrument hin und wieder Verwendung.
Frage nach Interface beim Theremin. Elektrostatische Beeinflussung, über die ein Schwebungssystem gesteuert wird.
Klangbeispiel : „Vocalise“ von Rachmaninoff, gespielt von Rockmore. Bildbeispiel . Videobeispie l mit Lydia Kavina 1995 in Osnabrück
Literatur online: Reuter / Voigt, Die Klangfarbe des Theremins
http://www.epos.uos.de/music/templates/buch.php?id=26&page=/music/books/e/en_st003/pages/249.htm
Weiterentwicklung: Trautonium (Friedrich Trautwein, 1929) Wird über Bandmanual gesteuert. Referent Jakob Volz.
Vorläufer analoger Synthesizer. Hinsichtlich Aufbau, Generatoren etc. schon nah verwandt mit Synthesizer.
Eingabe funktioniert über Saite. Diese wird heruntergedrückt auf Metallschiene à Metallzungen werden aktiviert. Lautstärkedifferenzierung durch Spieldruck möglich. Glissandi möglich. Oskar Sala entwickelt das Instrument weiter.
Klangbeispiel, Video und Bildbeispiel .
Aufbau: verschiedene Generatoren (Tongenerator, Rauschgenerator etc.). Schaltpläne werden nicht gezeigt.
Exkurs Enders auf Rückfrage hin: Wir erzeugt man kurze Staccatotöne?
Entwicklungsschritte: Volkstrautonium, Rundfunktrautonium, Konzerttrautonium Wurde jedoch später zu reinem Studioinstrument. Später Nachbau Trautonium mit Mikroelektronik.
Sala verstand sich als elektronischer Komponist, wurde aber erst durch seine Gestaltung der synthetischen Vogelgeräusche in Hitchcocks „Die Vögel“ weltweit bekannt.
5. Modularisierung:
Referent Björn Brüggemann
Robert Moog modularisiert elektronische Bausteine.
„Moog Modular“ (gilt als erster Modulsynthesizer, obwohl es Vorläufer gab)
1968/1969: Walter Carlos: Switched on Bach à Durchbruch. Durch Bach auf Synthesizer wird der Synthesizer berühmt, zuncäsht nicht durch Pop oder Rock
Durch großen Erfolg: Interesse großer Studios etc.
Bauweise:
Grundbausteine (Module), die kombiniert werden
Generatoren: Oszillatoren, Rauschgenerator
Module zur Klangbeeinflussung (Filter etc.)
Module zur Klangsteuerung (Keyboard, Joystick Hüllkurvengeneratoren etc.)
Module lassen sich völlig frei verwenden.
Klaviatur erwies sich als erfolgreichstes Interface für dieses Instrument à Tasteninstrument à Großer Erfolg (auch in Rockmusik à Rockorganisten wollen das Instrument nutzen)
Man könnte beliebiges Interface anschließen, das bestimmte Normen erfüllt, aber Keyboard ist am beliebtesten.
Klangbeispiele von Walter Carlos und Isao Tomita
Videobeispiel : Emerson, Lake & Palmer im Live-Konzert
Literatur online: Bernd Enders, Die Klangwelt des Musiksynthesizers
http://www.epos.uos.de/music/templates/buch.php?id=19
Zunächst nur bei Tastaturen. Man konnte nun die Synthesizer polyphon spielen, nicht mehr nur monophon.
Digitale Steuerung (z.B. MIDI)
Kangsynthese (Numerische Oszillatoren)
Klangänderungen (Filter, Verstärker etc.)
Klangspeicherungen (Sound Samplings)
Technischer Prozess numerischer Maschinen
Ab 1990: Mittels Computer könnten alte Instrumente nachempfunden werden. Virtualisierung von Klangerzeugung. Verlagerung der Entstehung von Klängen in die Simulation/ Nachbildung.
Netzbasierte musikalische Kommunikation
Adaptive Begleitautomatik
Musikroboter
Kreative Composersysteme
à Computer greift selbst künstlerisch-ästhetisch ins musikalische Geschehen ein.
Künstlerische Mensch-Maschine-Symbiose
Brain-Controlling
Tendenz: Mensch verwächst mit Musikmaschine.
TOP 2) Referent Benjamin Schmidt-Rhaesa
"Der Wunsch, Musikinstrumente zu gruppieren und zu klassifizieren hat in der Vergangenheit zu einer Vielzahl von Systematiken geführt, als bekanntestes Beispiel diejenige von Curt Sachs. Viele davon tun sich jedoch schwer, sobald sie die neusten Entwicklungen der Musikinstrumente mit einbeziehen sollen. Basierend auf einem historischen Überblick über bisherige Systematiken wird in diesem Vortrag ein Ansatz für eine neue Systematik gegeben, die die Instrumente nicht mehr nach einer einzelnen Eigenschaft sortiert, sondern sie als Netzwerk verschiedener Einzelaspekte begreift."
Zur Systematisierung der Musikinstrumente: Systematiken reichen nicht aus, um moderne elektronische Musikinstrumente zu unterscheiden.
Rückgriff auf Systematik von Sachs/ Hornbostel (Idiophone, Membranophone etc.). Diese bekannte Systematik bezieht sich auf die Frage, wie der Klang entsteht.
Ebenso verbreitet ist die Systematik nach der Spielweise: Tasteninstrumente, Zupfinstrumente etc.
Beide Systematiken haben Grenzen, da nicht alle Instrumente erfasst werden können.
Neue Systematik nach Schmidt-Rhaesa: Systematisierung nach Modulen:
Eingabe, Vermittler, Verarbeitung, Vermittler, Ausgabe
Körperlich
Halbautomatisch
Vollautomatisch
Nicht vorhanden
Mechanisch – Mechanisch
Mechanisch – elektronisch
Elektronisch – elektronisch
Nicht vorhanden
Mechanisch elektromechanisch
Elektronisch analog
Elektronisch digital
Speicher
Mechanisch
Elektronisch
Nicht vorhanden
Direkt-körperlich
Lautsprecher
Speicher
Nicht vorhanden
Ausblick
PC-Datenbank
Suchfunktion: Suche nach einzelnen Items oder Kategorien
TOP 3) Abschlussbetrachtung Prof. Enders. sowie Verabschiedung der Teilnehmenden.
Ergänzende Online.Literatur:
Michael Harenberg, Neue Musik durch neue Technik?
http://www.epos.uos.de/music/templates/buch.php?id=13&page=/music/books/e/endb_96/pages/10.htm
sowie studentische Hörbeiträge, entstanden unter der Leitung von Joachim Stange-Elbe
Vom Radiosender zum Synthesizer
http://www.epos.uos.de/music/multimedia/OK_VomRadioZumSynthesizer/index.htm
TABELLE
Prof. Dr. Bernd Enders
Entstehung und technische Entwicklung des Musikinstruments
1. Instrumentalisierung |
- Loslösung vom Körper, von der Stimme, vom Händeklatschen |
2. Mechanisierung |
- Konstruktion von optimierten Spieleinrichtungen ("Controller", vor allem Klaviatur, als Interface zur musikalischen Klangsteuerung) |
ab 900 |
- Entdeckung der Stiftwalze (900), programmierbare Instrumente |
ab 1900 |
- Konstruktion elektromechanischer Instrumente (Cahills Telharmonium, Neo-Bechstein-Flügel, Hammond-Orgel, E-Gitarre usw.) (ab 1900, auf Elektronenröhre basierend) |
ab 1930 |
- Konstruktion von Bausteinen zur Klangerzeugung und Klangveränderung (ansatzweise beim Trautonium in den 30er Jahren, ab den 50er Jahren als modulares Synthesizersystem, vor allem beim Moog-Synthesizer 1967) |
ab 1975 |
- digitale Steuerung (Lochstreifensteuerung?, polyphone Tastaturen, MIDI) |
ab 1990 |
- Digitalsynthesizer auf Software-Basis (native Algorithmen, auch modular konzipiert, z.B. PlugIns) |
ab 1990 |
- netzbasierte musikalische Kommunikation, distante Interaktion mit Maschinen |
ab 2000 |
- adaptive Begleitautomaten |
ab ?? |
- Brain-controlled-Multimedia-Synthesizer (Audio + Video) |
entnommen aus:
Bernd Enders (Hrsg.) Mathematische Musik - musikalische Mathematik (Music in Numbers - Numbers in Music), mit Beiträgen von Bernd Enders, Martin Supper, Georg Hajdu, Joachim Stange-Elbe, Gunnar Johannsen, Uwe Seifert, Thomas Noll & Anja Volk, mit Audio-CD und CD-ROM, englische Kurzfassungen, Publikation gefördert von der VolkswagenStiftung Hannover, Saarbrücken 2005 (PFAU-Verlag)
Experimentelle Interfaces in Musik und Medienkunst
16104001 Großmann | Semester
S | 5-9 | M: B2/B3; KI: B1/B2 | Do 15.45 - 18.00 | 7.215 UC
Quelle: http://audio.uni-lueneburg.de/seminarwebseiten/ordnername/site4.php, 24.11.2024