Sitzungsprotokoll

Universität Osnabrück

Wintersemester 2006/2007

Fachbereich Musik/ Musikwissenschaft

Seminar: Experimentelle Interfaces in Musik und Medienkunst

Seminarleitung: Prof. Dr. Bernd Enders

Protokoll der Sitzung am 02.11.2006

Protokollant: Joachim Bodde

Thema:

Historische und systematische Entwicklung der

Technologie von Musikinstrumenten

TOP 0) Begrüßung: Prof. Enders begrüßt als Moderator die Teilnehmenden. Er gibt einen kurzen Abriss über den Plan der heutigen Sitzung und schlägt organisatorische Vorgehensweisen vor.

TOP 1) Systematisierung und geschichtlicher Abriss der Entwicklung von Musikinstrumenten:

Entwicklung des Musikinstruments

Entstehung und technische Entwicklung des Musikinstruments:

Mensch macht zunächst Musik mit dem Körper (Singen und Klatschen/ Klopfen auf Körperteile etc.). Entwicklung in Stufen:

1. Instrumentalisierung:

Mensch entdeckt, dass man Musik mit Instrumenten machen kann. à Klangwerkzeuge. Im Prinzip schon seit Antike bekannt.

2. Mechanisierung:

Der Mensch entwickelt bestimmt Spieleinrichtungen, die den Klang steuern. Etwa Klaviatur (seit dem Zeitalter der Römer: Tastatur bei Wasserorgel)

Trennung von Klangerzeugung und Steuereinrichtung à Interface zwischen musizierendem Menschen und Klangentstehungsort.

Unterschied zwischen Instrument und Klangwerkzeug: Kein direkter Kontakt mehr zum Klangentstehungsort.

Beispiel Pfeifenorgel: Instrument wird zur Maschine. Kennzeichen dafür: Hinzunahme von Fremdenergie (früher: Messdiener, die den Blasebalg bedienten, heute: Motor, Kompressor).

Moderneres Beispiel/ moderne Form: E-Gitarre

è Trennung von musizierendem Menschen und Klangerzeugungssystem

3. Automatisierung:

Basiert auf Erfindung der Stiftwalze (Bagdad, um 900 n. Chr.) à Programmierte Noten werden an Klangerzeugungssystem gegeben.

Mit Stiftwalze: viele automatische Musikinstrumente ( Glockentürme , Spieluhren , Orchestrien etc.)

Programmierungssysteme: Lochplatte/ Lochkartensteuerung

Heute auf elektronischem Wege: analoge bzw. digitale Signale steuern die Klangerzeugung

Mensch, der musikalische Verläufe steuert, wird durch Automaten ersetzt.

Filmbeispiel : automatisierte Geigen: Rundbogen, automatisierte „Finger“ greifen.

4. Elektronifizierung

Um 1900. Erkenntnis, auch mittels elektrischen Stroms können Klänge erzeugt werden. Konstruktion elektronischer Instrumente. Z.B. Telharmonium (Thaddeus Cahill). Walzen drehen sich an Tonabnehmern vorbei, sinusartige Töne entstehen. Wurde in Telefonnetz New Yorks eingespeist. Projekt wurde jedoch abgebrochen. Ersttes elektromagnetisches Instrument.

Weiteres Beispiel für elektromagnetisches Instrument: Hammondorgel .

Rein elektronisches Instrument: Theremin / Thereminvox. Referentin Ilka Fischer .

Leon Theremin entwickelt voll elektronisches Instrument: Das Thereminvox. Es zeigt das Bemühen um eine Mensch-Maschine-Schnittstelle und ermöglicht völlig berührungsfreies Spiel. Nur durch Handbewegung im Raum wird Klang erzeugt und verändert.

Erzeugung eines Tons: Überlagerung zweier hochfrequenter Töne, welche mittels zweier Oszillatoren erzeugt werden. 1919 erfunden vom St. Petersburger Physiker Theremin.

Bekannteste Interpretin: Clara Rockmore (1911 1998) Zusammen mit Schwester am Klavier viele (meist romantische) Werke in Konzerten gespielt und auf Platte aufgenommen.

Komponisten Martinu, Jarré u. a. pflegten Kontakt zu Theremin und komponierten für dieses Instrument.

Auch in Rockmusik findet das Instrument hin und wieder Verwendung.

Frage nach Interface beim Theremin. Elektrostatische Beeinflussung, über die ein Schwebungssystem gesteuert wird.

Klangbeispiel : „Vocalise“ von Rachmaninoff, gespielt von Rockmore. Bildbeispiel . Videobeispie l mit Lydia Kavina 1995 in Osnabrück

Literatur online: Reuter / Voigt, Die Klangfarbe des Theremins

http://www.epos.uos.de/music/templates/buch.php?id=26&page=/music/books/e/en_st003/pages/249.htm

Weiterentwicklung: Trautonium (Friedrich Trautwein, 1929) Wird über Bandmanual gesteuert. Referent Jakob Volz.

Vorläufer analoger Synthesizer. Hinsichtlich Aufbau, Generatoren etc. schon nah verwandt mit Synthesizer.

Eingabe funktioniert über Saite. Diese wird heruntergedrückt auf Metallschiene à Metallzungen werden aktiviert. Lautstärkedifferenzierung durch Spieldruck möglich. Glissandi möglich. Oskar Sala entwickelt das Instrument weiter.

Klangbeispiel, Video und Bildbeispiel .

Aufbau: verschiedene Generatoren (Tongenerator, Rauschgenerator etc.). Schaltpläne werden nicht gezeigt.

Exkurs Enders auf Rückfrage hin: Wir erzeugt man kurze Staccatotöne?

Entwicklungsschritte: Volkstrautonium, Rundfunktrautonium, Konzerttrautonium Wurde jedoch später zu reinem Studioinstrument. Später Nachbau Trautonium mit Mikroelektronik.

Sala verstand sich als elektronischer Komponist, wurde aber erst durch seine Gestaltung der synthetischen Vogelgeräusche in Hitchcocks „Die Vögel“ weltweit bekannt.

5. Modularisierung:

Referent Björn Brüggemann

Robert Moog modularisiert elektronische Bausteine.

„Moog Modular“ (gilt als erster Modulsynthesizer, obwohl es Vorläufer gab)

1968/1969: Walter Carlos: Switched on Bach à Durchbruch. Durch Bach auf Synthesizer wird der Synthesizer berühmt, zuncäsht nicht durch Pop oder Rock

Durch großen Erfolg: Interesse großer Studios etc.

Bauweise:

Grundbausteine (Module), die kombiniert werden

•  Generatoren: Oszillatoren, Rauschgenerator

•  Module zur Klangbeeinflussung (Filter etc.)

•  Module zur Klangsteuerung (Keyboard, Joystick Hüllkurvengeneratoren etc.)

Module lassen sich völlig frei verwenden.

Klaviatur erwies sich als erfolgreichstes Interface für dieses Instrument à Tasteninstrument à Großer Erfolg (auch in Rockmusik à Rockorganisten wollen das Instrument nutzen)

Man könnte beliebiges Interface anschließen, das bestimmte Normen erfüllt, aber Keyboard ist am beliebtesten.

Klangbeispiele von Walter Carlos und Isao Tomita

Videobeispiel : Emerson, Lake & Palmer im Live-Konzert

Literatur online: Bernd Enders, Die Klangwelt des Musiksynthesizers

http://www.epos.uos.de/music/templates/buch.php?id=19

6. Digitalisierung

Zunächst nur bei Tastaturen. Man konnte nun die Synthesizer polyphon spielen, nicht mehr nur monophon.

Digitale Steuerung (z.B. MIDI)

Kangsynthese (Numerische Oszillatoren)

Klangänderungen (Filter, Verstärker etc.)

Klangspeicherungen (Sound Samplings)

Technischer Prozess numerischer Maschinen

7. Virtualisierung

Ab 1990: Mittels Computer könnten alte Instrumente nachempfunden werden. Virtualisierung von Klangerzeugung. Verlagerung der Entstehung von Klängen in die Simulation/ Nachbildung.

8. Globalisierung

Netzbasierte musikalische Kommunikation

9. Informatisierung / Künstlich-intelligente Instrumente

Adaptive Begleitautomatik

Musikroboter

Kreative Composersysteme

à Computer greift selbst künstlerisch-ästhetisch ins musikalische Geschehen ein.

10. Hybridinstrumente

Künstlerische Mensch-Maschine-Symbiose

Brain-Controlling

Tendenz: Mensch verwächst mit Musikmaschine.

TOP 2) Referent Benjamin Schmidt-Rhaesa

Material zum Kurzvortrag von Benjamin Schmidt-Rhaesa (html)

"Der Wunsch, Musikinstrumente zu gruppieren und zu klassifizieren hat in der Vergangenheit zu einer Vielzahl von Systematiken geführt, als bekanntestes Beispiel diejenige von Curt Sachs. Viele davon tun sich jedoch schwer, sobald sie die neusten Entwicklungen der Musikinstrumente mit einbeziehen sollen. Basierend auf einem historischen Überblick über bisherige Systematiken wird in diesem Vortrag ein Ansatz für eine neue Systematik gegeben, die die Instrumente nicht mehr nach einer einzelnen Eigenschaft sortiert, sondern sie als Netzwerk verschiedener Einzelaspekte begreift."

Zur Systematisierung der Musikinstrumente: Systematiken reichen nicht aus, um moderne elektronische Musikinstrumente zu unterscheiden.

Rückgriff auf Systematik von Sachs/ Hornbostel (Idiophone, Membranophone etc.). Diese bekannte Systematik bezieht sich auf die Frage, wie der Klang entsteht.

Ebenso verbreitet ist die Systematik nach der Spielweise: Tasteninstrumente, Zupfinstrumente etc.

Beide Systematiken haben Grenzen, da nicht alle Instrumente erfasst werden können.

Neue Systematik nach Schmidt-Rhaesa: Systematisierung nach Modulen:

Eingabe, Vermittler, Verarbeitung, Vermittler, Ausgabe

Klangsteuerung

Körperlich

Halbautomatisch

Vollautomatisch

Nicht vorhanden

Eingabewandler

Mechanisch – Mechanisch

Mechanisch – elektronisch

Elektronisch – elektronisch

Nicht vorhanden

Klangerzeugung

Mechanisch elektromechanisch

Elektronisch analog

Elektronisch digital

Speicher

Ausgabemodulator

Mechanisch

Elektronisch

Nicht vorhanden

Klangausgabe

Direkt-körperlich

Lautsprecher

Speicher

Nicht vorhanden

Ausblick

PC-Datenbank

Suchfunktion: Suche nach einzelnen Items oder Kategorien

TOP 3) Abschlussbetrachtung Prof. Enders. sowie Verabschiedung der Teilnehmenden.

Ergänzende Online.Literatur:

Michael Harenberg, Neue Musik durch neue Technik?

http://www.epos.uos.de/music/templates/buch.php?id=13&page=/music/books/e/endb_96/pages/10.htm

sowie studentische Hörbeiträge, entstanden unter der Leitung von Joachim Stange-Elbe

Vom Radiosender zum Synthesizer

http://www.epos.uos.de/music/multimedia/OK_VomRadioZumSynthesizer/index.htm

TABELLE

Prof. Dr. Bernd Enders

Entstehung und technische Entwicklung des Musikinstruments

1. Instrumentalisierung

- Loslösung vom Körper, von der Stimme, vom Händeklatschen
- Entdeckung des Trommelstocks, der Pfeife, Flöte, der Saite
- Entwicklung von Instrumenten als Klangwerkzeuge (z.B. Fiedel)

2. Mechanisierung

- Konstruktion von optimierten Spieleinrichtungen ("Controller", vor allem Klaviatur, als Interface zur musikalischen Klangsteuerung)
- Konstruktion spezieller Klangerzeugungseinrichtungen (Hämmer zum Anschlagen von Saiten als mechanische Verstärker des Fingerdrucks, Plektren zum Anreißen von Saiten, Anblasmechanismen, Tonhöhensteuerung, z.B. durch Klappen)
- Übergang zur Maschine durch Zuhilfenahme von Fremdenergie (z.B. Pfeifenorgel, elektrische Gitarre)

ab 900
3. Automatisierung  

- Entdeckung der Stiftwalze (900), programmierbare Instrumente
- Konstruktion halbautomatischer (z.B. Drehorgel) und vollautomatischer Instrumente (Glockentürme, Spieluhren, Orchestrion, Pianola), auch über Lochplatten, Lochkartensteuerung, später elektronisch, analoge Sequencer, MIDI
- aufzeichnende Spieleinrichtungen (Welte-Mignon-Klavier, MIDI-Recording)
- Komponiereinrichtungen (Composer), mechanisch: Componium, elektronisch: Illiac (1956)
- "multimediale" Kombination mit Animationen, Androiden

ab 1900
4. Elektronifizierung

- Konstruktion elektromechanischer Instrumente (Cahills Telharmonium, Neo-Bechstein-Flügel, Hammond-Orgel, E-Gitarre usw.) (ab 1900, auf Elektronenröhre basierend)
- Verstärkung akustischer (mechanischer) Instrumente mit Mikrophon und Lautsprecher
- Konstruktion elektronischer Instrumente (Thereminvox, Trautonium, Sphärophon)
- Konstruktion neuartiger nichtmechanischer Interfaces (Thereminvox, Bandmanuale)
- Erste multimediale Kombinationen ("Farbenklavier", Lichtorgel, Lichttonfilm)

ab 1930
5. Modularisierung

- Konstruktion von Bausteinen zur Klangerzeugung und Klangveränderung (ansatzweise beim Trautonium in den 30er Jahren, ab den 50er Jahren als modulares Synthesizersystem, vor allem beim Moog-Synthesizer 1967)
- weitgehend freie Kombination von Klangbausteinen, Synthesizer = "Klangbaukasten"
- Transistorisierung, dadurch einsetzende Miniaturisierung, Verbilligung

ab 1975
6. Digitalisierung

- digitale Steuerung (Lochstreifensteuerung?, polyphone Tastaturen, MIDI)
- digitale Klangsynthese (numerische Oszillatoren)
- digitale Klangänderung (Realisierung von Filter, Verstärker, Effekte über Algorithmen)
- digitale Klangspeicherung (Sound Sampling)

- multimediale Kombination mit Bild und Video, dadurch Verschmelzung der medienvermittelten Wahrnehmungsebenen Bild und Ton, synästhetische Gesamtkunstwerke
- Chiptechnologie, preiswerte Massenware

ab 1990
7. Virtualisierung

- Digitalsynthesizer auf Software-Basis (native Algorithmen, auch modular konzipiert,    z.B. PlugIns)
- Simulation und Emulation von bewährten Instrumenten
- Modellierung neuer (mechanisch unmöglicher) Instrumente, Virtual Synthesis,    Physical Modelling, Granulare Synthese
- interaktive Instrumente
- graphische Interfaces, mausorientierte Bedieneroberflächen
- Entwicklung neuartiger Interfaces, z.B. "eye"-tracking, gesture controlling 

ab 1990
8. Globalisierung

- netzbasierte musikalische Kommunikation, distante Interaktion mit Maschinen
- globaler Austausch von MIDI-Dateien, von Noteninformationen
- Versenden von Sounds, z.T. datenkomprimiert, in Real Time oder als Datei
- Austausch und Abruf von virtuellen Instrumenten oder Sound Designs oder Skins
- virtuelle Konzerte
- Transfer von Videos (mit Sound)

ab 2000
9. Informatisierung / KI-Instrumente

- adaptive Begleitautomaten
- Musikroboter
- kreative Composersysteme
- automatische Analysesysteme

ab ??
10. Hybridisierung

- Brain-controlled-Multimedia-Synthesizer (Audio + Video)
- künstlerische Mensch-Maschine-Symbiosen
- klingende Räume, interaktive 3D-Instrumente
- musikalische (multimediale) Erlebniswelten
- Musikproduktion /-rezeption ohne Hardware?

entnommen aus:

Bernd Enders (Hrsg.) Mathematische Musik - musikalische Mathematik (Music in Numbers - Numbers in Music), mit Beiträgen von Bernd Enders, Martin Supper, Georg Hajdu, Joachim Stange-Elbe, Gunnar Johannsen, Uwe Seifert, Thomas Noll & Anja Volk, mit Audio-CD und CD-ROM, englische Kurzfassungen, Publikation gefördert von der VolkswagenStiftung Hannover, Saarbrücken 2005 (PFAU-Verlag)



 

DruckversionXHTML

Experimentelle Interfaces in Musik und Medienkunst

16104001 Großmann | Semester  
S | 5-9 | M: B2/B3; KI: B1/B2 | Do 15.45 - 18.00 | 7.215 UC 
Druckversion