Mit der Fotozelle und der Kathodenstrahlröhre wurden im späten 19. Jahrhundert analoge Medientechniken eingeführt, die es erlaubten, Klänge und Bilder zu transformieren. Die Fotozelle war als Bild-Klang-Wandler für die Entwicklung des Lichttons beim Film von zentraler Bedeutung. Bereits in den 1930er Jahren wurde dieses Potenzial zur Transformation auch künstlerisch erschlossen: Der Lichtton stellte nicht nur ein erstes effektives Verfahren zur gezielten Klangsynthese dar, sondern bot zudem die Möglichkeit, (auf)gezeichnete grafische Elemente hörbar zu machen und gleichzeitig im Bewegtbild mitzuverfolgen.
Mithilfe der Kathodenstrahlröhre als elektronischem Bilderzeuger lassen sich Klänge in Bilder umformen. Als Bilderzeuger bei Oszilloskopen und Fernsehern diente sie in frühen Video-Experimenten der 1960er Jahre der simultanen Transformation akustischer Signale in Bewegtbilder. Die Spezifik dieser audiovisuellen Transformationsprozesse wurde immer wieder als grundlegende Formungsbedingung der Kunstproduktion für Auge und Ohr reflektiert. Dabei wird deutlich, dass technische Audiovisualität in einem ganz eigenen Verhältnis zu den Sinnen steht und Klang-Bild-Konvergenzen hervorbringt, die sich von synästhetischen Entsprechungen und strukturellen Analogien unterscheiden.
Audiovisuelle Transformation bezeichnet die Umformung von Klängen in Bilder bzw. von Bildern in Klänge. Im Unterschied zum digitalen Parameter-Mapping ist hier die analoge Transformation gemeint. An dieser Art der Umformung sind Medien in übertragender Funktion beteiligt und als Formungsbedingungen ästhetisch wirksam. Besonders anschaulich wird dies in den Grenzbereichen von Film, elektroakustischer Musik und Videokunst, in denen sich audiovisuelle Strategien entwickelten, die auf die technische Medialisierung von Klängen und Bildern reagieren. Ebenso wie Konzepte der Farbe-Ton-Analogien und strukturellen Analogien reflektieren Transformationsmodelle ein spezifisches Nachdenken über die Relationen von Klängen und Bildern und das Wechselverhältnis der Kunstgattungen im 20. Jahrhundert. Raoul Hausmann beispielsweise beschrieb 1922 die fotoelektrische Zelle als Instrument, mit dem sich die Evidenz einer Licht- und Ton-Identität demonstrieren ließe, angesichts derer keinerlei Zusammenhänge zwischen Malerei und Musik im Sinne der alten Gattungen und sentimentalen Ordnungen anzuerkennen seien.[1] In den gut zehn Jahre später erschienenen Schriften László Moholy-Nagys und John Cages schrieb sich die Reflexion über das Verhältnis von audiovisueller Medientechnologie und Kunstproduktion fort.[2] Diese frühen ästhetisch-konzeptuellen Überlegungen zur Transformierbarkeit von Klängen und Bildern können im Hinblick auf die audiovisuellen Experimente im Video seit den späten 1950er Jahren als Pionierleistungen angesehen werden.[3]
Ersten Berichten über fotografische Klangaufzeichnungsversuche aus dem frühen 19. Jahrhundert ist zu entnehmen, wie Daguerre-Platten mittels eines an einer Aufnahmemembran befestigten Spiegels belichtet wurden. Die Entdeckung der fotoelektrischen Eigenschaften von Selen[4] im Jahr 1873 führte zur Entwicklung der Fotozelle, die schließlich beim Tonfilm dazu verwendet wurde, Schwankungen der Lichtstärke in Schall umzuwandeln. Die Grundlagen für das Lichttonverfahren legten Ernst Ruhmer und Eugène Augustin Lauste. Zu ersten Lichtton-Vorführungen kam es 1916 durch Dénes von Mihály, 1921 durch Sven Berglund und 1922 durch Joseph Tykociński-Tykociner sowie Hans Vogt, Joseph Massolle und Joseph Engl, die bekannt wurden als Tri-Ergon-Gesellschaft.
Tonfilm stellt das erste Speichermedium für Klang und Bild dar: Auf dem Zelluloidstreifen sind sowohl das auf der Zeitachse entfaltete Bildgeschehen als auch der Lichtton, das optisch aufgezeichnete Klanggeschehen, gespeichert. Im Zuge der Entwicklung des Tonfilms haben sich mehrere optische Klangaufzeichnungsverfahren herausgebildet, die sich zwar hinsichtlich ihrer medientechnischen Details unterscheiden, aber bezüglich der Prinzipien der audiovisuellen Übertragung vergleichbar sind. Die oszillografische Transversalschrift[5] hat sich als Standardverfahren etabliert.
Hierbei wird zunächst der aufzuzeichnende Schall mit einem Mikrofon in elektrische Spannungsschwankungen gewandelt. Die Übertragung des Signals ins Lichtbild leistet ein elektromagnetisch bewegter Spiegel, der entsprechend der vom Schall ausgelösten Spannungsschwankungen vibriert. Dieser schwingende Spiegel reflektiert einen Lichtstrahl, der die Vibrationen als Tonspur zwischen Bildkader und Perforation auf den vorbeilaufenden Zelluloidstreifen abbildet. Somit wird Klang als oszillografische Kurve aufgezeichnet, gewissermaßen fotografiert.[6] Die belichtete Tonspur weist eine zum Schalldruckpegel proportionale Transparenz auf: Bei hoher Amplitude ist sie durchlässiger. Nach entsprechend umgekehrtem Schema verläuft die Abtastung der Kurve bei der Wiedergabe des Films. Eine elektrische Lichtquelle durchleuchtet die im Projektor vorbeiziehende Tonspur und trifft auf eine dahinterliegende Fotozelle, welche in Abhängigkeit von der Menge bzw. Intensität des auftreffenden Lichts Wechselspannung erzeugt. Diese Spannungsschwankungen werden mittels Verstärkerröhre und Lautsprecher hörbar gemacht.
Speichertechniken unterliegen der Logik der Reversibilität von Aufzeichnung und Wiedergabe. Die Tatsache, dass sich die optische Tonspur und das elektroakustische Signal entsprechen, ermöglicht auch die Synthese von Klängen, indem entsprechende Wellenformen direkt gezeichnet oder durch Schablonen auf die Tonspur belichtet werden. So war der Lichtton als fotoelektrisches Klangsyntheseverfahren neben seiner Relevanz für die Entwicklung des Tonfilms auch grundlegend für die Konstruktion unterschiedlicher elektronischer Musikinstrumente. Meist erfolgte die Klangerzeugung dabei nach dem Verfahren der Wavetable-Synthese[7] mittels konzentrisch rotierender Lochscheiben oder teilgeschwärzter Glasscheiben, die das auf die Fotozelle treffende Licht modulierten. In den ausgehenden 1920er und frühen 1930er Jahren wurde eine ganze Generation elektrischer Orgeln entwickelt, die auf diesem Verfahren basieren. Dazu zählen etwa das Cellule Photo-électrique (1927) von Pierre Toulon und Krugg Bass, das von Emerick Spielmann entwickelte Superpiano (1929) und schließlich Edwin Weltes Lichttonorgel (1936). Jewgeni Sholpos Variophone (1932) und Daphne Orams Oramics (1959) sind Techniken, die belichtete Zelluloid-Loops als Klanggenerator verwenden.
Zu den frühesten künstlerisch motivierten Experimenten mit fotoelektrischer Klangerzeugung zählen die Versuche des russischen Futuristen Arsenij Awraamow aus dem Jahr 1930. Awraamow entwickelte Methoden, Wellenformen zunächst in größeren Formaten per Hand zu zeichnen, um sie anschließend fotografisch skaliert auf der schmalen Tonspur des Films aufzubringen und so Klänge zu synthetisieren. Im selben Jahr arbeitete der Trickfilmzeichner und Ingenieur Rudolf Pfenninger an ähnlichen Methoden zur Entwicklung einer Tönenden Handschrift (DE 1932). Wie Pfenningers Experimente waren auch die Versuche des russischen Erfinders Boris Jankowski in den Jahren 1932 bis 1939 in erster Linie von wissenschaftlichen Interessen an der Elektroakustik und Phonetik geleitet. Jankowski war es, der die Potenziale des Lichttons zur gezielten Klangbearbeitung (spektrale Analyse und Resynthese, Timestretching oder Formantsynthese-Verfahren) ausschöpfte.[8]
Von den medientechnischen Voraussetzungen des Lichttons wurden jedoch bereits in den 1920er Jahren auch Formungsbedingungen für die künstlerische Produktion abgeleitet. László Moholy-Nagy beispielsweise distanzierte sich im Jahr 1927 von Konzepten der Farblichtkunst und sah in der Optofonetik den Ort, an dem der ästhetische Diskurs über das Verhältnis des Optisch-Kinetischen und des Akustisch-Musikalischen zukünftig geführt werde.[9] In seinem 1933 veröffentlichten Aufsatz Neue Filmexperimente[10] bezieht er sich auf die künstlerische Aneignung der Lichttonmethode als Bestätigung seiner bereits 1923 verfassten Thesen zu den Möglichkeiten des Grammophons.[11] Bemerkenswert ist, dass Moholy-Nagy in diesen Texten wie auch John Cage in seinem 1937 gehaltenen Vortrag The Future Of Music: Credo zwei antagonistische Modelle des künstlerischen Umgangs mit dem Lichtton skizzieren. Auf der einen Seite fordern beide Autoren das exakte Studium der grafischen Zeichen der verschiedensten akustischen Phänomene[12], um eine umfassende Kontrolle über das Obertonspektrum zu erhalten und Partialtöne in beliebiger Frequenz, Amplitude und Dauer verfügbar zu machen[13]. Zudem werde die Lichttonmethode erlauben, die Musik völlig neu zu gestalten[14] und Methoden hervorbringen, die eine deutliche Beziehung zu Schönbergs Zwölftonsytem aufweisen[15]. Ganz im Sinne der Auffassung Theodor W. Adornos, nach der das Neue in der Kunst aus der fortschreitenden Evolution des künstlerischen Materials emergiere, wurde der Lichtton als Instrument zur subjektiven Kontrolle über die Organisation von Klang verstanden. Auf der anderen Seite führten Moholy-Nagy und Cage in der Reflexion über den Lichtton das Konzept einer experimentellen ästhetischen Praxis ein. Jegliches optische Material könne als Quelle für die Klangerzeugung dienen.[16] Der apparativen Logik der Fotozelle überlassen, sind die klangliche[n] Resultate theoretisch nicht abzusehen[17]. In diesem Zusammenhang verweist Moholy-Nagy auf Experimente, bei denen das Profil eines Menschen […] auf ein Filmband gezeichnet und dann hörbar gemacht[18] wurde. In diesen Versuchen, die zweidimensionale Spur der menschlichen Physiognomie aufgrund der ikonischen Ähnlichkeit mit der Transversalschrift des Phonographen hörbar zu machen, äußert sich ein Anthropomorphismus, der auch Rainer Maria Rilke zu der Idee anregte, die Kranznaht eines menschlichen Schädels mit einer Phonographennadel abzutasten.[19] Moholy-Nagy beschreibt darüber hinaus die Studien des Filmemachers Oskar Fischinger, der sich neben seinen Studien zur Synchronisation von Instrumentalmusik und animierten visuellen Formen seit ca. 1931 mit dem gezeichneten Lichtton beschäftigt hatte. Fischinger brachte geometrische Muster und Ornamente auf der Tonspur des Filmstreifens auf, wobei auch er die Diskrepanz zwischen der Zeichenhaftigkeit dieser Figuren und dem gänzlich indifferenten medialen Blick der Fotozelle kaum thematisierte, denn er schrieb in zwei Zeitungsartikeln von 1932: Zwischen Ornament und Musik bestehen direkte Beziehungen, d.h. Ornamente sind Musik. […] Man darf vielleicht hoffen, dass sich Beziehungen zwischen linearer Formschönheit und musikalischer Schönheit finden lassen.[20] Zwar können wir die optische Tonspur als zweidimensionale Gestalt wahrnehmen, doch die Fotozelle wertet nur jeweils eine optische (schwankende Lichtintensität) und eine zeitliche Dimension (Frequenz der Intensitätsschwankung) aus. Deshalb können unterschiedliche optische Muster auf der Lichttonspur dieselben Intensitätsdifferenzen verursachen und werden daher als gleich klingend wiedergegeben. Folglich kann von einer eindeutigen Entsprechung von geometrischen Formen und Klang nur bedingt die Rede sein; diese muss mit Blick auf die Wechselwirkung von medialer Operation und menschlicher Wahrnehmung differenzierter gelesen werden.
Die Möglichkeit der audiovisuellen Transformation provozierte ein Changieren zwischen semiotischen und medialen Registern, welches Guy Sherwin in seinen gut vierzig Jahre nach Fischinger realisierten Optical Sound Films (UK ab 1971) reflektiert. Sherwin fand das patternhaft Zyklische des optischen Filmtons nicht in der abstrakten Zeichnung, sondern im fotografischen Abbild, indem er Zaunpfosten oder Treppenstufen mit der Kamera abfuhr und sowohl auf die Bild- sowie auf die Tonspur belichtete. Das Hörbarmachen der dem Indexikalischen verhafteten Fotografie als Spur eines Licht- und Schattenspiels, das von architektonischen Elementen herrührt, treibt Sherwins Konzept des Medienwechsels auf die Spitze. Im Film Newsprint (UK 1972) verleiht er dieser Zuspitzung besonderen Nachdruck, indem er Zeitungspapier auf den Zelluloidstreifen klebt und so das räumlich distanzierte Ablichten durch direkten physischen Kontakt ersetzt. Film wird wörtlich zum Bild- und Tonträger. Sherwin lässt hier Schrift und Filmton, d. h. Symbol und Signal, aufeinander prallen.
Den Versuch, die optische Aufzeichnungsart der Lichttons simultan visuell erfahrbar zu machen, unternahmen unter anderen auch Norman McLaren[21] (Synchromy, CA 1971) und Lis Rhodes (Light Music, UK 1975). Die Anlage der Bildspur in diesen Filmen entspricht den äquidistanten Balken auf der Lichttonspur. Für die transformatorische Verwendung des Lichttons in der zeitgenössischen Kunstpraxis sind besonders Arbeiten von Bruce McClure und das Tonewheels-Projekt von Derek Holzer repräsentativ.
Wassily Kandinsky formulierte in seiner Schrift Punkt und Linie zu Fläche von 1926: Die geometrische Linie ist ein unsichtbares Wesen. Sie ist die Spur des sich bewegenden Punktes, also sein Erzeugnis. Sie ist aus der Bewegung entstanden – und zwar durch die Vernichtung der höchsten und in sich geschlossenen Ruhe des Punktes.[22] Die Gültigkeit dieses Satzes für die Urszene eines Mediums, das prima vista mit der künstlerischen Zeichnung keine besonderen Gemeinsamkeiten aufzuweisen scheint, erläuterte Claus Pias in einem Aufsatz über die Genealogie der Computergrafik.[23]
Gemeint ist hier die elektromagnetische Ablenkung eines Elektronenstrahls im Inneren einer Kathodenstrahlröhre, dem bildgebenden Bauelement von Radardisplays, Oszilloskopen und Vektorbildschirmen.[24] Hier liegt das Bild nicht wie beim Film als Fläche vor, sondern als Akkumulation von Wegstrecken, die ein Leuchtpunkt auf einem Phosphorschirm mit hoher Geschwindigkeit zurücklegt. Das permanent fließende elektronische Bild konstituiert sich über die Zeit aufgrund der Trägheit unserer visuellen Wahrnehmung, wobei die vom Leuchtpunkt nachgezeichneten Strecken zu einer statisch erscheinenden Kurve verschmelzen. Diese Schweife des Leuchtpunktes sind ephemere Artefakte unserer visuellen Sinneszellen. Nur durch das fortwährende Nachzeichnen der Spur des Bildpunktes überwindet die Linie ihr Verschwinden ins Unsichtbare.
Rechtwinklig überlagerte Steuersignale, die auf elektromagnetischem Weg den Elektronenstrahl in der Bildröhre ablenken, beschreiben die Bewegung des Leuchtpunkts. Damit liegt das bewegte Bild im Video nur mehr als Signalfluss vor, wohingegen es beim Film an den Prozess der medialen Fixierung auf Zelluloid gebunden ist. Aus diesem Grund wurden im Unterschied zu Strategien der fotoelektrischen Klangerzeugung mit dem Lichtton im Video vorwiegend Methoden zur Visualisierung von Klängen bzw. Musik entwickelt. Im Unterschied zum bildnerischen Prinzip des statischen Zelluloids ist die zeitliche Kontinuität des elektronischen Bildsignals musikalisch als Klang der Ein-Zeilen-Abtastung zu verstehen.[25] Mikrofonierte oder synthetisierte Klänge bilden dementsprechend das Ursprungs- oder Inputsignal, das den Bildpunkt trägheitslos ablenkt. Die Frage nach den ästhetischen Konsequenzen dieser Flüchtigkeit und Immaterialität der elektronischen Bilder führte in den 1960er Jahren zu künstlerischen Experimenten mit dem videoimmanenten Potenzial zur Bilderzeugung durch Klang.
Die Basis der analog-elektronischen Audiovisualität ist das Signal, das über Lautsprecher und Bildröhren simultan sichtbar und hörbar gemacht wird. Entscheidend für das elektronische Bild ist das Prinzip der orthogonalen Überlagerung zweier Schwingungen. Jeweils eine Wellenform wird auf der Abszisse und auf der Ordinate angetragen und spannt so die Bildfläche auf. Die spezifische Zusammensetzung der Signale kann auf unterschiedliche Weise erfolgen, was schon die zahlreichen verschiedenen Videoformate zeigen. Prinzipiell lassen sich mit der Bildröhre jedoch beliebige Wellenformen darstellen. Gemeinsam ist diesen Bildformaten, dass sie den Gesetzen der allgemeinen Schwingungslehre unterliegen, was sie mit älteren Bildtypen vergleichbar macht.
Im Jahr 1815 beschrieb der Mathematiker Nathaniel Bowditch erstmals Funktionen der senkrechten Überlagerung harmonischer Pendelschwingungen. Infolge dieser Entdeckung wurden verschiedenste mechanische Instrumente zur Erzeugung solcher Bowditch Curves konstruiert, darunter zahlreiche sogenannte Harmonographen[26] und Charles Wheatstones Kaleidophon (1827) zur direkten Beobachtung von Schwingungsmustern aus Licht an klingenden Metallstäben. Bekannt wurden die Kurven schließlich als Lissajous-Figuren, da Jules Antoine Lissajous sie im Jahr 1857/1858 im Rahmen akustischer Experimente zum Schwingungsverhalten von Festkörpern untersuchte. Im Zuge der Erfindung elektronischer Bildgebungsverfahren im Jahr 1897 durch Karl Ferdinand Braun wurden Schwingungsverläufe auch an elektrischen Signalen beobachtbar. So wurde das Oszilloskop als physikalisches Messinstrument zur Bestimmung von Wechselspannungen entwickelt.
Wie auch bei der Übertragung optischer Muster in Klang durch den Lichtton handelt es sich bei der elektronisch erzeugten Audiovisualität um ein spezifisches Wechselverhältnis von medialer Operativität und Prozessen der Wahrnehmung. Die senkrechte Überlagerung der Schwingungsvorgänge als zweidimensionale Darstellung, die uns akustische Vorgänge im elektronischen Bildmedium überhaupt erst visuell zugänglich macht, stellt immer schon eine Interferenz zweier Signale dar, die den Bildpunkt in je eine Richtung ablenken – horizontal und vertikal. Zudem erscheint die Schwingungsbewegung einer Lissajous-Figur oberhalb der Verschmelzungsfrequenz des menschlichen Auges (ca. 18 Hz) statisch, wobei das menschliche Gehör spektrale Anteile unterhalb dieser Frequenz nicht wahrzunehmen vermag. Somit repräsentiert eine Lissajous-Figur keine bestimmte Frequenz und es besteht keine eindeutige Entsprechung von Tonhöhe und Figur. Vielmehr sind Beziehungen wie Frequenzverhältnisse (Intervalle) und Phasenrelationen im niedrigeren Frequenzbereich Faktoren, welche Klang und Bild vergleichbar machen. Abhängig von der Komplexität des audiovisuellen Wahrnehmungsangebots kommt es zu bestimmten Konvergenzen zwischen medientechnischen und wahrnehmungsbezogenen Aspekten. Für einen ästhetischen Umgang mit elektronischer Audiovisualität scheinen gerade diese Schnittpunkte reizvoll zu sein, um den Blick auf die Medialität, die Gemachtheit der Übertragung, freizulegen. Intuitiv nachvollziehbare Konvergenzen ergeben sich beispielsweise aufgrund der exakten Simultaneität von Klang und Bild, welche durch die analoge elektromagnetische Kopplung in einer Präzision gewährleistet ist, die in digitalen Kopplungssystemen unerreichbar bleibt. Gleiches gilt für die Vergrößerung der Figuren bei höheren Pegeln, verursacht durch den höheren Amplitudenausschlag. Schließlich entspricht auch die wachsende Komplexität der Lissajous-Figuren bei komplexer werdenden harmonischen Schwingungsverhältnissen dem Höreindruck. Entsprechungen dieser Art werden beim algorithmischen Parameter-Mapping digitaler audiovisueller Systeme häufig simuliert.
Die elektronische Bildsynthese wurde als ästhetisches Verfahren zunächst im älteren Medium Film erprobt, der sich in den 1930er Jahren bereits als abstrakte Kunstform etabliert hatte. Mary Ellen Bute[27] und in den 1950er Jahren auch Hy Hirsh sowie Norman McLaren integrierten Lissajous-Figuren in ihre animierten Bilder, indem sie Oszilloskopschirme abfilmten. Die Möglichkeiten der geometrischen Bildsynthese stießen darüber hinaus auch auf Interesse bei Vertretern der Op-Art, kinetischen Kunst und frühen Computergrafik.[28] Die Kathodenstrahloszillographie wurde zudem bei Musikvisualisierungen in den elektronischen Studios in Berlin von Fritz Winckel (1960er Jahre) und in Paris von Pierre Schaeffer (La Trièdre Fertile, 1975) erprobt.[29] Weiterhin nutzte Reynold Weidenaar analoge Synthesizer und Oszilloskope für audiovisuelle Kompositionen (1979) und Bill Hearns Videosynthesizer VIDIUM (1969), ein speziell für diesen Zweck modifizierter Audiosynthesizer, ermöglichte die gezielte Synthese komplexer Lissajous-Figuren. Aufgrund der trägheitslosen Kopplung der elektronischen Klang- und Bildsignale wurden Kathodenstrahlröhren von Nam June Paik und David Tudor für den partizipativen bzw. performativen Live-Einsatz nutzbar gemacht. Paiks Experimente mit der audiovisuellen Kopplung von Fernsehgeräten, Tonbandmaschinen und Mikrofonen in seiner ersten Einzelausstellung Exposition of Music – Electronic Television 1963 gelten als der notorische Beginn der Videokunst. In Zusammenarbeit mit Lowell Cross realisierte David Tudor 1966 anlässlich der 9 Evenings: Theatre and Engineering das Stück Bandoneon! (a combine), bei dessen Aufführung bereits mehrere audiovisuelle Transformationsverfahren zum Einsatz kamen. Für den Pepsi-Cola Pavillion der Expo 1970 in Osaka entwickelten Tudor und Cross zusammen mit dem Physiker Carson D. Jeffries ein multiples Ablenkungssystem für Laserstrahlen, welches nach denselben Prinzipien wie bei der genannten elektronischen Bilderzeugung operiert. Mit einer hybriden analog-digitalen Kopplung erweiterte schließlich Robin Fox in seiner Videoserie Backscatter (2004) die Möglichkeiten der Synthese von Lissajous-Figuren und experimentiert, wie auch der Medienkünstler Edwin van der Heide[30], in jüngster Zeit verstärkt mit Ablenksystemen für Laser-Sound-Performances. Fox überschreitet mit seinen audiovisuellen Performances die Grenzen der auf eine Leinwand zentrierten Projektionssituation, indem er die mit Kunstnebel gefüllten Räume, in denen die Laserperformances stattfinden, als Projektionsvolumina bespielt. Erneut erweisen sich Moholy-Nagys vorausschauende Überlegungen als zutreffend, denn bereits 1936 räumte er in seinem Aufsatz probleme des neuen films ein: es ist auch durchaus denkbar, dass rauch oder dunstgebilde gleichzeitig von verschiedenen projektionsapparaten getroffen werden oder dass an den schnittpunkten der verschiedenen lichtkegel lichtgestalten sich bilden.[31]
[1] Raoul Hausmann: »Optofonetika«, in: MA, 1922, Auszug abgedruckt in: Vom Klang der Bilder: Die Musik in der Kunst des 20. Jahrhunderts, Karin v. Maur (Hg.), Staatsgalerie Stuttgart, München 1985, S. 140.
[2] Siehe als früheste Beispiele etwa die Aufsätze Neue Filmexperimente 1933 (S. 332–336) und probleme des neuen films 1936 (S. 344–350) von László Moholy-Nagy, wieder abgedruckt in: Krisztina Passuth, Moholy-Nagy, Weingarten 1986, sowie im Vergleich dazu John Cage, »The Future Of Music: Credo« (1937), in: Ders., Silence, Middletown/Conn., 1961, S. 3–6.
[3] Den Versuch, die bisher nur für Reproduktionszwecke angewandten Apparate (Mittel) zu produktiven Zwecken zu erweitern, perspektivierte Moholy-Nagy explizit auch für den Fernseher (Telehor), siehe Moholy-Nagy, »Produktion Reproduktion«, in: Malerei Fotografie Film, 1927, Nachdruck Berlin 2000 (= Neue Bauhausbücher), S. 28. Telehor bezeichnet ein von Dénes von Mihály im Jahr 1919 entwickeltes mechanisches Fernsehsystem, das mit einer Nipkow-Scheibe arbeitete.
[4] Der britische Elektroingenieur Willoughby Smith machte die Entdeckung, dass das chemische Element Selen durch Lichtveränderung seinen elektrischen Widerstand ändert.
[5] auch Zackenschrift genannt.
[6] Walter Ruttmann wollte sein experimentelles Hörspiel Weekend (1930), das durch Montage optisch aufgezeichneter Klänge entstand, demnach als fotografische Hörkunst verstanden wissen, siehe Jeanpaul Goergen, Walter Ruttmanns Tonmontagen als ars acustica, Massenmedien und Kommunikation 89, Siegen 1994, S. 25.
[7] Bei diesem heute in Synthesizern verbreiteten Klangerzeugungsverfahren wird eine (auf)gezeichnete Wellenform im Loop aus einer Wellentabelle (Wavetable) herausgelesen und durch unterschiedliche Lesegeschwindigkeiten als variable Tonhöhen ausgegeben.
[8] Vgl. Andrey Smirnov, Sound out of Paper, http://asmir.theremin.ru/gsound1.htm.
[9] László Moholy-Nagy, »Die statische und kinetische optische Gestaltung«, in: Malerei Fotografie Film, (1927) 2000, S. 20.
[10] Moholy-Nagy, »Neue Filmexperimente«, in: Krisztina Passuth, Moholy-Nagy, Weingarten 1986, S. 332–336.
[11] Moholy-Nagy, »Neue Gestaltung in der Musik. Möglichkeiten des Grammophons« (1923), wieder abgedruckt in: Passuth, Moholy-Nagy, Weingarten 1986, S. 308–309.
[12] Moholy-Nagy, »Neue Gestaltung in der Musik«, 1986, S. 309.
[13] Übersetzung des Autors, vgl. John Cage, »The Future Of Music: Credo« 1961, S. 4: […] provide control over the overtone structure of tones […] and to make these tones available in any frequency, amplitude and duration.
[14] Moholy-Nagy, »Neue Filmexperimente«, 1986, S. 335.
[15] Übersetzung des Autors, vgl. John Cage, »The Future Of Music: Credo« 1961, S. 5: New methods will be discovered, bearing a definite relation to Schoenberg’s twelve-tone system.
[16] Übersetzung des Autors, vgl. Cage, »The Future Of Music: Credo« 1961, S. 4: Any design repeated often enough on a soundtrack is audible.
[17] Diese Formulierung findet sich bereits bei Überlegungen zu einer handgeschriebenen Ritzschrift für das Grammophon. Moholy-Nagy, »Neue Gestaltung in der Musik«, 1986, S. 309.
[18] Moholy-Nagy, »Neue Filmexperimente«, 1986, S. 336, vgl. hierzu auch Dayton Clarence Miller, The Science of Musical Sounds, New York (1916) 2007, S. 119–120.
[19] Rainer Maria Rilke, »Ur-Geräusch«, in: ders., Sämtliche Werke, hrsg. vom Rilke-Archiv in Verb. mit Ruth Sieber-Rilke, besorgt durch Ernst Zinn, Bd. VI, Frankfurt a. M. 1987, S. 1085–1093.
[20] Oskar Fischinger, »Klingende Ornamente«, Deutsche Allgemeine Zeitung, 28 Juli 1932, vgl. dazu auch den im vorliegenden Band auszugsweise abgedruckten Aufsatz »Tönende Ornamente. Aus Oskar Fischingers neuer Arbeit«, in: Film Kurier Berlin, 30. Juli 1932.
[21] Ein neues Verhältnis zum Ton beobachtet Gilles Deleuze exemplarisch an Arbeiten Norman McLarens in seinem Buch Das Zeit-Bild. Kino 2, (Cinéma 2. L’image-temps, Paris 1985), Frankfurt a.M., 1997, S. 276.
[22] Wassily Kandinsky, Punkt und Linie zu Fläche, 7. Aufl., Bern 1973, S. 57f.
[23] Claus Pias »Punkt und Linie zum Raster«, in: Ornament und Abstraktion, Markus Brüderlin (Hg.), Kat. Fondation Beyeler, Köln (Dumont) 2001, S. 64-69, http://www.uni-due.de/~bj0063/texte/abstraktion_de.html.
[24] Auch Fernseh- und Computerbildschirme beinhalteten bis zur Einführung von LCD-Flachbildschirmen eine Kathodenstrahlröhre.
[25] Siehe Bill Viola, »Der Klang der Ein-Zeilen-Abtastung«, in: Theaterschrift 4: The Inner Side of Silence, Brüssel 1993, S. 16–54.
[26] Vgl. Robert J. Whitaker, »Types of Two-Dimensional Pendulums and Their Uses in Education«, in: Michael R. Matthews, Colin F. Gauld, Arthur Stinner, The Pendulum: Scientific, Historical, Philosophical and Educational Perspectives, Dordrecht 2005, S. 377–391, hier S. 383ff., vgl. auch http://physics.kenyon.edu/EarlyApparatus/Oscillations_and_Waves/Harmonographs/Harmonographs.html.
[27] http://www.ima.or.at/lichtmusik/?cat=1&language=en
[28] Vgl. etwa die Lichtformen und Oszillogramme von Herbert W. Franke (http://www.zi.biologie.uni-muenchen.de/~franke/Kunst1.htm) oder die Rhythmogramme von Heinrich Heidersberger (http://www.heidersberger.de/scripts/frontend/index.php3?ACTION=MENUEPUNKT&ID=1032) aus den 1950er Jahren.
[29] Winckel hatte bereits ab 1932 an Musikvisualisierungsverfahren gearbeitet, bei denen eine Nipkow als Wiedergabegerät verwendet wurde.
[30] http://www.evdh.net/lsp/index.html
[31] Moholy-Nagy, »probleme des neuen films« (1936) 1986, S. 348.
Personen |
Werke |
Zeitrahmen 1800 bis heute Alle Schlagwörter Körperschaften |