In der zweiten Hälfte des 19. Jahrhunderts werden Verfahren entwickelt und Apparate gebaut, durch die Töne und bewegte Bilder in der Zeit sich selbst aufzeichnen und dann wiedergegeben werden können: Grammophon und Film. Von hier setzt eine Geschichte technischer audiovisueller Medien ein, in denen ein zentrales Problem der darin vorkommenden Bild-Ton-Beziehungen ein zeitliches ist, genauer gesagt, eines der Herstellung einer Gleichzeitigkeit von Sehen und Hören, oder, als technisches Problem formuliert, der Synchronisation von Ton und Bild. An markanten historischen Stellen des Problems der technischen Verkoppelung von Bild- und Tonmedien vom Kineto-Phonographen Edisons bis hin zu digitalen audiovisuellen Formaten zeigt sich, dass die daran beteiligten einzelnen technischen Medien für Bild und Ton ebenso wechseln wie die Methoden ihrer Synchronisation. Mit der jeweiligen Auswechslung der Vertragspartner verändert sich auch der audiovisuelle Kontrakt.
Mit Synchronisation werden ganz allgemein Praktiken, Techniken oder Vorgänge bezeichnet, bei denen es um die Zusammenfügung oder Koordination unterschiedlicher Zeiten, die Distribution von Zeit oder die Herstellung von Gleichzeitigkeit geht.[1] In dieser unscharfen Definition deutet sich an, dass es verschiedene Möglichkeiten der Synchronisation und ihrer Konzeptualisierung gibt, die wiederum mit verschiedenen Zeitkonzepten korrespondieren: Existiert so etwas wie eine absolute Zeit, ein Zentrum, auf das lokale Zeiten abgestimmt werden oder gibt es andersherum tatsächlich heterogene eigene Zeiten, die bei ihrem Zusammentreffen, an ihren Fugen, so etwas wie eine Zwischenzeit oder eine übergreifende Zeit generieren?[2] Wenn der Begriff audiovisuelle Medien als technische und zeitbasierte Medien des Sehens und Hörens definiert wird, so ergibt sich daraus schon, dass das Verhältnis von Ton und Bild sowie von Hören und Sehen in diesen Medien zentral durch ihre spezifischen Synchronisationsprobleme gekennzeichnet ist. Aus medienhistorischer Sicht ist dabei die Unschärfe des Synchronisationsbegriffs besonders im Hinblick auf das Verhältnis zwischen Sinnen und Medien interessant: Wo entsteht Gleichzeitigkeit von Sehen und Hören, irgendwo zwischen Medium und Betrachter? Diskurse darüber, was unter Begriffen wie Asynchronismus[3] oder Synchresis[4] zu verstehen ist, setzen dort ein. An markanten historischen Stellen des Problems der technischen Verkoppelung von Bild- und Tonmedien, vom Kineto-Phonographen Edisons bis zu digitalen audiovisuellen Formaten, zeigt sich, dass die eingesetzten einzelnen Medien für Bild und Ton ebenso wechseln wie die Methoden ihrer Synchronisation. Entsprechend stellt ein solcher Vergleich verschiedener Verfahren der Synchronisation zunächst nicht die Frage, was ein Bild oder ein Ton eigentlich sei, sondern die, welche Relationen diese jeweils zueinander einnehmen. Genauer: In welchen zeitlichen Verhältnissen und an welchen Positionen können Töne und Bilder in audiovisuellen Anordnungen vorkommen? Diese audiovisuellen Gefüge lassen sich als unterschiedliche Verteilungen medialer Funktionen wie Speichern, Übertragen und Verarbeiten[5] zwischen den an Aufzeichnung, Bearbeitung und Präsentation beteiligten Apparaten, Dingen, Menschen und so weiter beschreiben. Dies erlaubt, sie als Schnittstellen zwischen Produktion der Zeit und Zeit der Produktion zu konzeptualisieren.
In der zweiten Hälfte des 19. Jahrhunderts werden Apparate gebaut, mit denen Töne und bewegte Bilder in der Zeit sich selbst aufzeichnen und wiedergegeben werden können: Grammophon und Film.[6] Diese technischen audiovisuellen Medien könnten als die materialisierte Theorie[7] der Trennung der Sinne[8] oder des Autonomwerdens von Auge und Ohr im 19. Jahrhundert bezeichnet werden, insofern sie auf ein bestimmtes Wissen von der Spezifität der einzelnen Sinne rekurrieren und dieses in der Unterschiedlichkeit ihres technischen Funktionierens implementieren.[9] Eine auf diesen Medien basierende Herstellung von Ton-Bild-Relationen stellt sich, weil ihre Unterschiedlichkeit insbesondere auch ihr zeitliches Funktionieren betrifft, als ein Problem der Gleichzeitigkeit dar.
Zwischen 1888 und 1895 unternehmen Thomas Alva Edison und William Kennedy Laurie Dickson verschiedene Versuche, die von der Idee ausgehen, dass es möglich wäre, ein Instrument zu entwickeln, das für das Auge das tun würde, was der Phonograph für das Ohr tut, und dass durch eine Kombination der zwei alle Bewegungen und Geräusche gleichzeitig aufgezeichnet und wiedergegeben werden könnten.[10] Anhand dieser Versuche lässt sich nachvollziehen, wie der Kinetograph und das Kinetoskop sich gegenüber dem Phonographen zunehmend verselbstständigen,[11] weil die Koppelung von Bild- und Tonapparaturen hier ein Problem aufwirft, das sich in ähnlicher Weise bis heute in audiovisuellen Medien wiederfinden lässt: Der Phonograph muss stetig bewegt werden und, weil sich Geschwindigkeitsschwankungen sehr leicht in hörbaren Tonhöhenschwankungen niederschlagen, möglichst gleichmäßig laufen. Das kinematografische Prinzip dagegen beruht gerade auf der Zerhackung oder Diskretisierung von Bewegung in stillstehende Einzelbilder, die in schneller Folge wiederum eine Bewegungswahrnehmung ergeben. Das Filmband wird für die Zeit der Belichtung angehalten und dann bei geschlossenem Shutter ruckartig zum nächsten Bild weitertransportiert. Wegen dieser Differenz zwischen kontinuierlichem und diskontinuierlichem Antrieb ist die direkte, starre, mechanische Verbindung der beiden Geräte, zum Beispiel über eine gemeinsame Achse, unmöglich.[12] Eine genaue zeitliche Zuordnung von Ton und kinematografischem Bild, ihre Synchronisation, bedarf also irgendeiner Art von Vermittlungs- oder Übersetzungsoperation. [Dickson Experimental Sound Film] (ca. 1895), ist im Zusammenhang dieser frühen Experimente Edisons und Dicksons zu verstehen.
Während das Kinetophon Edisons von 1895 ein geschlossener Guckkasten ist, eröffnet sich mit der Film-Projektion ein Raum, den Grammophon-Film-Kombinationen nun zu bespielen haben: das Kino. Das betrifft in technischer Hinsicht neben dem Problem der Verstärkung des Tons eben besonders das der Synchronisation, denn der Ton soll von dort kommen, wo der Projektor unmöglich sein kann: von der Leinwand. Die diversen Nadeltonsysteme, auch Tonbilder genannt, die ab 1896 insbesondere in Frankreich und Deutschland zum Beispiel von Léon Gaumont (ab 1902) und Oskar Messter (ab 1903) entwickelt und vermarktet wurden, waren übrigens erfolgreicher, als die Rede von der Durchsetzung des Tonfilms am Ende der 1920er Jahre dies vermuten lassen würde.[13] Einerseits werden die Bewegungsgeschwindigkeiten der beiden Geräte durch verschiedenste Gefüge menschlicher, mechanischer und/oder elektromechanischer Instanzen abgeglichen, zum Beispiel durch eine Geschwindigkeitsanzeige des Grammophon im Projektorraum, an die der Filmvorführer den Lauf des Projektors anpassen muss oder durch die elektrische Übertragung der Drehwinkel von einem Motor auf den anderen. Die genaue zeitliche Zuordnung wird andererseits durch grafische Markierungen eines Startpunkts auf Ton- und Bildträger geregelt.[14] Die Herstellung der Ton- und Bildträger erfolgte häufig nacheinander, d. h. Filme wurden nachträglich vertont oder Grammophonplatten im Film nachgespielt. Die Synchronisation der Tonbilder ist in verschiedenster Hinsicht stark von der einzelnen Aufführungssituation (der jeweiligen technische Anordnung, dem Filmvorführer usw.) abhängig.
Neben den Nadeltonsystemen existierten unterschiedlichste, durchaus eigenständige Praktiken der Begleitung des stummen Films durch Sprecher, Musiker, Geräuschemacher usw.[15] Sie werden für eine Geschichte der Synchronisationstechniken besonders dann relevant und interessant, wenn in Mischungen von Film und Schrift (Buchstaben, Musiknotationen) Standardisierungstechniken ihres zeitlichen Verhältnisses in Form einer apparativ angetriebenen Taktung eingreifen.[16] Zunächst wären hier die Musikfilme (z. B. das Beck-System oder Notofilm) zu nennen, bei denen durch ins Bild einkopierte Dirigenten oder durch das Bild laufende Notationen die Musik bei der Filmaufführung vorgeschrieben wurde.[17] Bemerkenswert ist in diesem Zusammenhang aber auch die Eintaktung des gesamten Kinopublikums, beispielsweise durch einen von Silbe zu Silbe des gemeinsam zu singenden Liedtexts springenden Bouncing Ball in den Song Car-Tunes genannten Zeichentrickfilmen der Fleischer-Brüder.[18]
Ein grundlegender Wechsel in der Tonfilmtechnik ist mit dem Aufkommen des Lichttons zu verzeichnen. Vorläufer der Lichttontechnik sind zwar bis in das 19. Jahrhundert zurückzuverfolgen, aber die wichtigsten Entwicklungen dafür werden nach dem Ersten Weltkrieg gemacht: Prominente frühe Beispiele sind Lee DeForests Phonofilm in den USA und das System von Triergon in Deutschland.[19] Das Lichttonverfahren setzt sich um 1930 im Laufe der Umstellung der Filmproduktionen und der Kinos auf Tonfilm gegen die Nadeltonverfahren durch und wird bis heute noch verwendet. Ein Mikrofon wandelt beim Lichttonverfahren die Luftdruckschwankungen des Tons in Stromschwankungen um, die wiederum eine Lichtquelle modulieren, wodurch der Ton auf den gleichen Träger wie die Bilder, eben auf Film, als sich verändernde Schwärzung belichtet werden kann. Beim Abspielen tastet dann ein lichtempfindliches Bauelement, eine Fotozelle, diesen auf die Tonspur des Films einkopierten grafischen Ton-Film ab und wandelt ihn wiederum in Stromschwankungen um, die von Lautsprechern akustisch wiedergegeben werden. Während in den älteren Nadeltonsystemen zwischen den Bewegungen der Ton- und Bildapparaturen vermittelt werden muss, beruht die Synchronität von Lichtton – zumindest bei der Vorführung – wesentlich auf der Umwandlung und Übertragung von Tonsignalen über mehrere Instanzen. Ein zentrales Bauteil dieser Dematerialisierung des Tons in Signalübertragungs- und Speicherketten sind die Verstärkerröhren DeForests bzw. Robert von Liebens (beide 1906).[20]
Die Konsequenz der Nichtvereinbarkeit von intermittierender Bewegung der Bildspur und kontinuierlicher Bewegung der Tonspur findet sich hier in der Verschiebung des Tons zur Postion des Bildes auf dem Filmband um ungefähr eine Sekunde wieder. So kann das Filmband an verschiedenen Stellen des Vorführapparats einmal stetig und einmal ruckend bewegt und trotzdem gleichzeitig abgespielt werden. Wegen der festen Zuordnung auf der Fläche des Filmbands ergibt sich mit dem Lichtton eine von den Zufälligkeiten der jeweiligen Vorführungssituation weitgehend unabhängige technische Synchronität. Das Lichttonband (ohne Bild) ermöglicht zudem das Schneiden und Zusammenfügen, also eine Zeitmanipulation nach dem Modell der Bildmontage, die mit Nadelton nur mit relativ hohem Aufwand möglich wäre.[21] Mit der umfassenden Standardisierung und technischen Stabilisierung der Filmgeschwindigkeit als Folge der Tonfilmumstellung wird die Länge des Filmbands mit einem fest vordefinierten Zeitraum verbunden. Film bemisst sich nunmehr nicht mehr in Metern, sondern in Minuten und Sekunden als Spielraum für Bilder und Töne.[22] Kurz: Synchroner Ton macht aus dem Kino eine Kunst der Zeit.[23]
Der Lichtton bildet, zumindest historisch, das Medium der sich mit der Tonfilmumstellung auffächernden technischen und ästhetischen Praktiken der zeitlichen Ton-Bild-Koordination und daran anschließender Diskurse: Von der Filmklappe bis zu motorisierten Tonfilmschneidetischen und von Asynchronismus[24] bis Mickey Mousing. Der Zeichentrickfilm Steamboat Willie (1928) von Walt Disney zum Beispiel entwickelt praktisch wie auch thematisch bestimmte Aspekte dieses Mediums schon sehr früh.
Der Magnetton, dessen Tonqualität 1940 durch das Hochfrequenzvormagnetisierungsverfahren entscheidend verbessert wurde, fand nach dem Zweiten Weltkrieg zunehmend Anwendung in der Filmproduktion.[25] Zum Einsatz kam das Tonband allerdings nicht so sehr bei der Vorführung, sondern bei der Aufnahme und beim Schneiden des Films.[26]
Geschwindigkeitsschwankungen bei der Tonaufzeichnung haben Schwankungen der Tonhöhe (Wow und Flutter) zur Folge und machen die nachträgliche Synchronisation praktisch unmöglich. Sie konnten durch eine Nutzung der jeweils standardisierten Wechselstromfrequenz (50 oder 60 Hz) als Antriebsstandard für Kameras und Tonaufnahme vermieden werden. Ein ähnliches Prinzip wird von Verfahren wie Ranger und Pilotton genutzt, um einen Gleichlauf des Tonbandgeräts mit der Kamera zu erhalten: Ein an den Motor der Kamera angeschlossener Pilottongenerator erzeugt eine Sinuswelle, die als eine Art magnetische Perforation mit auf das Tonband aufgezeichnet wird. Dieser Ton kann dann bei der Wiedergabe, selbst wenn die Laufgeschwindigkeiten bei der Aufnahme geschwankt haben oder sich das Tonband verformt hat, nachträglich wieder mit der Bildwechselfrequenz abgeglichen werden. Allerdings war ein oft herausgestellter Vorteil des Tonbands, nämlich die bessere Mobilität der leichteren und kleineren Geräte, durch die Kabelverbindung zur Kamera wiederum eingeschränkt. Diese Einschränkung ließ sich jedoch bald vermeiden durch die mithilfe eines Schwingquarzes in beiden Apparaten unabhängig voneinander erzeugte Normfrequenz. Auf Basis der damit erreichten relativen Synchronisation konnte dann durch auf beide Medien parallel aufzuzeichnende Start- und Stoppsignale, wie etwa eine Filmklappe oder ein vom Tonbandgerät gesteuertes optisches Signal, eine absolute Synchronität hergestellt werden. Die von Stefan Kudelski gebaute Nagra-Bandmaschine setzte sich spätestens ab 1962, mit der Integration des ebenfalls von Kudelski entwickelten Neopilot-Systems in die Nagra III, als Standardtonbandgerät in der Filmproduktion durch.[27] Das Aufkommen bestimmter Filmstile der Unmittelbarkeit wie Direct Cinema oder Cinéma Verité wird häufig mit der Mobilität dieser Tonbandgeräte assoziiert. An einem Film wie Nashville von Robert Altman, der explizit von einer Tonbandtechnik, namentlich der Mehrspuraufnahme, geprägt ist, ist jedoch zu sehen, dass Tonbandtechnik nicht zwingend an eine einfache Dokumenthaftigkeit des Tons gebunden ist. Die Verwendung von Tonband-Mehrspurgeräten im Film ist einer der Ausgangspunkte einer im Vergleich zum klassischen Hollywoodkino weniger hierarchischen, mehrschichtigen Klangorganisation: Während dieses eher auf eine zentrale Narration und die Verständlichkeit der Dialoge hin orientiert ist und deswegen Hintergrundgeräusche und Musik während des Dialogs weitgehend ausgeblendet werden, kommt in Filmen Robert Altmans und im zunehmend wichtigen Sound Design generell den Geräuschen und dem Überlappen mehrerer Tonebenen, die mehrere gleichzeitige Bezüge zwischen Tonspur und Filmbild ermöglichen, eine wachsende Bedeutung zu.[28]
Während auf dem Filmband die Ordnung der Bilder sofort sichtbar ist, ist auf Videobändern, die seit Mitte der 1950er Jahre zunächst für das Fernsehen verwendet werden, praktisch nichts zu sehen. Weil sie im Gegensatz zu zweidimensional aufgezeichneten Filmbildern nach dem Prinzip der Zeilenabtastung funktionieren, ähneln Fernsehbilder bei der Übertragung eher einem analogen kontinuierlichen Tonsignal. Aber selbst die sogenannte Abtastlücke zwischen zwei Bildern ist auf Videobändern nicht zu sehen und es gibt hier auch keine Perforation, an der sich die Verteilung der Bilder auf dem Band einfach ablesen ließe. Diese Unsichtbarkeit macht in der Anfangszeit der Videotechnik eine manuelle Montage kompliziert und fehleranfällig. Von elektronischen Videoschnittsystemen, die Anfang der 1960er Jahre aufkommen, werden dann elektronische Zeitmarkierungen auf den Bändern eingeschrieben und gelesen. Ein solches Adressierungssystem wird durch die amerikanische Society of Motion Picture and Television Engineers (SMPTE) 1969 als Standard eingeführt, der nach der Übernahme durch die European Broadcasting Union (EBU) 1972 als SMPTE/EBU-Timecode international verwendet wird.[29] Der SMPTE/EBU-Timecode schreibt eine absolute Adressierung in Stunden, Minuten, Sekunden und Frames als digitale Pulsfolgen auf die Video- und Tonbänder. Unterschieden wird zwischen Vertical Intervall Timecode (VITC) und Longitudinal Timecode (LTC), je nachdem, ob der Timecode in der Logik der Videoaufzeichnung diagonal in die Abtastlücke zwischen zwei Bilder auf das Band geschrieben wird oder in der Logik der Tonspur entlang der Länge des Bandes.[30] Der SMPTE/EBU-Timecode wird bald auch für Film verwendet, unter anderem spielt er eine wichtige Rolle für Arbeitsteilung und Logistik innerhalb der Filmvertonung. So wird beispielsweise die Komposition von Filmmusik heute meist auf der Basis des SMPTE/EBU-Timecodes organisiert.[31]
Der SMPTE/EBU-Timecode markiert Tendenzen audiovisueller Verfahren, die seit den 1970er Jahren zunehmend wirksam werden: Digitalisierung und Nichtlinearität. Das allgemeine Funktionsprinzip nichtlinearer Schnittsysteme beruht auf der Trennung zwischen den Bild- und Tondaten einerseits und ihrer zeitlichen Organisation beim Abspielen, der Montage, andererseits. So können vorläufig getroffene Montageentscheidungen unabhängig vom Material gespeichert und für eine Vorschau verwendet oder auch verschiedene Alternativen der Montage miteinander verglichen und letztlich gegebenenfalls verworfen werden. Dies bezieht sich nicht nur auf die (horizontale) Folge der Bilder, sondern ebenso auf die (vertikalen) Verhältnisse von Bild- und Tonspuren zueinander.[32] Nichtlinearer Schnitt setzt voraus, dass Bild und Ton für die Vorschau an jeder Zeitstelle exakt und relativ schnell angesteuert werden können. Entsprechend geht damit eine Ablösung dieser Daten von Ton- und Filmbändern einher, denn diese Trägermedien implementieren materiell eine bestimmte Zeitfolge, da gespult werden muss, um zu einer bestimmten Stelle zu gelangen. Die ersten nichtlinearen Schnittsysteme der 1970er Jahre sind Analog-Digital-Hybride: Mit einem Computer wird der Zugriff auf analoges Bild- und Tonmaterial gesteuert.[33] Aber am Anfang der 1990er Jahre beginnen sich digitale Schnittysteme durchzusetzen, die Daten digital speichern und manipulierbar machen.[34]
Bei der Herstellung und Verarbeitung ebenso wie bei der Distribution unterliegen digitale Video- und Ton-Formate im Vergleich zu Film- und Tonband einer flüssigeren und variableren Ökonomie der Übertragungs- und Rechengeschwindigkeiten bzw. Speicherkapazitäten: Der Kompressionsgrad, also die Reduktion von Daten nach verschiedensten (spatialen, temporalen, statistischen, wahrnehmungsorientierten etc.) Redundanz- und Optimierungsmodellen lässt sich der jeweils zur Verfügung stehenden Bandbreite oder Speicherkapazität einer ganzen Vielzahl von Geräten und Systemen anpassen. Die entscheidenden Differenzen sind hier auf der Ebene der Strukturierung und Regulation dieser Ökonomie durch Formate, Protokolle und Schnittstellen zu suchen.[35] Dekodierung von Bild- und Tondaten beansprucht Rechenzeit und stellt daher ein Echtzeitproblem dar, das heißt, diese Rechenvorgänge müssen zu vorgegebenen Zeiten abgeschlossen sein, damit Bild und Ton rechtzeitig wiedergegeben werden. Damit tritt zur vertikalen Synchronisation von Ton und Bild das Problem einer horizontalen Synchronisation der Verarbeitungszeiten der einzelnen Datenströme hinzu: Audiovisuelle Containerformate – die dann wiederum verschiedene Video- und Audiokodierungsformate enthalten können – wie MPEG-2 beinhalten daher jeweils eine Logistik, nach der diese Daten abgearbeitet, gebuffert, synchronisiert und präsentiert werden. Dies geschieht beispielsweise durch sogenannte Timestamps, die bei der Kodierung der einzelnen einzelnen Spuren (Audio und Video) geschrieben werden. Wegen der unterschiedlichen Sample-Raten von digitalem Ton (z. B. 44100 Hz) und Video (z. B. 25 Bilder pro Sekunde) werden diese Timestamps in der Regel nicht untereinander, sondern von einer zentralen Systemuhr geregelt.[36]
Im Gegensatz zu dem, was als das Fernsehen oder das Kino zumindest retrospektiv als Feld relativ weniger fest institutionalisierter audiovisueller Formen erscheint, versammelt sich unter dem Überbegriff digitale audiovisuelle Medien eine stark ausdifferenzierte Menge verschiedener Formen der Aufzeichnung, Manipulation, Distribution und Präsentation: Vom Handyvideo bis zum satellitenübertragenen digitalen Kino. Nicht nur deswegen kann davon gesprochen werden, dass digitale Audiovision eine spezifische Art von Situationsabhängigkeit der Präsentation einführt: Weil digitale Daten, um von Bildschirmen, Lautsprechern und anderen audiovisuellen Interfaces ausgegeben werden zu können, gerechnet werden müssen, ergibt sich die generelle Option, in das Programm (das wiederum als Daten vorliegen kann) dieser Rechnungen einzugreifen.[37] Ein sehr einfacher, weil durch einen restriktiven Formatstandard definierter, Fall wäre beispielsweise die Möglichkeit, während des Abspielens einer DVD zwischen verschiedenen Tonspuren (Deutsch, Englisch, Kommentar, nur Geräusche usw.) zu wechseln. Weiter gehen zum Beispiel Computerspiele, die kaum aus einem Begriff von digitalen audiovisuellen Medien herauszuhalten sind, ebenso wie bestimmte Softwareumgebungen, z. B. Max/MSP/Jitter, die es erlauben, Audio, Video und andere Daten auf verschiedene Weise aufzurufen, zu kombinieren und miteinander zu verrechnen.
[1] Zum Differenz Synchronisation – Gleichzeitigkeit: Christian Kassung, Albert Kümmel, »Synchronisationsprobleme«, in: Albert Kümmel, Erhard Schüttpelz (Hg.), Signale der Störung, München 2003, S. 143–166 und Knut Hickethier, »Synchron. Gleichzeitigkeit, Vertaktung und Synchronisation der Medien«, in: Werner Faulstich, Christian Steininger (Hg.), Zeit in den Medien – Medien in der Zeit, München 2002, S. 111–129.
[2] Vgl. Henning Schmidgen, »Zeit der Fugen. Über Bewegungsverhältnisse im physiologischen Labor« (ca. 1865), in: Diether Simon (Hg.), Zeithorizonte in der Wissenschaft (7. Symposium der Deutschen Akademien der Wissenschaften Berlin, 31. Oktober–1. November 2002), Berlin–New York 2004, S. 101–124 und Hans-Jörg Rheinberger, Experiment, Differenz, Schrift. Zur Geschichte epistemischer Dinge, Marburg 1992, S. 50f.
[3] Vgl. Vsevolod I. Pudovkin, »Asynchronism as a Principle of Sound Film« (1929), in: Elisabeth Weis und John Belton (Hg.), Film Sound. Theory and Practice, New York 1985, S. 86–91 und Rudolf Arnheim, »Asynchronismus« (1934), in: ders., Die Seele in der Silberschicht. Medientheoretische Texte. Photographie – Film – Rundfunk, Helmut H. Diederichs (Hg.), Frankfurt/Main 2004, S. 207–210.
[4] Michel Chion, Audio-vision. Sound on Screen, New York 1994, S. 63f.
[5] Vgl. Georg C. Tholen, »Medium/Medien«, in: Alexander Roesler, Bernd Stiegler (Hg.), Grundbegriffe der Medientheorie, Paderborn 2005, S. 150–172.
[6] Vgl. Friedrich A. Kittler, Grammophon. Film. Typewriter, Berlin 1986, S. 9f.
[7] Rheinberger, Experiment, Differenz, Schrift, 1992, S. 22f. Er zitiert dabei: Gaston Bachelard, Der neue wissenschaftliche Geist, Frankfurt/Main, S. 18. Rheinberger verwendet diese Wendung nur im wissenschaftsgeschichtlichen Kontext, sie scheint mir jedoch für den mediengeschichtlichen Einsatz hier sehr geeignet.
[8] Vgl. Jonathan Crary, Techniken des Betrachters. Sehen und Moderne im 19. Jahrhundert, Dresden–Basel 1996, S. 94–102.
[9] Vgl. Friedrich A. Kittler, »Das Werk der Drei. Vom Stummfilm zum Tonfilm«, in: ders. u. a. (Hg.), Zwischen Rauschen und Offenbarung. Zur Kultur- und Mediengeschichte der Stimme, Berlin 2002, S. 361f. und Tom Gunning, »Doing for the Eye What the Phonograph Does for the Ear«, in: Richard Abel, Rick Altman (Hg.), The Sounds of Early Cinema, Bloomington/Ind. 2001, S. 16.
[10] So das vielzitierte Edisonzitat, hier nach dem Faksimile einer Handschrift Edisons in William Kennedy Laurie Dickson, Antonia Dickson, History of the Kinetograph, Kinetoscope and Kineto-Phonograph (1895), New York 2000, S. 1 (Übersetzung: J.P.M.). Vgl. für eine frühe, ähnliche Formulierung auch das Patent Caveat vom 8. Oktober 1888: Thomas A. Edison: Patent Caveat (8. Oktober 1888), The Thomas Edison Papers, Digital Edition, TAED [PT031AAA] Patent Series-Caveat Files: Case 110: Motion Pictures (1888) [PT031AAA1; TAEM 113], unter: http://edison.rutgers.edu/NamesSearch/SingleDoc.php3?DocId=PT031AAA1.
[11] Vgl. W. Bernard Carlson, Michael E. Gorman, »Understanding Invention as a Cognitive Process: The Case of Thomas Edison and Early Motion Pictures, 1888–91«, in: Social Studies of Science, 20, 1990, S. 387–430 (http://sss.sagepub.com/cgi/content/abstract/20/3/387, doi: 10.1177/030631290020003001).
[12] Vgl. Kittler, Zwischen Rauschen und Offenbarung, 2002, S. 358.
[13] Vgl. Harald Jossé, Die Entstehung des Tonfilms. Beitrag zu einer faktenorientierten Mediengeschichtsschreibung, Freiburg–München 1984, S. 48ff. und Corinna Müller, Frühe deutsche Kinematographie: formale, wirtschaftliche und kulturelle Entwicklungen 1907-1912, Stuttgart–Weimar 1994, S. 79ff. Für die Zeit 1907–1914 spricht Jossé sogar von einem Tonbildboom.
[14] Vgl. Jossé, Die Entstehung des Tonfilms, 1984, S. 69f.
[15] Siehe Rick Altman, Silent Film Sound, New York 2004, und Corinna Müller, Vom Stummfilm zum Tonfilm, München 2003, S. 85–107.
[16] Vgl. Michael Wedel, »Okkupation der Zeit«, in: Der Schnitt. Das Filmmagazin, 29, Winter 2003, S. 11f.
[17] Wedel, Okkupation der Zeit, 2003, S. 10–15 und Michael Wedel, »Messter’s Silent Heirs«, in: Film History, 11, 4, 1999 (Special Domitor issue: Global Experiments in Early Synchronous Sound), S. 464–476.
[18] Max Fleischer, Song Motion Picture Film, US Patent 1573696, 16.2.1926, beantragt: 4.6.1925. Vgl. Leonard Maltin, Of Mice and Magic. A History of American Animated Cartoons, New York 1987, S. 91 und http://www.atos.org/Pages/Journal/Koko/Koko.html (gesehen 10. Februar 2009) nach einem Artikel von Harry J. Jenkins in der Zeitschrift Theatre Organ Bombard, Oktober 1969. Der Song Car-Tune Tramp, Tramp, Tramp von 1926 ist online verfügbar unter: http://www.archive.org/details/tramp_tramp_tramp_1926 (gesehen 10. Februar 2009)
[19] In Selbstzeugnissen: Lee DeForest, »The Phonofilm«, in: Transactions of the Society of Motion Picture Engineers, 16, 1923, S. 61–75 und Hans Vogt, Die Erfindung des Tonfilms, Erlau bei Passau, 1954.
[20] Vgl. Kittler, Zwischen Rauschen und Offenbarung, 2002, S. 366ff.
[21] Vgl. Müller, Vom Stummfilm zum Tonfilm, 2003, S. 212.
[22] Vgl. Chion, Audio-vision, 1994, S. 16. Auch Stille wird gewissermaßen erst mit Tonfilm möglich. Vgl. Béla Balázs, »Der Geist des Films« (1930), in: Helmut H. Diederichs, Wolfgang Gersch (Hg.), Ders., Schriften zum Film, Bd. 2, Berlin 1984, S. 159f.
[23] Chion, Audio-vision, 1994, S. 16.
[24] Vgl. Pudovkin, Film Sound, 1929.
[25] Bis in die 1930er Jahre werden für die elektromagnetische Aufzeichnung von Tönen Bänder aus Stahl verwendet, dann magnetisch beschichtete Bänder aus verschiedenen Materialien. Über den Magnetton in der Filmproduktion: vgl. Friedrich Engel, Gerhard Kuper, Frank Bell, Zeitschichten: Magnetbandtechnik als Kulturträger. Erfinder-Biographien und Erfindungen, (Weltwunder der Kinematographie, Bd. 9), Potsdam 2008, S. 395ff.
[26] Für Stereo und Mehrkanaltonsysteme wurde dann hauptsächlich Magnetton verwendet, vgl. Engel, Kuper, Bell, Zeitschichten, 2008. Vgl. auch John Belton, »1950s Magnetic Sound: The Frozen Revolution«, in: Rick Altman (Hg.), Sound Theory Sound Practice, London–New York 1992, S. 154–167.
[27] Einen guten Überblick über die diversen Verfahren bieten: Loren L. Ryder, »Synchronous Sound for Motion Pictures«, in: Journal of the Audio Engineering Society, 16, 3, Juli 1968, S. 291–295 und European Broadcasting Union (EBU), Review of existing systems for the synchronisation between film cameras and audio tape-recorders, EBU-Tech 3095, Legacy Text (February 1973), Genf 2006, http://www.ebu.ch/CMSimages/en/tec_doc_t3095_tcm6-43440.pdf (gesehen 10. Februar 2009).
[28] Diese Tendenzen haben freilich auch noch mit anderen Entwicklungen der Tontechnik zu tun, z. B. der allgemeinen Klangqualität oder der Stereo- und Surroundtechnik. Einen Überblick über verschiedene Aspekte des Sound Designs bietet Barbara Flückiger, Sound Design. Die virtuelle Klangwelt des Films (2001), Marburg 2006.
[29] Vgl. Electronics Engineering Company (EECO), »Time Code Basics«, in: American Cinematographer, 64, 3, März 1983, S. 23 und Michael Rubin, Nonlinear: a guide to digital film and video editing, 3. Aufl., Gainesville 1995, S. 42–45.
[30] Einen guten Überblick über die technischen Feinheiten bietet John Ratcliff, Timecode. A user’s guide, 3. Aufl., Oxford u. a. 1999.
[31] Vgl. Jeffrey Rona, Synchronization from Reel to Reel. A Complete Guide for The Synchronization of Audio, Film Video, Milwaukee 1990, S. 54ff.
[32] Vgl. Rubin, Nonlinear, 1995, S. 265ff.
[33] Zur Differenz analog/digital, vgl. Wolfgang Coy, »Analog/Digital«, in: Martin Warnke, Wolfgang Coy, Georg Christoph Tholen (Hg.), HyperKult II. Zur Ortsbestimmung analoger und digitaler Medien, Bielefeld 2005, S. 15–26.
[34] Vgl. Rubin, Nonlinear, 1995, S. 45–65.
[35] Vgl. Stefan Heidenreich, FlipFlop. Digitale Datenströme und die Kultur des 21. Jahrhunderts, München–Wien 2004.
[36] Vgl. Ulrich Reimers, DVB – Digitale Fernsehtechnik, 3. Auflage, Berlin–Heidelberg–New York 2008, S. 119–124.
[37] Vgl. Rolf Großmann, »Monitor – Intermedium zwischen Ton, Bild und Programm«, in: Martin Warnke, Wolfgang Coy, Georg Christoph Tholen (Hg.), HyperKult II. Zur Ortsbestimmung analoger und digitaler Medien, Bielefeld 2005, S. 201ff.
Personen |
Werke |
Zeitrahmen 1800 bis heute Alle Schlagwörter Körperschaften |