Ton-Bild-Relationen in der interaktiven Kunst
8 Frühe Konzepte des Pattern Playback
Versuche, Bildinformationen zur Steuerung von Sound zu nutzen, gab es bereits seit den 1940er Jahren. Dabei wurde das Prinzip des Sonagramms umgekehrt, indem nicht Klangfrequenzen aufgezeichnet, sondern visuelle Informationen als Frequenzen interpretiert und sonifiziert wurden. Diese in der amerikanischen Sprachforschung als Pattern Playback bezeichnete Methode[12] wurde mithilfe von Computertechnologie weiterentwickelt. Mit dem 1977 durch den Komponisten Iannis Xenakis entwickelten UPIC entstand das erste Echtzeit-System, das visuelle Formen direkt sonifiziert: Auf einem Grafiktablett können Formen gezeichnet werden, deren Gestalt die Tonhöhe vorgibt, während ihre Position zueinander die Tonfolge oder -veränderung bestimmt.[13]
Ebenfalls in den 1970er Jahren entstanden mit der Verbreitung der Video-Technologie verschiedene Systeme, die Live-Videobilder als Input zur Soundgenerierung nutzten, etwa Erkki Kurenniemis Dimi-O-Systeme[14], oder das Projekt Cloud Music von Robert Watts, David Behrman und Bob Diamond (1974–1979), bei dem eine Videokamera Wolkenbewegungen aufnimmt und die Analyse der Lichtintensität an sechs Punkten des Bildes zur Steuerung von Soundkanälen einsetzt.[15]