AV-Parameter-Mapping in der Musikvisualisierung

3 Die Entwicklung der Bildsprache in Live Visuals

1997 kam mit Image/ine die erste Software für handelsübliche Personal Computer – im Gegensatz zu hochleistungsfähigen Maschinen in professionellen Video- und Fernsehumgebungen – auf den Markt, die Live-Sampling und eine fortlaufende Bearbeitung von zuvor aufgenommen Bildsequenzen in Echtzeit ermöglichte.[4] Das erlaubte die Übertragung von Techniken aus dem Bereich des Videos in die digitale Umgebung der Personal Computer. Image/ine wurde von Steina Vasulka und Thomas Demeyer im niederländischen Studio for Electro Instrumental Music Steim[5] entwickelt. Ebenfalls 1997 erstellte Matthew Cohn, Teil des Musikduos Coldcut[6], die Applikation VJamm. Dieses Programm entsprach einem digitalen Videomixer mit Möglichkeiten zur Verfremdung und Überlagerung und war damit der Vorläufer einer langen Reihe von Applikationen, die ein schnelles Kombinieren und Abspielen von Filmclips ermöglichten. Beide oben erwähnten Programme waren dezidiert für eine Verwendung im Live-Kontext mit dem Ziel entwickelt worden, so flexibel mit Bildern zu spielen, wie es zuvor nur MusikerInnen mit Tönen möglich war.

Die Gestaltungsmittel zu jener Zeit entsprachen den technischen Möglichkeiten. Kurze aufgezeichnete Bildsequenzen wurden mit digitalen Mitteln verfremdet und überlagert. Die Wiederverwendung und Neukombination von Medienelementen (Remix) als ästhetisches Verfahren dominierte in den 1990er Jahren.

Wegen der im Vergleich zu heute geringen Rechnerleistung konnten Videos in Echtzeit nur in sehr geringer Auflösung (320x240 Bildpunkte) bearbeitet werden. Die Vergrößerung auf die eigentliche Projektionsfläche hatte stark gepixelte Bilder zur Folge. Dieser damals typische Pixel-Look entsprach nicht unbedingt dem ausgesprochenen Wunsch der Künstler, vielmehr wurde im Rahmen der Möglichkeiten und der Limitierungen durch Software und Hardware gearbeitet und experimentiert.

Bald darauf folgten die Applikationen Nato.0+55+3d[7] und Jitter[8], die durch die Möglichkeit der Kombination und Programmierung verschiedener Objekte zur Bildmanipulation und -generierung hervortraten. Im Unterschied zu clip-abspielenden Applikationen wie Vjamm erlaubten die flexibleren objektorientierten Applikationen ein direktes Manipulieren und Generieren von Bildsequenzen auf Basis der Sounds. Die Veröffentlichungen Skot vs. Hecker oder auch End of Skot (beide 2000, Musik von Florian Hecker und Mathias Gmachl, Visuals von Skot) oder 242.Pilots – Live In Bruxelles (2002) der Künstlergruppe 242.pilots (USA) sind frühe Zeugnisse dieser Entwicklungen.

Das Motto Generieren, nicht Collagieren (Jan Rohlf)[9] beschreibt treffend den Moment, in dem die Frage der Bildsprache nun völlig neu zur Debatte stand. Die Technik der Computation – der Berechnung auf einem Computer – beinhaltete beim Design einer digitalen Komposition auch die Komponente des Zufalls: KünstlerInnen legen bestimmte Regeln fest, der Computer führt diese Prozesse aus und liefert innerhalb der vordefinierten Bedingungen Resultate – eine endlose Zahl an visuellen Möglichkeiten ist das Ergebnis. Obwohl visuelle KünstlerInnen hierbei die Kontrolle über den Prozess und die Prozess-Bedingungen behalten, ergeben sich durch den Faktor Zufall auch Resultate, die am Beginn des Prozesses kaum vorherzusehen waren.[10] Die Künstlergruppe Ubermorgen[11] bezieht den Zufall ganz bewusst in ihre Arbeit The Sound of eBay (2008) ein, indem sie Ton und Bild von derselben externen Datenquelle – nämlich von eBay-User-Daten – selbstständig generieren lässt.

1
2
3
4
5