Audiovisuelle Live Performance

8 Laptop und Live-Performance

Visual Artists, die sich selbst in die Performance mit einbringen,[8] wie z.B. VJ Miixxy, müssen sich, spätestens seit laptop-basierte Computerperformances stark an Popularität gewonnen haben, notgedrungen einer Frage stellen: Welche visuelle Rolle kommt dem Performer zu? Während eine Darbietung auf einem herkömmlichen Musikinstrument von ihrem Wesen her audiovisuell rezipiert werden muss, da die Zuhörer die Gesten des Performers als einen integralen Teil der Darbietung erleben, besteht zwischen dem visuellen und akustischen Output einer Laptop-Performance einerseits und den sichtbaren physischen Gesten des Künstlers andererseits wenig Zusammenhang. Laptop-Performer beginnen derzeit, sich ernsthaft mit dem Thema der Präsentation ihrer Live-Performance auseinanderzusetzen. Einige Laptop-Musiker und Visual Performer sind dazu übergegangen, der Gestik während der Performance mehr Platz einzuräumen, indem sie traditionelle Interfaces der elektronischen Musik verwenden, wie z. B. MIDI-Keyboards, oder weniger gebräuchliche Performance-Schnittstellen, wie z. B. Wii-Controller und Tagtools.[9] Andere Performer, vor allem solche auf dem Gebiet des Live Coding,[10] ziehen es vor, als Teil der Show den Bildschirm ihres Computers zu projizieren, sodass das Publikum ihre Aktionen auf dem Monitor mitverfolgen kann. Wieder andere verzichten aber bewusst darauf, ihre Aktionen bei einer Performance sichtbar zu machen, da sie die Aufmerksamkeit des Publikums ganz auf die Bilder und den Ton fokussiert wissen wollen. Viele VJs, DJs und Laptop-Musiker sind dabei der Auffassung, dass die projizierten Visuals den selben Platz einnehmen wie der Anblick eines Performers, der mit seinen Gesten Musik produziert. Während also ein Großteil der Theorie zur audiovisuellen Integration in der zeitgenössischen Szene die Beziehung zwischen den von Performern generierten Klängen und Bildern zum Thema hat, ist es wahrscheinlich, dass sich in absehbarer Zukunft die visuelle Beziehung zwischen Performer und Performance als wichtiger Gesichtspunkt der audiovisuellen Erfahrung herauskristallisieren wird.

Die Verfasserin zieht es in ihrer Rolle als VJ Übergeek vor, auf der Bühne zu agieren und nicht auf der Projektionsfläche.  
Die Entwickler kommerzieller Produkte haben begriffen, dass das Interesse für gestensensible Schnittstellen seitens der Community der elektronischen Musiker und Visual Performer weiter wächst. JazzMutants Lemur ist z. B. eine Multitouch-Schnittstelle, die es Performern ermöglicht, das Klicken und Textscrollen mit einer Maus durch die Bewegung der Finger auf einem Touchpad zu ersetzen.  
Musical instrument digital interface (MIDI) ist ein weitverbreitetes Datenübertragungs-Protokoll, das 1982 definiert wurde und elektronische Musikinstrumente wie z. B. Keyboards und Controller befähigt, Steuersignale (sog. Event Messages) an kompatible Soft- und/oder Hardware zu übermitteln. MIDI-Signale können z. B. über Schnittstellen wie Druck- und Drehknöpfe oder Schieberegler die Tonhöhe eines Audio-Synthesizers oder die Intensität eines elektronischen Bildes regeln. Unter Live Coding versteht man das Schreiben von Software in Echtzeit als Teil einer Performance.  
1
2
3
4
5
6
7
8