Landpartie: Neues Klangkunstprojekt

Für die Ausstellung «Landpartie» – 18. Juli bis 13. September 2015 im Schloss Appelhof bei Allersberg – sind mehrere teils interaktive Klanginstallationen in Planung. Ein Projekt mit Michael Kirschner, Cornelius Pöpel und der Berliner Malerin Fides Becker.

Klanglabor Leopold

Vom 28. Juni – 28. September 2014 öffnet das Retti-Palais in Ansbach seine lange verschlossenen Pforten. Zusammen mit Cornelius Pöpel und Michael Kirschner werde ich dort Klanginstallationen ausstellen. 

Klanglabor Leopold (Foto: Jim Albright)
Klanglabor Leopold (Foto: Jim Albright)

www.retti-palais.de

Visual Metronome

«Visual Metronome» ist eine Kombination aus Hard- und Software. Ein MIDI-Click-Track aus QLab wird von der Software als UDP-Message über das Netzwerk verschickt. Die Box empfängt das Signal und zeigt über die LEDs Takt und Tempo an.

Entworfen wurde das System für das Ballett «Woyzeck» von Christian Spuck am Opernhaus Zürich (2013). Das Orchester spielt hier zu vorproduzierten Sounds (v.a. Klangteppiche). Über «Visual Metronome» bekommt der Dirigent Takt und Tempo der Einspielungen im Orchestergraben angezeigt und kann so Orchester und Sounds „synchronisieren“.

Im inneren der Box steckt ein «Arduino Ethernet». Über Netzwerk empfängt es die Signale um die LED rot oder grün leuchten zu lassen und schaltet diese entsprechend. Die verbaute LED ist eine Bicolor-LED beide Farben in einer LED verbaut hat. Die Software wurde in MaxMSP programmiert. Sie empfängt die MIDI-Signale aus QLab und berechnet und verschickt die Befehle für den Mikrocontroller.

Auf der Theaterbühne muss alles gut geschützt sein, damit es bei schnellen und hektischen Umbauten nicht kaputt geht. Deshalb wurde ein passendes Gehäuse gleich mit dazu angefertigt. Die LED wurde außerdem zur leichteren Handhabung aus der Box „ausgelagert“. Sie wird über ein XLR-Kabel angeschlossen. Ein Reflektor sorgt für die nötige Leuchtfläche.

Ein Demovideo gibt es hier: Visual Metronome auf Vimeo.

KlangLicht_v1

KlangLicht_v1

Das Programm ist eine Art Lichtorgel. Audiomaterial wird analysiert und die gewonnenen Informationen in Lichtereignisse gewandelt. Die Analyse beschränkt sich dabei auf die zwei Filter in FX1 und FX2. Dadurch kann man z.B. gezielt die Bass-Schläge herausfiltern und als Helligkeitsänderung ausgeben.

FX1 und FX2 sind jeweils gleich aufgebaut, nur die Ausgabe geht auf verschiedene Parameter. So ändert FX1 die Helligkeit und FX2 den Farbton.

In der FX-Sektion gibt es weitere vier Effekte, die aber nicht durch Parameter beeinflusst werden können (nur Aus/An). Momentan sind aber nur zwei umgesetzt. Jeweils eine Mood-Funktion für die Helligkeit und die Farbe.

Die Ausgabe des Lichtes erfolgt im RGB-Modus, da die Lampen so einfach angesteuert werden können. Generiert wird aber alles in HSV. Deswegen ist eine Wandlung nötig. Die Umrechnung übernimmt das External hsv2rgb.

Alles ist auch über einen Controller steuerbar (bei mir: Traktor Kontrol X1). Eine Midi-Learn-Funktion ist angedacht, aber noch nicht umgesetzt.  Viel Arbeit steckt im Detail, z.B. beim Drücken eines Buttons am Computer ändert sich auch der Controller mit (LED geht an).

Zur besseren Beurteilung des gefilterten Materials wurde ein Monitorweg (Kopfhörer) geschaffen, den man zwischen FX,1 FX2 und dem Eingangssignal (MONO) umschalten kann. So kann der Licht-Jockey einfacher die zu filternden Frequenzen einstellen.

Ein Video einer Funktionsdemo gibt es hier: KlangLicht_v1 Demonstration auf Vimeo.


 KlangLicht_v1 von Florian Beck steht unter einer Creative Commons BY-NC-SA 3.0 DE Lizenz.