Was bedeutet die zunehmende Digitalisierung für die Filmproduktion und Herstellung von Videos? Die Bildnachbearbeitung, sagt Christian Iseli, Professor an der Schweizer Hochschule ZHdK und Leiter Immersive Arts Space in einem Video-Interview, wird in Zukunft immer stärker mit dem Produktionsprozess verschmelzen.
Dieser Artikel enthält die deutsche Transkription eines in englischer Sprache gehaltenen Video-Interviews mit besonderem Fokus auf virtuelle Filmproduktion mit Prof. Christian Iseli über den Immersive Arts Space an der Zürcher Hochschule der Künste ZHdK.
Immersive Arts Space am Institute for the Performing Arts and Film der ZHdK
Christian Iseli ist Filmemacher und Professor. Er ist Leiter des Immersive Arts Space und lehrt und forscht seit 1995 an der Zürcher Hochschule der Künste ZHdK, wo er in der Fachrichtung Film unterrichtet.
Die ZHdK ist mit über 2000 Studierenden die größte Kunsthochschule der Schweiz. Sie ist im Jahr 2007 aus der Fusion der Hochschule für Gestaltung und Kunst und der Hochschule für Musik und Theater entstanden.
Das bei Vimeo frei zugängliche Video (Link in Infobox am Textende) wurde für die Online-Ausgabe 2020 des NIFFF Neuchâtel International Fantastic Film Festival am 6. Juli 2020 publiziert.
Was ist ein Immersive Arts Space?
Christian Iseli:Der Immersive Arts Space ist das, was wir ein Kunst-Tech-Labor nennen. An diesem Ort verbinden sich Kunst und neue Technologien. Der Immersive Arts Space ist eine multidisziplinäre Einheit ZHdK. Sie dient als Forschungs-, Lehr- und auch Produktionsplattform.
Die Projekte, die wir hier realisieren, haben mit Immersion zu tun, das heißt, wir haben es mit Virtual Reality (VR), Augmented Reality (AR) und jeder Art von Simulation zu tun.
Die Kerntechnologie, die zum Einsatz kommt, ist ein Motion-Tracking-System. Mit diesem können die Bewegungen von Schauspielern für Animationen aufgezeichnet werden. Wir verwenden das System auch für Live-Performances. Dies, weil die heutige Computerleistung das Echtzeit-Rendering von virtuellen Charakteren ermöglicht.
Ebenso nutzen wir das Motion-Tracking-System als universelles Tracking-System, zum Beispiel für Projection Mapping. Eine andere Kernanwendung ist Multi-User-VR und auch 3D-Audio, räumliches Audio.
Was bedeutet der Immersive Arts Space für die Filmproduktion?
Christian Iseli:Wirklich wichtig für uns ist die virtuelle Produktion in allen ihren Formen, dabei primär die Prävisualisierung. Damit simulieren wir Filmszenen für das Blocking (die Festlegung der Position und Bewegungen von Akteuren und Kamera, Anm.d.Red.) von Szenen und Beleuchtung.
Wir haben dieses Werkzeug gemeinsam mit der Stockholmer Universität der Künste entwickelt. Wir nennen es Previz Table. Dieses System erlaubt uns, eine sehr effiziente, kommunikative Art und Weise der Vorabvisualisierung.
Was wir normalerweise tun, ist, dass wir die Location scannen und diese dann als vereinfachtes 3D-Modell rendern. Auf dem Desk hat man danach eine (virtuelle, Anm.d.Red.) Projektion der Aufsicht. Im nächsten Schritt kann man dann virtuelle Figuren hinzufügen und diese mit den Fingerspitzen bewegen, woraus eine Animation entsteht. Was dabei aber wirklich entscheidend ist, ist die virtuelle Kamera. Denn mit der virtuellen Kamera lässt sich der gesamte künstlerische Aufbau einer Szene, das gesamte Blocking vorab digital in Echtzeit erproben und festlegen. Alles kann gemacht werden, die Position der Höhe der Kamera, die Brennweite des Objektivs oder die Blende.
Was wir heute in der Postproduktion tun, wird in Zukunft in Echtzeit in der Produktionsphase erfolgen.
Christian IseliLeitung Immersive Arts Space, ZHdK
Wenn man die Objekte und Kamera nicht mit den Fingerspitzen bewegen will, hat man zwei Optionen: Man kann eine echte VR-Brille nehmen und selbst in den virtuellen Raum eintreten. Dort sieht der Filmemacher seine Figuren in Lebensgröße vor sich und bedient die Kamera mit den VR-Controllern.
Eine andere Möglichkeit ist, ein reales Objekt in die virtuelle Umgebung einzubeziehen. Das ist aktuell ein iPad, das vom System getrackt wird und auf diese Weise mit dem Previz Table kommuniziert. Mit diesem iPad bewegt man die virtuelle Kamera wie in Realität. Das reale Objekt ist also die Schnittstelle zur virtuellen Welt.
Wie drehe ich in virtuellen Räumlichkeiten?
Christian Iseli:Wir hatten bereits ein Filmprojekt, bei dem wir den Drehort in High Resolution gescannt haben. Danach sind wir ins Studio, den Immersive Arts Space, gegangen und haben den gesamten Film darin gedreht, ohne jemals an den realen Drehort zurückzukehren!
Die Schauspieler stehen dabei vor einem Greenscreen und auch die Kamera wird getrackt. Eine Game-Engine rendert und visualisiert alle Informationen, während man dreht. Das ist etwas, das in Zukunft regelmäßig vorkommen wird: Man dreht nicht mehr an realen Orten, sondern macht es virtuell.
Was in Zukunft vermehrt passieren wird, ist, dass so ziemlich alles, was wir heute noch in der Postproduktion machen, in die Produktionsphase vorverschoben werden wird, da es schon beim Dreh in Echtzeit erledigt werden kann.
Greenscreen wird dazu in einem nächsten Schritt wohl nahezu vollständig durch LED-Displays, sogenannte LED-Walls, ersetzt werden. Das hat den Vorteil, dass die Schauspieler sich diesfalls in einem digitalen Raum befinden, zu dem sie tatsächlich und spürbar einen Bezug haben.
Die Transkription und Übersetzung des Videos in Textform für diesen Artikel erfolgte automatisiert durch einen Software-Verbund und Einbezug von künstlicher Intelligenz. Bei Unklarheiten gilt jeweils die englische Originalversion des Videointerviews bei Vimeo.
Fehler gefunden? Jetzt melden
Dieser Artikel wurde erstmals publiziert am 07.07.2021
Teile jetzt deine Erfahrungen