blender appleseed
Standbild aus "Fetch", einem Kurzfilm der vollständig in Appleseed gerendert wurde.
Featured

Interview: François Beaune über Appleseed

François Beaune hat den 2009-Appleseed-Renderer gestartet und ist momentan Hauptentwickler sowie Projektkoordinator. Wir trafen ihn auf der FMX 2O15 in Stuttgart und sprachen über die Open Source Render Engine, die Cycles oder Luxrender ähnelt.

Allerdings steht Appleseed unter der MIT-Lizenz, die die Engine zur Integration in jegliche Software freigibt. Zurzeit lässt sich Appleseed mit Maya, Blender und Gaffer sowie als Standalone verwenden.

BD: François, erzähl uns ein wenig über das Projekt und wie es um die Kompatibilität mit anderer Software bestellt ist.

François Beaune: Wir haben Plug-ins für Blender und Maya. Weiterhin gibt es ein noch recht rudimentäres Plug-in für Houdini. Leider unterstützt keines dieser Plug-ins bisher alle benötigten Features. Es handelt sich dabei also um laufende Arbeiten. Die Plug-ins für Maya und Blender würden wir auch gerne auf dem Level der C++ APIs anbieten, damit die Nutzer Echtzeit-Feedback für Beleuchtung und Shading direkt im Viewport der Host-Applikationen haben können. Das sind Dinge, die wir noch verbessern müssen.

BD: Es gibt da auch eine Integration in Gaffer?

François Beaune: Wir haben die Integration in Gaffer im Grunde sogar schon fertig gestellt. Das ist noch gar nicht so lange her. Es ist die Arbeit eines Appleseed-Entwicklers namens Esteban Tovagliari. Er hat im Laufe des vergangenen Jahres einen wirklich guten Job gemacht. Nur ein paar Worte zu Gaffer: Es handelt sich dabei um ein Look-Dev-Werkzeug von einem Studio namens Image Engine aus Vancouver. Es ist auch vollständig Open Source und steht ebenfalls unter der MIT-Lizenz. Es ist also kompatibel mit Appleseed. Wir sind in Gaffer vollständig integriert und die nächste Version von Gaffer wird sogar mit Appleseed als Render-Engine ausgeliefert werden. Gaffer und Appleseed ergeben zusammen eine wirklich schöne Open-Source-Look-Dev-Applikation. Das ist etwas, was es vorher noch nicht gab.

BD: Du hast mit dem Projekt vor circa 6 Jahren angefangen. Inzwischen sieht es so aus, als wäre Appleseed auf einem ähnlichen Stand wie andere Open Source Pathtracing Engines à la Cycles.

François Beaune: Mit Appleseed habe ich im Jahr 2008 angefangen. Die erste Version wurde im Juli 2010 veröffentlicht. Wir verfügen über die meisten grundlegenden Features, mit Ausnahme von volumetrischem Rendering und Subsurface Scattering. Daran arbeiten wir gerade – und das ist natürlich eine größere Angelegenheit. Bei Subsurface Scattering handelt es sich um ein Feature, das bei uns häufig von Nutzern nachgefragt wird, die Charaktere rendern wollen. Es gibt zwar eine Art der Transluzenz, die „dünne Transluzenz“ genannt wird und die sich sehr gut für Dinge wie Blätter an Bäumen oder Gras einsetzen lässt. Für Charaktere hingegen funktioniert die einfach nicht. Sowohl Volume Rendering als auch Subsurface Scattering werden wir wahrscheinlich noch in 2015 einführen. Denn wir arbeiten an einem neuen Kurzfilm, für den wir diese Features brauchen werden.

BD: Inwieweit wird Appleseed schon eingesetzt?

François Beaune: In unserem Team haben wir einige Leute, die Appleseed schon in kommerziellen Projekten einsetzen. Wir haben im vergangenen Jahr an zwei Dokumentationen der BBC mitgewirkt, an einem Werbespot sowie kleineren Werbefilmen. Weitere Beispiele sind mir aber nicht bekannt. Wie schon gesagt, Appleseed ist noch nicht gut genug in Maya integriert, deswegen ist es immer noch ein wenig kompliziert in der Bedienung. Nutzer probieren es aus, sind dann aber noch nicht bereit, den kommerziellen Weg zu gehen. Aber es gibt eine kleine Community rund um Appleseed, viele setzen es für Character Design ein. Darum bekommen wir auch immer wieder Anfragen bezüglich Subsurface Scattering und darum steht das Feature auch so weit oben auf unserer Prioritätenliste.

BD: Appleseed wird mit Fokus auf VFX und Animation entwickelt – wie habt ihr den Renderer aufgebaut, damit er besonders gut für Animationen geeignet ist?

François Beaune: Zuallererst habe ich selbst ein großes Interesse an Animation. Ich wohne in Annecy, das ist die Stadt, in der das Festival d’Animation abgehalten wird. Das ist ein wirklich großes Festival mit weltweiter Ausrichtung. Ich wollte schon immer Animationen erstellen und ein guter Freund von mir ist ebenfalls in dieser Richtung aktiv. Unser Ziel, einen Kurzfilm zu produzieren, haben wir vor Kurzem erreicht: Das Ergebnis ist „Fetch!“. Ich glaube außerdem, dass von den vielen existierenden Open Source Render Engines keine einzige wirklich für Animation geeignet ist. In meinen früheren Jobs habe ich viel in dem Bereich gearbeitet, es ist also etwas, von dem ich viel verstehe und weiß, wie man es richtig macht – Motion Blur, Animationen, die nicht flackern et cetera.

BD: Stichwort Motion Blur: Wie sieht es bei Appleseed damit aus, also wie gut ist die Implementierung von Curved Motion Blur, Deformation Motion Blur und so weiter?

François Beaune: Wir unterstützen alle Arten von Motion Blur auf einem Level mit kommerziellen Lösungen wie V-Ray, Mental Ray et cetera. Transformation Motion Blur wird mit so vielen Schritten wie gewünscht unterstützt, auch bei Kurven-Bewegungen, außerdem Deformation Motion Blur mit beliebig vielen Segmenten. Es ist auch äußerst schnell. Wir waren erstaunt, dass Motion Blur im Kurzfilm „Fetch“ überhaupt keine Performance-Probleme bereitete. Es ist einfach nur schnell.

BD: Appleseed unterstützt momentan nur die CPU. Siehst du dafür einen Markt? Besonders bei kleinen Studios und Freelancern ist ein Trend hin zu GPU-basierten Lösungen zu verzeichnen.

François Beaune: Momentan ist Appleseed ein rein CPU-basierter Renderer. Der Grund, warum nur die CPU unterstützt wird, ist, dass wir programmierbare Shader mittels OSL einsetzen. Und OSL gibt es zurzeit nur für die CPU. Wir unterstützen aber auch andere Formen der Programmierbarkeit wie zum Beispiel SeExpr von Disney. Damit können wir verschiedene Layer über beliebige Formeln verbinden. Das funktioniert momentan aber ebenfalls nicht mit GPUs. Selbst wenn es auf der GPU laufen würde, bliebe die Frage, ob es effizient wäre. Darum konzentrieren wir uns derzeit auf CPU-Rendering. Pläne für GPU-Rendering haben wir keine, wir halten aber die Augen offen. Natürlich sind wir an GPU-Rendering interessiert, aber momentan sieht es einfach nicht so aus, als ob wir das nutzen könnten. Wir wollen auch große Szenen mit viel Geometrie und Texturen rendern, da stoßen GPUs schnell an ihre Grenzen. Außer man setzt teure Modelle mit 24 GB RAM ein. Aber von denen gibt es momentan nur wenige auf dem Markt. Wir wollen große Szenen unterstützen und obendrauf noch große Flexibilität über programmierbare Shader erlauben. Das funktioniert beides nicht wirklich auf der GPU. In Bezug auf den Markt ist es natürlich wahr, dass GPU-Rendering für kleine Studios und Freelancer sehr attraktiv ist. Immerhin lassen sich damit die Renderzeiten um einen großen Faktor reduzieren. Aber wir glauben, dass es einen Markt für einen flexibleren Renderer gibt, der Dinge möglich macht, die GPU-Renderer einfach nicht bieten können. Man muss auch bedenken, dass Appleseed derzeit eine Art Hobby-Projekt von uns ist, das wir in unserer Freizeit entwickeln. Und da wollen wir nicht mit Inkompatibilitäten zu kämpfen haben wie Treiber-Probleme oder der Tatsache, dass sich GPU-Rendering momentan aufteilt in OpenCL und Cuda. Das ist ein weiterer Grund, warum wir gerade keine GPUs unterstützen.

BD: Der andere Teil, für den ihr Appleseed optimieren wollt, ist VFX. Dafür sind Volume Rendering sowie Unterstützung für Voxel- und Point-Density-Daten sehr wichtig. Wie sehen die Pläne auf dem Gebiet aus?

François Beaune: Volume Rendering ist eines der Haupt-Features, an denen wir zurzeit arbeiten. Genau wie beim Rest von Appleseed wollen wir eine äußerst robuste Unterstütztung für Volumen in der Hinsicht, dass sie vollständig per Pathtracing gerendert werden sollen. Damit der einzige Bias aus Rauschen besteht. Der neue Kurzfilm, an dem wir arbeiten, wird Volumen benötigen. Daher arbeiten wir gerade jetzt daran, zusammen mit Subsurface Scattering. Volume Rendering und Subsurface Scattering haben Verbindungen zueinander. Man kann Subsurface Scattering zum Beispiel als eine Form von Volumen implementieren. In letzter Zeit wurden viele Forschungsergebnisse über schnelles volumetrisches Rendern mit Pathtracern publiziert, manches davon von Solid Angle, den Machern von Arnold. Es gibt da einiges an cooler Technologie zum Ausprobieren, Implementieren und Erforschen.

BD: Kannst du uns ein wenig über den neuen Kurzfilm verraten?

François Beaune: Das ist noch immer ein kleines Geheimnis. Eines Tages hatte ich bei mir eine Steckdose bemerkt, die aussieht wie ein menschliches Gesicht. Ich hatte das Ding schon seit Jahren und plötzlich merkte ich, dass es Augen und einen Mund hat und dazu auch noch lächelt. Ich dachte also, das könnte ein guter Charakter für einen animierten Kurzfilm sein. Also haben wir angefangen, an einem Skript über eine Steckdose und einen Lichtschalter zu arbeiten, die nebeneinander in einer Wand in einem Haus im Stil der 50er Jahre leben. Es wird wieder ein sehr kurzer Film, möglicherweise um die zwei Minuten lang. Wir werden fotorealistisches Rendering einsetzen und ihn möglicherweise in 4K berechnen. Fürs Look Dev wird Gaffer zum Einsatz kommen, für das komplette Shading werden wir Open Shading Language nutzen. Volumen werden wir für atmosphärische Effekte wie Staub benötigen, um ein Ambiente zu schaffen. Und an einer Stelle im Film erscheint eine Kinderhand, wir werden also auch Subsurface Scattering benötigen.

 

Dieses Interview erschien im Magazin Digital Production, Ausgabe 1505. Herunterladen können Sie es hier im PDF-Format. Den zugehörigen Artikel zum Appleseed-Renderer finden Sie hier auf BlenderDiplom.

Wir benutzen Cookies

Wir nutzen Cookies auf unserer Website. Einige von ihnen sind essenziell für den Betrieb der Seite, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern (Tracking Cookies). Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Seite zur Verfügung stehen.