Trabajar con Ptex en Zbrush
Render utilizando Ptex.
¿Qué ocurre si estás trabajando con Ptex pero necesitas hacer algún tipo de detalle de desplazamiento en Zbrush? ¿Cómo se puede renderizar eso?
Como seguramente sepas, en este momento Zbrush no soporta Ptex. Como ya comentaba en el post anterior, no soy un gran fan de Ptex, pero eso va a cambiar en el futuro, probablemente. La mayor ventaja (para mi) de utilizar Ptex, es como comentaba, la posibilidad de no tener que realizar UV mapping. Pero entonces, si Zbrush no soporta Ptex, y no tengo tiempo/ganas de realizar UV mapping, ¿cómo puedo esculpir en Zbrush y exportar mis mapas de desplazamiento para ser renderizados en Ptex?
Render sin displacemet.
- En la imagen de abajo, tengo un scan 3D el cual he procesado en Meshlab para reducir la cantidad de poligonos a un numero aceptable para poder trabajar en otros software.
- El siguiente paso, es importar el modelo en Zbrush. 500.000 polígonos son suficientes para poder trabajar de forma fluida y mantener los detalles que me interesan en este particular modelo.
- Voy a utilizar Zbrush para generar una retopología rápida, automática. Puedes por supuesto utilizar Maya o Modo para generara un modelo consistente de quads, listo para producción. Para el propósito de esta demo, una retopología automática es suficiente.
- Utilizando la herramienta Zremesher podemos crear una topología más que digna para este propósito en diez segundos.
- El siguiente paso consiste en exportar tanto el modelo original de alta resolución, como el modelo de baja resolución. Puedes utilizar el formato .obj
- Vamos a importar los dos en Mudbox para extraer el mapa de desplazamiento utilizando Ptex. Mudbox si soporta Ptex.
- Una vez importados los dos modelos, mantén los dos visibles.
- Exporta los displacement maps de forma normal.
- Lo más importante de las opciones que has de tocar está señalado en la imagen de abajo.
- Para renderizar los archivos Ptex en Vray, puedes seguir exactamente las mismas reglas que para renderizar cualquier displacement de 32 bits.
- Y ya está, todo debería de renderizarse correctamente.
¿Por qué nadie utiliza Ptex?
Allá por el 2009 Walt Disney Animation Studios presentó Ptex, y sobre el papel, parecía la mejor solución posible para cualquier pipeline complejo de VFX (y también de feature animation). Muchos de los problemas comunes del texturizado, podrían esfumarse con este nuevo sistema de texturizado por caras. Lo cierto es que más de seis años después, nadie utiliza Ptex.
Bueno, tampoco pretendo ser tan contundente, mejor debería de decir que no conozco a nadie que utilice Ptex, salvo claro, Walt Disney Animation Studios (sus propios creadores por otra parte) y seguro algún estudio o boutique más, probablemente.
He trabajado en, con o para, Dr.D-Animal Logic, MPC, Dneg, Framestore, ILM, Digital Domain, Rythm&Hues y varios middle size y boutiques de VFX alrededor del mundo, y aún no he tenido la oportunidad de trabajar utilizando Ptex.
Y me da rabia. Ptex es una gran solución, estaría encantado de incorporarlo en mi sistema de trabajo diario, pero la realidad es la que es, UDIM sigue siendo el sistema de trabajo estandard cuando hablamos de pipelines de texturizado.
¿Cuáles creo que son los beneficios de utilizar Ptex?
- El primero y más importante, eliminamos el proceso de UV Mapping. Genial! A priori puede parecer poca cosa, pero realizar el UV Mapping de un asset complejo, y además, hacerlo bien, es una tarea muy complicada, y precisa de un modelador con mucha experiencia y conocimientos específicos. Además, con cada iteración de modelado las UVs pueden verse alteradas, teniendo que modificar las UVs existentes.
- No hay seams ni overlappings. Con Ptex también eliminamos varios de los problemas más engorrosos del UV Mapping, como por ejemplo seams y overlappings, que pueden causar resultados muy inesperados en el look de nuestros assets, especialmente cuando utilizamos displacement maps (es decir, siempre).
- No necesitas gestionar ficheros. Bueno en realidad si, pero solo es un fichero por canal. Mientra que cuando trabajamos con UDIMs necesitamos cientos, que digo cientos, miles de ficheros de texturas para assets complejos. Con Ptex nos bastaría con un solo archivo (bastante pesado por cierto) para cada canal de textura.
- Puedes almacenar todo tipo de datos en los ficheros Ptex. 8 bits, 16 bits, 32 bits, vector displacements, integer o float.
- Se aprovecha toda la resolución posible, no hay espacios UV vacíos como ocurre con UDIM y tradicional UV Mapping.
- Se puede variar fácilmente la resolución de las texturas. Cada parte del asset puede tener una resolución diferente en función de las necesidades del plano. De hecho, cada cara del modelo puede tener una resolución diferente.
- Walt Disney Animation Studios dice que Ptex es más rápido que UDIMs mipmapped. Puedes encontrar varias tablas en internet con los resultados de sus tests.
¿Cuáles creo que son los puntos flacos de Ptex?
- No user friendly. La mayoría de texture artist les gusta pintar tanto en 3D como en 2D. Con Ptex no puedes pintar en 2D.
- Limitación de software. No todos los motores de render soportan Ptex. Cierto es que la mayoría si, pero no todos, y entre los que no soportan Ptex, el mejor render del momento.
- Comunicación inexistente entre software. Ptex es un archivo de texto. Obviamente no se puede abrir en Photoshop (si es que queda algún texture artist utilizando Photoshop) ni en Nuke. Y ese si es un problema grave. Y aquí otro problema grave, tampoco Zbruh soporta Ptex. Si, ya se que Mudbox soporta Ptex, pero si eres texture artist y utilizas Mudbox, seguramente también utlizas Photoshop, así que es bastante probable que estés en un ambiente más bien amateur, no en un VFX facility.
- UDIM está muy arraigado en todos los VFX facilities del mundo desde hace mas de una década, y funciona muy bien si el UV Mapping es bueno. A los artistas no les gustan los cambios, y menos cuando no se aprecian con la vista. Ptex a priori, solo es buena solución para los artistas porque no necesitaríamos emplear nuestro tiempo en realizar UV Mapping. No vemos mas allá de eso. (por desgracia).
- Si no hay suficiente geometría (tessellation) es difícil conseguir buena resolución de texturas.
- Poca información y ejemplos horribles. Apenas existe documentación sobre Ptex y los ejemplos visuales (repito, a los artistas se les convence por los ojos -o la cartera-) son patéticos. En la web oficial de Ptex hay un dinosaurio de juguete, una tetera y un cubo. Y las referencias constantes que Walt Disney hace sobre ejemplos de producción se reducen a la película Bolt. Muy bonita, pero si quieres vender un sistema de texturizado a VFX facilities necesitas mostrar ejemplos más ambiciosos desde el punto de vista de assets development.
Algunos usos alternativos/inteligentes que le he dado a Ptex
- Para limpiar 3D scans, Lidars o Photogrammetry en Zbrush, hacer retopologías automáticas (para objetos que no necesitan rigging) exportar todo a Mudbox y extraer displacement maps utilizando Ptex sin perder ni un minuto en hacer UV Mapping para assets irrelevantes.
- Empezar la tarea de texturizado en Mari cuando el modelo ha sido finalizado pero las UVs aún no están listas. Después, cuando el modelador haya terminado el UV Mapping, transferir lo pintado en Ptex a las UVs y continuar desde ahí.
¿Entonce Xuan, a ti te gusta Ptex?
Si, me gusta. Pero si me dan las UVs hechas (que es el caso) no veo razones de peso para dejar UDIMs en favor de Ptex.
Supongo que si tuviese que hacer un extreme close up, me forzaría a utilizar Ptex. Supongo que si me mostrasen un montón de ejemplos visuales realizados por importantes texture artists, me forzaría a utilizarlo. Supongo que si pudiese leer un montón de información interesante (de cara a artistas) sobre Ptex me forzaría a utilizarlo. Supongo que si...
Por el momento, utilizaré Ptex única y exclusivamente para proyectos personales y tests donde yo mismo tenga que realizar tareas de UV Mapping que no me apetezca (o no tenga tiempo) realizar.
Reflexiones de aeropuerto :)
Podcast 0004 - La cara "b" de los VFX
En esta ocasión hablamos sobre la cara "b" de la industria de los VFX, o al menos, algunos de los tópicos no tan agradables de nuestro trabajo.
Subsidios, falta de representación legal, el sobrevivir de los estudios, Vancouver, falta de comunicación, etc.
mmColorTarget
Este video es una pequeña demo que grabé hace tiempo explicando como utilizar el gizmo de Nuke "mmColorTarget" creado por Marco Meyer.
En el video explico primero como instalarlo en Mac, que no es cosa fácil. De hecho, si encuentras otra forma de hacerlo, agradecería que la compartieras.
Después, explico los usos que yo le doy en relación con referencias de texturas, background plates e Image Based Lightning.
El video originalmente fue creado para xuanprada.com así que está en inglés, aunque supongo no tendrás mayores problemas en seguirlo.
Akromatic mini base
Ya está disponible la nueva "akromatic mini base" en nuestra web de akromatic, échale un ojo!
Toda la información aquí.
Entrevista con Pete Romano
Recientemente se ha estrenado Mission Impossible: Rogue Nation en la que tuve la oportunidad de trabajar durante aproximadamente un año como Visual Effects Artist en Double Negative London.
Sin intención de soltar ningún spoiler, simplemente mencionar que una de las secuencias más importantes de la película, transcurre en una cámara de seguridad gigante sumergida bajo toneladas de agua, parte de esta secuencia puede verse en el trailer.
Mi equipo de trabajo en Dneg se encargo de construir todos los elementos de esta cámara de seguridad y el doble digital de Ethan Hunt, interpretado por Tom Cruise.
Double Negative estuvo presente en el rodaje, en Warner Bros Studios Leavesden, donde se construyó parte del set en un tanque de agua gigante y donde Tom Cruise y el resto del equipo pasamos cerca de un mes rodando las escenas de acción para esta secuencia.
Aprovechamos la ocasión para charlar con Pete Romano (ASC) cinematógrafo responsable de filmar esta secuencia. Pete es uno de los directores de fotografía más importantes del panorama actual, y a lo largo de su carrera se ha especializado en filmar escenas sub acuáticas, trabajando en algunos de los títulos más importantes de los últimos veinte años.
Este es un pequeño vídeo donde se introduce la secuencia de la que hablo, combinación de set práctico, set digital, stunts por Tom Cruise y digital actors por Dneg.
Mission Impossible Rogue Nation es la primera producción que ha utilizado la Arri Alexa 65, cámara digital de gran formato, que nos proporcionó al equipo de VFX unos plates de 6k con una nitidez inmaculada, pese a haber rodado en un tanque de agua sumergidos. La mayor parte de la película no se rodó de forma digital, si no en película de 35mm. La decisión de rodar las escenas sub acuáticas con la Alexa 65 + HydroFlex fue decisión de Pete. HydroFlex es un sistema de "housing" (encapsulamiento de cámara para rodar bajo el agua) creado por el propio Pete. Gracias a este sistema se pudo proporcionar un material exquisito a Double Negative para trabajar en prácticamente todos los planos de la secuencia.
¿Porqué elegiste Alexa 65 para esta secuencia?
La secuencia se rodó prácticamente en su totalidad con un fondo virtual, así que era importante conseguir la mayor resolución y la mayor calidad posible de imagen, para conseguir el look ideal. Double Negative estuvo involucrado desde el principio e insistieron desde el primer momento en la importancia de conseguir una imagen impecable para poder desarrollar con éxito los efectos visuales. Para mi también es importante el hecho de ser el primero en utilizar esta tecnología, siempre me gusta ir en vanguardia y experimentar con nuevas cámaras. Mi relación con Arri se remonta mucho años atrás y ser el primero en utilizar esta tecnología, es la guinda del pastel.
¿Qué lentes utilizaste de la familia Prime 65?
Decidimos que sería ideal para el equipo de VFX si utilizábamos de forma consistente un 28mm. También realicé algunos planos "hand held" de Tom Cruise y Rebecca Ferguson, en estas ocasiones necesitábamos acercarnos un poco más, así que utilicé un 35mm. La mayoría de planos son generales, muy abiertos y los Prime 65 consiguen una imagen muy nítida y definida. Se puede ver todo perfectamente, y eso era ideal para nuestro propósito. Cuando vi los primeros test que hicimos, en seguida me di cuenta de que la imagen era asombrosa, había muchísima información allí.
¿Cuáles fueron los retos de crear el "housing" para la Alexa 65?
(El housing es el sistema diseñado para sumergir la cámara, HydroFlex).
Arri todavía estaba trabajando en los prototipos de la cámara cuando empecé a diseñar el "housing", así que no pude disponer de una cámara real para hacer tests. Tuve acceso a un modelo 3D de la cámara, que imprimí en 3D para poder construir el "housing", ligeramente más grande que el que diseñamos para la Alexa XT. Contacté con Arri en Munich y John Duclos en Londres quien tiene un conocimiento increíble en todo lo relacionado a conectores, cables y unidades de potencia. Para poder sacarle todo el partido a la resolución de la Alexa 65 contacté con Ryan Canon, de Nauticam USA para proporcionarme la semiesfera que cubre la lente. El primer prototipo de cámara nos llegó en Noviembre, un martes. Dos días después teníamos que partir hacia Leavesden para rodar, sin tiempo para probar nada. Afortunadamente todo salió bien en el set.
¿Hubo algún requerimiento especial para tratar el calentamiento del "housing"?
Estaba preocupado por el calentamiento, por la cantidad de datos generados, pero se me ocurrieron un par de ideas. Primero, coloqué un par de depósitos justo encima de los ventiladores, frente al sensor y también tras los procesadores. Pero como digo, no tenía una cámara real para testearlo, así que seguía preocupado por el calentamiento. Diseñé un intercambiador de aire para sacar el aire caliente del "housing" hacia la superficie. El primer día que utilicé la cámara en el set, la dejé funcionando durante dos horas sin descanso y no hubo problemas de calentamiento. Esto lo hice fuera del agua y sin el intercambiador de aire, asi que desde ese dia nunca he necesitado utilizarlo. Sigue guardado en su caja, sin usar.
¿Cómo utilizasteis las dos Alexas 65 en esta secuencia?
Las utilizamos de tres formas diferentes. La primera "hand held", para algunos primeros planos. La segunda, montada en unos raíles circulares. En VFX generalmente es mas fácil animar cámaras que objetos, Robert y yo utilizamos esta técnica para crear la ilusión de que Tom Cruise gira alrededor de la gigantesca cámara sub acuática, que no pudimos crear de forma real en el set. (es full CG). El raíl circular interior mantenía sujeto a Tom Cruise y el raíl exterior servía como soporte para la cámara, invertida.
La tercera forma de utilizar la cámara fue con una grúa, para los planos en los que utilizamos la parte del set construido de forma práctica y con fondo greenscreen.
¿Existen similitudes al trabajar con la Alexa 65 y con la Alexa XT (su anterior cámara)?
Si, fue prácticamente invisible, natural, como cuando trabajas con el "hermano mayor" de una cámara, y no con una cámara completamente nueva. Teníamos un cable ethernet desde la cámara hasta la superficie, para poder observas las funciones de la cámara y lecturas de calor, igual que con la Alexa XT. Esto nos permite cambiar algunas opciones de la cámara como el frame rate, desde la superficie, sin perder tiempo de producción. Todo el mundo tenía muchas ganas de ver las imágenes de la Alexa 65 y hacíamos pre-comps y line-ups en el set mientras estábamos rodando, para asegurarnos de capturar todo lo que necesitábamos.
Alexa 65 + HydroFlex en el set de Mission Impossible Rogue Nation.