Fusion split EXR
En este video explico de forma muy breve como instalar y utilizar un script que permite realizar shuffle de los diferentes AOVs dentro de un multi channel EXR en Fusion.
RED footage en el pipe de VFX
Nota: Este post contiene información exclusiva para los miembros de elephant vfx pro.
La ingestión y el output de footage es una labor que ha de realizarse de forma correcta para no perder ningún tipo de información de color e iluminación. Es muy importante que el footage que llega de editorial salga exactamente con las mismas características de latitud hacia la sala de DI (digital intermediate). En los grandes facilities de VFX y grandes producciones, esta tarea puede ser bastante compleja en ciertas ocasiones, debido a los complicados sistemas de gestión de color que podemos llegar a utilizar.
Paso a explicar como podemos realizar esta labor de forma adecuada en lo que llamaríamos un pipeline de color simple, o independiente. Es decir, la forma más común con la que generalmente trabajan boutiques de VFX, freelancers o simplemente, pipelines de color no demasiado complejos.
En la imagen de arriba, utilizada durante la explicación del vídeo, explico de forma rápida como funcionan los distintos modelos de cámaras RED. El footage generalmente oscila entre diferentes resoluciones, desde 4k hasta 8k.
Los sensores, CMOS que siempre trabajan de forma linear, si, como cualquier motor de render. Y del mismo modo, necesitamos una transformacion de color y su correspondiente gamma para visualizar el footage de forma adecuada en la mayoria de monitores y dispositivos.
Las camaras RED tienen su propio color management llamado RED color y su propia gamma llamada RED gamma. Tambien puedes optar por espacios de color comunes como sRGB o rec709 con sus gammas correspondientes a 2.2 o 1.8
- Lo primero es converir el footage a un formato estandard. Generalmente vamos a trabajar con .dpx comun en cualquier facility y cualquier software.
- REDCineXpro es el software (gratuito) con el que puedes realizar todo tipo de conversiones. Tambien puedes realizar trabajos de edicion, color grading, etc. Generalmente vamos a utilizarlo solo para epxortar el footage a .dpx
- En las opciones de color, podras ver el espacio de color y gamma con el que ha sido rodado el footage. Conviene cambiar el gamma a redLogFilm, siendo log un estandard neutro, perfecto para color grading. Seria lo mismo que utilizar el nodo log2lin en Nuke.
- Exporta como .dpx
- La forma correcta de importar el footage en Nuke es como log, es decir, color space cineon en el nodo read.
- Para visualizarlo correctamente, utilizamos un transformacion de color sRGB o rec709. O por supuesto, un LUT enviado desde la sala de DI (lo mas comun).
- En Nuke realizamos el trabajo de VFX que necesitemos, bien sea composicion 3D, clean up, etc.
- En este caso, he hecho un clean up de nieve de forma muy rapida.
- Una vez terminado el trabajo, basta con escribir lin sRGB-log (cineon) como .dpx utilizando la misma profundidad que el footage original.
- En este punto deberiamos de ser capaces de enviar el restultado de nuestro trabao de vuelta a editorial o DI, donde podran aplicar cualquier color grading en el que hayan estado trabajando, puesto que nuestro footage tendra exactamente las mismas cualidades que antes de salir de DI, excepto los aniadidos VFX claro.
- Para ilustrar esto, voy a importar el nuevo footage en Adobe SpeedGrade, que bien no es una sala de DI con Baselight o Resolve. Donde el input sera Cineon/Log y la transformacion de color sRBG para ver el footage igual que en Nuke, que en este punto, todavia es neutro.
- A partir de ahora podemos tomar cualquier decisión creativa en cuanto a color se refiere. En este ejemplo simplemente estoy aplicando un LUT previamente creado.
- En cualquier momento podemos desactivar el color grading y enviar un nuevo edit al facility de VFX, y siempre estaremos trabajando de forma neutra. Tambien podemos enviarles nuestro color grading en forma de LUT para que ellos puedan aplicarlo en los respectivos software de 3D y 2D, siempre de forma no destructiva, claro.
Es importante tener en cuenta, que para generar un LUT de forma apropiada, desde VFX necesitamos enviar un CMS pattern a DI para que nos generar el archivo LUT.
- En Nuke, basta con crear un nodo CMS pattern, que tiene unos valores conocidos. Ellos aplicarán su color grading a este pattern, y la diferencia en valores sera el LUT, que posteriormente podemos aplicar a nuestro footage.
- Del mismo modo nosotros mismo podemos generar nuestros propios LUTs en Nuke, concatenando cuantos color gradings o color corrections necesitemos, y escribiendo el resultado en un nodo write generate LUT. Podemos expandir esto en un futuro.
Los miembros de elephant vfx pro podéis acceder a un vídeo de mas de 30 minutos donde explico todo esto de forma detallada.
RAW lighting y albedo AOVs en Arnold
El otro día un alumno del curso "Técnicas guerrilla para la creación de planos VFX" me escribió un email preguntándome si Arnold no tenía AOVs para RAW lighting y albedo, ya que anteriormente trabajaba con otros motores de render que si disponían de los mencionados AOVs.
La respuesta es si y no. Es decir, por defecto si miramos la lista de AOVs de Arnold, no veremos ninguno llamado RAW lighting o albedo. Pero si, podemos fácilmente crearlos, os explico un par de soluciones.
- En los AOVs de Arnold, como veis en la imagen los AiStandard no disponen de AOVs para RAW lighting o albedo.
- La solución más sencilla es utilizar los AlShaders. Que como podéis comprobar, si que incluyen AOVs tanto para RAW lighting como albedo. Solucionado.
- Supongamos que tenemos que utilizar AiStandard, aun así, podemos controlar de forma individual este tipo de información. Lo que necesitamos hacer es renderizar los AOVs que comúnmente renderizamos, dependiendo de las necesidades de cada uno, pero generalmente seran AOVs primarios y AOVs tecnicos.
- También necesitamos hacer un albedo a mano, es decir, sustituyendo todos los shaders AiStandard de la escena por Surface shaders de Maya, que como sabéis, no les afecta la iluminación. En una escena muy compleja, esta tarea puede ser tediosa, pero raramente necesitaremos el albedo de toda la escena, solo de algunos hero assets. Además, esta tarea puede ser automatizada mediante scripting. ¿Algún voluntario?
- Una vez en Nuke, voy a importar el beauty y el albedo pass.
- Si dividimos uno por el otro obtenemos el RAW lighting. Con lo que podemos manipular la iluminación sin afectar a el color.
- También podremos manipular el color independientemente de la iluminación. En este caso estoy tocando el color utilizando un color correction y clonando parte de la textura utilizando un roto paint.
- Vuelvo a juntar los dos componentes, luz y color utilizando un multiply.
- Si no hubiera realizado ningún ajuste a la iluminación o al color, esta operación debería de darnos exactamente el mismo resultado del beauty.
- Finalmente como tenia tambien la informacion de sombras almacenadas en el alpha, provenientes de un shadow catcher, voy a ponerle un suelo a la imagen :)
UVs AOV corrección
Uno de nuestros lectores, siguiendo el tutorial de UVs AOV en Arnold, ha publicado un post en el foro comentando que en su AOV de UVs encuentra distorsiones, que a priori, no estaban allí en Maya. La razón de ello, es que el shade mode del aiUtiliy ha de ser flat. Se me olvidó comentar esto en el video y de ahí la confusión.
La opción de Nuke que cambiará tu vida
Bueno, quizás no es para tanto, pero al menos a mi me ha ahorrado muchas ¿horas? de trabajo, y sigue haciéndolo.
Como ya sabeis, Nuke es una de las herramientas más comunes utilizadas en todos los estudios de efectos visuales, y por supuesto, el standard de la indsutria en cuanto a composición se refiere. Hoy en dia, prácticamente todos utilizamos Nuke, no solo los compositores. Lighting TD's utilizan Nuke a diario, Look-Dev Artists utilizan Nuke todos los dias, también Texture Painters, Matte Painters, etc. Incluso modeladores, pre-viz artists, etc. Me he dado cuenta de que salvo los compositores, el resto de profesionales no conocemos más que cuatro cosas de Nuke, y esta opción que os presento hoy, no es una de ellas.
¿Nunca te has preguntado por qué el orden de composición en Nuke no parece tener ninguna lógica? ¿Nunca has buscado cómo remediarlo? En este video te explico como hacerlo.
Stmaps
Uno de los tratamientos más habituales que sufre un footage en VFX es el delensing, es decir, eliminar la distorsión de lente. Este es uno de los primeros pasos e indispensable para un sin fin de tareas, como tracking, rotoscoping, image modelling, etc.
En otras ocasiones, también es muy importante copiar esa información de lente y aplicarla a otro footage o a nuestros renders.
Debido a que utilizamos diferentes software, como 3D equalizer, Nuke, Flame, etc, resulta muy conveniente pasar la información de distorsión de lente utilizando Stmaps, ya que a fin de cuentas, son imágenes .exr de 32 bits, perfectamente legibles por la mayoría de software standard de la industria.
- Como punto de partida, empezaremos haciendo el delensing de nuestro footage utilizando lens grids.
- Lens grids son el metodo mas rapido y preciso de realizar delens.
- Si cambiamos el output a displacement y seleccionamos el canal forward en el visor, podemos ver la informacion de uv.
- Si escribimos el output como .exr de 32 bits obtendremos un uv map que posteriormente podremos aplicar en cualquier software.
- Para aplicarlo a cualquier footage en Nuke, basta con utilizar un Stmap. Conectar el input src al footage y el input stmap a la imagen con la información de uv apuntando al canal forward.
- Listo, la misma información de lente ha sido aplicada al footage, pero en esta ocasión sin necesidad del nodo lens distortion propietario de Nuke, si no utilizando uv maps genéricos.