Hola a todos!

Acabo de terminar de grabar los videos para el nuevo tutorial, Nuke IBL templates. Alrededor de 3 horas donde explico como crear y utilizar dos de mis templates de Nuke más utilizados para look-dev, lighting y render. En el primer template, hablo sobre clean up y eliminación de artefactos. Ya sabes, como eliminar trípodes, personas en el set, ghosting, etc. Tanto en un espacio 2D como en el espacio 3D, utilizando Nuke's 3D system, para tareas de clean up más complejas.

En el segundo template, explico cómo realizar la neutralización de HDRIs para utilizarlos en IBL. Explico el proceso de linearización y el de balance de blancos. Estas tareas son comunes a los lighting supervisors o sequence supervisors antes de realizar cualquier trabajo de lighting en VFX.

Los que apoyáis un tier con material de descarga, podréis descargar todo el material utilizado en este tutorial, que incluye scripts de Nuke, footage y otros documentos.

Muchas gracias de nuevo por vuestro apoyo, y si os gusta mi Patreon, por favor ayudadme a compartirlo, me gustaría llegar al menos a 50 patrons. Gracias!

Toda la información aquí.

Este post incluye contenido exclusivo para los suscriptores de elephant vfx pro. Un video de 20 minutos explicando el proceso en detalle.

Ya hemos hablado en el blog, y en nuestros cursos, en varias ocasiones acerca de normalización de referencias, neutralización, white balance, etc. No hace mucho, escribí este artículo sobre tech grading en VFX, donde explicaba un poco el proceso más común que siempre tenemos que realizar con cualquier footage que deseemos incorporar en un pipeline de producción de efectos visuales.

Generalmente y siempre en Nuke, podemos utilizar el gizmo mmColorTarget con macbetch charts de referencia fotografiadas en unas condiciones lumínicas conocidas, para realizar el proceso de neutralización. En ocasiones, trabajaremos en producciones donde por las razones que sean, no podamos utilizar el gizmo mencionado, o puede que simplemente trabajames en un software de composición linear diferente, como Fusion o Flame.

También es posible que estemos utilizando referencias de macbeth chart que no son Xrite, las más comunes utilizadas en la industria. Y por lo tanto, el gizmo mmColorTarget no funcione, ya que está construido para trabajar con estas cartas de color. En esta demos estoy utilizando una carta de color Spydercheker 24 de Datacolor.

Aquí explico un método más genérico, con herramientas propias de Nuke, sin necesidad de gizmos externos, para realizar una neutralización de footage decente. En un futuro explicaré este mismo método en Fusion.

Este es el footage que vamos a utilizar para esta demo. En este caso, es una simple referencia, que perfectamente podría ser nuestro plate para look-dev, o una referencia de iluminación para la recreación de un set. Nótese que he buscado condiciones lumínicas extremas, precisamente para poner en evidente manifiesto esta técnicas, para que no haya espacio para sutilezas :)

  • Para no complicarnos demasiado, y entender bien el concepto de neutralización, he decidido trabajar de la forma más simple posible en cuanto a espacios de color se refiere. Es decir, vamos a trabajar de forma linear y visualizando el footage a través de una curva sRGB. De este modo, Nuke está configurado en consecuencia.
  • En un pipeline de cine, raramente vamos a trabajar así. Seguramente trabajaríamos con una gestión de color más complicada que una simple curva, por ejemplo OCIO o ACES. O en el más simple de los casos, un LUT creado por la producción. Ya hablaré en un futuro de como integrar footage linear y sRGB en un pipeline ACES.
  • Debido a las condiciones lumínicas extremas de la imagen, he realizado esta fotografía con un ISO de 1200, consecuentemente tenemos bastante grano en la imagen. Queremos samplear el gris neutro de la carta de color debidamente, así que lo primero que voy a hacer en este caso, es utilizar un denoise.
  • En este caso no perdemos calidad y obtenemos un plate limpio. Y en el caso de perder calidad tampoco importaría demasiado, ya que solo queremos samplear valores del swatch gris, el resto de la imagen nos importa poco en este paso.
  • Lo primero con lo que tenemos que lidiar de cara a neutralizar un footage, es el white balance. Identificar si las fuentes lumínicas son cálidas o frías. En un entorno controlable, deberíamos de conocer todos los valores de las luces, potencia, temperatura de color, etc. Las macbeth chart están calibradas suponiendo que las fuentes lumínicas son perfectamente blancas y lineares, y en consecuencia, podemos obtener la información rebotada de los swatches.
  • En este caso, no conocemos los detalles de las fuentes lumínicas, así que lo que vamos a hacer es simplemente desaturar la imagen. De este modo, obtenemos nada más información de luminancia, olvidándonos del factor temperatura de color.
  • Conectando un color lookup a la imagen original, justo después del denoise, y con las 3 curvas seleccionadas, sampleamos el valor del gray swatch en el source.
  • En el target, vamos a samplear el mismo gray swatch pero en este caso en la imagen desaturada, ya que esa debe ser la luminancia a utilizar en nuestro plate.
  • Ya hemos solucionado el problema de white balance. El siguiente paso es linearizar la imagen. Para ello necesitamos que el grey swatch nos devuelva una respuesta conocida, que en este caso es de más o menos 0.18 que es el valor gris neutro en linear space.
  • Podemos utilizar un exposure node y ajustarlo hasta obtener el valor deseado, o simplemente utilizar otro color lookup y ajustar el source y target en consecuencia.
  • Y con esto hemos terminado la neutralización de esta imagen. Realizaríamos lo mismo con todo nuestro material (footage, referencias, hdri, etc) para tener el material "conformado" y listo para trabajar en un software de 3D.

En este vídeo os explico como utilizar Z-depth AOVs en Arnold, Nuke y Fusion para modificar el punto de atención de tus renders en base a la distancia de los sujetos con respecto a la cámara.

Los suscriptores de elephant vfx pro, podéis descargaros el material que utilizo durante la demo.

Tendemos a generar movimientos de cámara ficticios para nuestros shots estáticos, bien sea utilizando camera shakes u otros nodos procedurales. Puede que no sea una mala idea para algunas situaciones, pero siempre conseguiremos resultados más realistas utilizando movimiento de cámara real, no procedural.

En Nuke, existe una forma muy sencilla de "robar" el movimiento de cámara de cualquier plano y añadirlo a un plano estático, para crear un movimiento de cámara fluido, orgánico y natural. En este video te explico como hacerlo.

Los suscriptores de elephant vfx pro, podéis descargaros el footage de ejemplo para practicar.

En esta ocasión os muestro como crear de forma extremadamente fácil y rápida, sistemas de multitudes para fondos, utilizando las partículas de Nuke. Para ilustrar el ejemplo, vamos a utilizar figuras Lego, que como bien sabéis, nos gustan mucho.

Este post contiene un video explicativo de más de media hora para nuestros suscriptores elephant vfx pro.

  • Lo primero que necesitamos es modelar un geometry support o proxy donde pretendemos colocar el sistema de partículas. En este caso he modelado las gradas de un estadio, similar a la fotografía que acompaña este post. He separado las gradas en dos .obj uno los asientos en si, que servirán de emisor de partículas, y otro, los túneles y vallas de las gradas, que no emitirán ningún tipo de partícula, sólo son parte del decorado.
  • Ahora necesitamos el "source" de las partículas, es decir, los sujetos que pretendemos que populen las gradas que acabamos de modelar. En este caso tenemos imágenes 2D de Lego, que gracias a que tienen su canal alpha, pueden ser fácilmente recortadas. Otra buena forma (mucho mejor) de realizar esto, sería realizando renders ortográficos de figuras de Lego. O en el caso de un plano de VFX, podríamos tener footage de actores en pantalla verde o azul, y fácilmente podríamos rotoscopiarlos para crear el mismo efecto.
  • Ya en Nuke, leemos todas las figuras de Lego, activando la opción "premultiply" para utilizar el alpha de las imágenes en viewport.
  • También necesitamos importar los dos .obj que forman las gradas del estadio.
  • Conectamos ambos mediante un nodo scene para visualizarlos en 3D.
  • Podemos emitir partículas desde todos los asientos de las gradas, o desde una selección que hagamos nosotros. Utilizando un nodo geoSelect podemos seleccionar vertex, faces o edges y guardar la selección. Muy útil por ejemplo, para crear diferentes sistemas de partículas. Digamos que queremos a los seguidores de un equipo con camisetas rojas en una zona de la grada y a los seguidores del equipo contrario con camisetas azules en una zona diferente de las gradas.
  • El nodo particleEmitter nos permite crear un sistema de partículas, suficientemente avanzado y sencillo de utilizar al mismo tiempo. Podéis echarle un vistazo a los settings que estoy utilizando en la captura.
  • Básicamente necesitáis conectar cada una de las figuras Lego a los inputs de particles y el geoSelect al input emitter.
  • Fijaos que también he añadido un transform para colocar con mayor precisión las partículas resultantes.
  • Finalmente necesitamos un scanline render y la cámara del plano para renderizar el sistema de partículas en 2D y componerlo con el resto de capas de nuestro plano.
  • Algunos renders variando la cantidad de partículas, es decir, de figuras de Lego populando las gradas.

Los suscriptores de elephant vfx pro podéis desde aquí acceder al contenido exclusivo de este post, un video detallado de más de media hora.

Posted
AuthorXuan Prada
2 CommentsPost a comment

Hace tiempo ya os conté como proyectar en Nuke en 3D sobre el espacio UV, algo muy común, sobre todo en tareas de matte painting. Hoy voy a contaros otro workflow también muy común para matte painters, environment artists o texture painters.
Como sabéis, Mari y Nuke son las herramientas más utilizadas en VFX para tareas de texturizado, por lo general utilizaremos Mari para este tipo de trabajos, ya que todo resulta más sencillo, pero con frecuencia los matte painters y environment artists utilizan Nuke para proyectar todo tipo de footage en geometrías básicas que soportarán sus matte painters

Desventajas de utilizar Nuke vs Mari

  • Es mas lento gestionar todo el material, ya que hay que trabajar UDIM por UDIM.
  • No existe virtual texturing, lo que hace todo el proceso más lento al tener que trabajar con footage de alta resolución (aunque se pueden utilizar proxies).

Ventajas de utilizar Nuke vs Mari

  • No depende del paint buffer. Siempre obtienes la mejor resolución de textura posible.
  • Muy rápido y fácil realizar actualizaciones de cualquier tipo. Nodos!
  • Te ahorras la licencia de Mari (£1,233)

Veamos como hacer el set-up

  • Para esta demo, voy a utilizar este panorama que servirá por ejemplo para el fondo de un plano, y supongamos que ha sido creado por un matte painter y necesita pintar cualquier cosa encima para adaptarlo a las necesidades del plano.
  • El objetivo es hacerlo en Nuke de forma no destructiva y ser capaces de exportar varios UDIMs para texturizar el geometry support donde se aplicará el matte.
  • El geometry support es un plano con 5 UDIMs.
  • Ya en Nuke, importa el geometry support y el footage.
  • Crea una cámara.
  • Utiliza un nodo Project 3D para conectar el footage y la cámara.
  • Desactiva la opción crop del Project 3D. Esto es necesario para expandir la proyección a UDIMs fuera del rango 0-1
  • Utiliza un nodo UV tile para apuntar al UDIM que necesites trabajar.
  • Conecta el img input del UV tile al geometry support.
  • Utiliza un nodo UV project conectado al geometry support y la cámara.
  • Asegúrate de que projection está off. Esta información viene dada por le UV tile.
  • Importa la cámara del plano o la que utilices para la proyección.
  • Si miras a traves de la camara en el espacio 3D la proyeccion deberia de verse de forma correcta.
  • Conecta un scanline render al UV project.
  • Configura el projection mode como uv.
  • En el espacio 2D veras la proyección aplicada al UDIM que previamente hayas indicado.
  • Si necesitas trabajar en otro UDIM basta con indicarlo en el UV tile.
  • Este es el setup básico que necesitas. A partir de aquí realiza los cambios que quieras en el footage, pinta encima, etc.
  • Exporta cada uno de los UDIMs como textura y listo para llevar a tu software 3D. Aquí un ejemplo renderizado en Maya/Arnold.