Esta es una pequeña introducción a la fotografía HDRI para VFX, si quieres profundizar más en este tema, échale un ojo a mi curso Image Based Lighting 101.

Equipo

  • Mochila Lowepro Vertex 100 AW
  • Mochila Lowepro Flipside Sport 15L AW
  • Full frame digital DSLR (Nikon D800)
  • Fish-eye lente (Nikkor 10.5mm)
  • Lente multi propósito (Nikkor 28-300mm)
  • Mando a distancia
  • Trípode
  • Cabeza panorámica (360 precision Atome or MK2)
  • akromatic kit (grey ball, chrome ball, tripod plates)
  • Mochila Lowepro Nova Sport 35L AW shoulder bag (para el aromatic kit)
  • Macbeth chart
  • Muestras de materiales (plastico, metal, tela, etc)
  • Cinta métrica
  • Cinta aislante
  • Trípode adicional para el akromatic kit
  • Material de limpieza
  • Cuchillo/Tijeras
  • Guantes
  • iPad o laptop
  • Disco duro externo para backups on-set
  • Memory cards
  • Baterías
  • Cables de datos
  • Cámara testigo y/o cámara secundaria para stills (texturas, backplates, etc)

Equipo empaquetado. Trata de mantener volúmenes indivisibles, ordenado y compacto.

Todo tu equipo debería ser accesible de forma rápida.

El equipo más importante es: Reflex digital, fish eye lens, lente multi propósito, trípode, lighting checker, cabeza panorámica.

Shooting checklist

  • Captura 360 de la escena (fish-eye shots)
  • Backplates para look-development (incluido textures para suelo)
  • Macbeth chart para balance de blancos
  • Grey ball para calibrar la iluminación 
  • Chrome ball para orientar la iluminación
  • Medidas de la escena
  • Materiales de ejemplo
  • HDRI individuales de las fuentes de luz artificiales

Lighting checkers, extremadamente importantes para calibrar la iluminación.

Macbeth chart, importante para el balance de blancos.

Antes del shooting

  • Lleva  solo el equipo necesario. Deja cables y otros accesorios en la furgoneta.
  • Haz el setup de cámara, limpia las lentes, formatea las memory cards, etc, antes de empezar el shoot. Ajustes de cámara adicionales se necesitarán hacer en el momento de tomar las fotos, pero trata de hacer ajustes primarios antes de saltar al set. Conoce tu iluminación y ajusta la exposición en base a ello.
  • Ten siempre a mano más de una CF memory card.
  • Ten siempre a mano un kit de limpieza básico.
  • Planea siempre el shoot: Escribe un diagrama con la cantidad de fotos que necesitas, con las exposiciones neutras básicas para las condiciones lumínicas, escribe un checklist de tareas que necesitas hacer, etc.
  • Planta el trípode donde transcurre la acción o donde los assets 3D van a estar colocados.
  • Reduce el area que necesita ser limpiado. Es decir, no coloques nada a tus pies o alrededor del trípode, después tendrás que limpiarlo en Nuke.
  • Cuando hagas fotos para backplates utiliza una wide-lens de al menos 24mm o 28mm y siempre cubre mas espacio del necesario tanto hacia los lados como hacia arriba.
  • Cuando hagas fotos para texturas utiliza siempre una Macbeth chart al principio de cada sesión y tomas unas 3 exposiciones.

Metodología

  • Planta el trípode donde transcurre la acción, estabilízalo y nivélalo.
  • Utiliza siempre enfoque manual
  • Fija el balance de blancos o utiliza un preset, pero siempre el mismo (será corregido posteriormente con la Macbeth chart)
  • Utiliza siempre le mismo ISO
  • Como output utiliza raw+jpg
  • Establece la apertura deseada
  • Lee la iluminación y establece un shutter speed
  • Establece tu exposición neutra
  • Lee el histograma y ajusta la exposición neutra si es necesario
  • Fotografía el slate (nombre de operador, localización, fecha, hora, código del nombre de proyecto, etc) 
  • Activa auto bracketing
  • Realiza de 5 a 7 exposiciones con 3 stops de diferencia cubriendo todo el entorno
  • Coloca el kit de akromatic en la misma posición donde estaba tu trípode y toma al menos 3 exposiciones. Intenta que la mitad de la bola gris este iluminada por el sol y la otra mitad en sombra
  • Coloca la Macbeth chart aproximadamente a 1m del trípode y realiza al menos 3 exposiciones
  • Toma backplates y flat textures del suelo
  • Toma referencias de materiales comunes
  • Anota las medidas de la escena, especialmente importante si vas a recrear un interior
  • Si hay fuentes de iluminación artificial, haz HDRI de cada una de ellas por separado

Panorama HDRI equirectangular.

Punto de partida de exposiciones

  • Dia con sol visible ISO 100 F22
  • Dia con sol oculto ISO 100 F16
  • Nublado ISO 320 F16
  • Amaneces/atardecer ISO 100 F11
  • Interior bien iluminado ISO 320 F16
  • Interior luz ambiente ISO 320 F10
  • Interior poco iluminado ISO 640 F10
  • Interior luz ambiente oscura ISO 640 F8
  • Situación de escasa iluminación ISO 640 F5

Y esto debería ser todo :)

Recientemente nos encontramos con la necesidad de iluminar un personaje muy reflectivo (o reflectante) en un entorno cuya iluminación cambiaba constantemente.
El personaje sería creado completamente en 3D pero por supuesto habría que integrarlo en un footage dado, donde las fuentes lumínicas (prácticas, es decir, reales), cambiarían de intensidad y temperatura de forma rápida.

Además estamos hablando de un plano secuencia muy largo, sin cortes, donde el personaje se ve afectado por el entorno de forma ininterrumpida.

En esta situación, esta claro que un HDRI equirectangular convencional, no sería suficiente para integrar el personaje, ya que los constantes cambios de iluminación no se registrarían en el mapa panorámico.

Spheron

La primera solución real, y probablemente la mejor y más adecuada es utilizar un Spheron. Por supuesto si consigues comprarlo o alquilarlo a tiempo, cosa que se presenta cada vez más difícil.
Descartada la opción del Spheron, lo siguiente era realizar diferentes HDRI equirectangulares, uno para cada condición lumínica diferente y animar las transiciones entre ellos a medida que el personaje se mueve por el set.

En algunas ocasiones esto funcionaba bien, pero en otras, especialmente cuando había elementos que parpadeaban, luces que cambiaban de color rápidamente, etc, múltiples HDRI no eran suficiente.
Lo que realmente necesitábamos eran HDRI animados en tiempo real, es decir, recogidos mediante video .RAW y diferentes exposiciones en el set de rodaje.

Método convencional

d800.jpg

La solución parecía más o menos clara, montar 3 reflex digitales de las que normalmente utilizamos (Canon 5D Mark III o Nikon D800) en un soporte creado por nosotros mismos que calculase el overlapping de las cámaras (entorno al 33%), cada una de ellas con lentes ojo de pez.

De esta forma podríamos registrar la información lumínica del set en tiempo real, simplemente grabando video.

Pero claro, ni la Canon 5D Mark III ni la Nikon D800 graban en formato .RAW, todas graban comprimiendo, aplicando un espacio de color, y por supuesto, ninguna graba video con multiexposiciones.

Red Epic

Por descarte, llegamos a la conclusión que lo que necesitábamos era el mismo setup de las reflex digitales, pero utilizando cámaras Red Epic. Lo malo de esta idea, es que tres cámaras Epic más tres lentes ojo de pez, es un setup muy caro para trabajo survey de set de rodaje, además que montar todo eso en un soporte creado por nosotros, montado a su vez en un steady cam, es algo muy pesado para poder caminar por un set enorme.

Finalmente dimos con la tecla, y la solución salio por si sola.
Todos sabemos que los HDRI para iluminación no necesitan ser perfectos, de hecho, nunca lo son, necesitan ser funcionales. Así que no nos importaría tener un poco de distorsion en nuestros HDRI con tal de abaratar el setup y facilitar la experiencia de recogida de información.

De esta forma, utilizamos una sola cámara Red Epic, con un objetivo 18mm.
La montamos en un soporte creado por nosotros mismos, en cuyo extremo opuesto colocamos una bola cromada de akromatic, de 25cm de diámetro.
Esta bola permite recoger mas de los 180 grados que recogería un ojo de pez, de hecho recoge alrededor de 220 - 240 grados.

Como sabéis, la Red Epic permite grabar video en .RAW y recoger multiexposiciones simultáneamente. Grabamos 5 exposiciones diferentes a 4k para recoger la información lumínica.
Posteriormente transformamos el video en Nuke para convertirlo en un panorama equirectangular animado.
Finalmente combinamos todas las exposiciones y voilá, ya teníamos nuestro HDRI equirectangular animado para iluminar nuestro personaje.

Esto nos permitió iluminar el personaje de forma rapidísima, con resultados muy buenos y precisos, y con unos tiempos de render prácticamente ridículos.
Utilizando luces 3D jamás hubiésemos conseguido la misma precisión, ni la misma calidad en los reflejos, y muchísimo menos, los mismos tiempos de render.

De momento no puedo mostraros nada de esto, pero si quiero contaros otras pruebas que hicimos y que creo pueden ser muy interesantes.

GoPro

Durante este proceso que he descrito anteriormente, tuvimos que hacer varias pruebas en el set, en diferentes localizaciones, algunas de ellas de difícil acceso para una persona de 1.85cm
Tuvimos unos días para realizar las pruebas, cuando se estaba construyendo el set, y por aquel entonces aun no disponíamos del equipo necesario, pero queríamos empezar a realizar pruebas y enviar el material al estudio, para que se empezaran a organizar con todo lo relacionado con el método de trabajo.

Decidí hacer los tests con una GoPro Hero3 Black Edition.
La cámara es muy pequeña, ligera y manejable. Por supuesto no graba .RAW, pero se le puede aplicar un perfil de color flat, para que no haga un bake del espacio de color que utiliza la cámara.
Graba en 4K y tiene control manual sobre el balance de blancos. Para nuestros tests, era la herramienta perfecta.

La montamos en una base de akromatic, utilizando un soporte de Joby, y en el otro extremo de la base colocamos una bola cromada de akromatic de 25cm.

En cuanto a la postproducción para generar los mapas panorámicos equirectangulares, seguimos el mismo método que teníamos pensado para la Red Epic, creando así templates en Nuke para agilizar el trabajo.
Digamos que esto era una simulación del trabajo final, pero que nos sirvió para darnos cuenta de que todo iba a funcionar bien.

Incluso hicimos pruebas de render, y todo parecía funcionar a la perfección. Obviamente aquí no estamos generando true HDRI, ya que no grabamos multiexposiciones como si haríamos con la Red Epic, pero como pruebas que eran, no se podía pedir mas.

No sería una opción descabellada para proyectos indies o de bajo presupuesto.

Footage original capturado con GoPro + akromatic kit

En este caso, mi presencia en el centro de la bola no ayuda demasiado, aunque las fuentes lumínicas en esta ocasión son cenitales y tampoco perjudica demasiado. De todas formas con la utilización de un steady cam solucionamos este problema, al menos, lo redujimos considerablemente.

Nuke

El trabajo en Nuke es muy simple, basta con hacer un spherical transform del footage.
Para las distorsiones laterales se puede pintar con rotopain y tratar de corregirlas, pero en general no son un problema.

Resultado final utilizando las imagenes de GoPro

GoPro + akromatic kit

Sin saber como, y de pura casualidad (entre otras cosas porque no tiene ninguna lógica) he encontrado una opción en mi Nikon D800 que sirve para realizar secuencias de brackets (múltiples exposiciones) con una sola pulsación del shutter release, sin utilizar ningún remote shutter o mando a distancia.

La cosa es que hace unos días se me estropeó la conexión de pines de mi cámara, donde se conecta el remote shutter, que es esa herramienta indispensable para realizar múltiples exposiciones o brackets.

La lógica detrás de los brackets, es mantener la cámara siempre en la misma posición exacta, para después fusionar los brackets en el ordenador y así crear una imagene HDR. Si al mismo tiempo, esto mismo lo haces desde varios ángulos, rotando la cámara desde su propio centro, conseguirás unos fabulosos panoramas HDR cubriendo un rango dinámico muy amplio de exposiciones, que básicamente es lo que hago para akromatic.

No utilizar un remote shutter es prácticamente inviable para esta tarea, ya que si presionas el disparador de la cámara para cada exposición, estarás moviendo ligeramente la cámara, y creando de forma inconsciente problemas de ghosting, de los que te percatarás más adelante en postproducción.

Con mi conexión rota para el remote shutter, solo me quedaba llevar la cámara al taller, pero mis experiencias previas con el servicio técnico de Nikon, me decían que iba a estar al menos un mes sin cámara, cosa que no puedo permitirme, y la única alternativa real al remote shutter es el CamRanger que va por puerto USB y wifi. (pero tampoco encontraba donde comprarlo en Londres).

Buscando por internet, descubrí que parece ser que la Nikon D800 tiene un problema de fabricación con este conector de pines, o al menos, hay cientos de usuarios con el mismo problema, así que deduzco son muchos los que tarde o temprano se van a encontrar con esta desafortunada situación.

La parte positiva, es que rebuscando por los menúes de la cámara, encontré una opción, que no tiene ninguna lógica, pero precisamente hace lo que necesito, disparar todos los brackets programados en la cámara con una sola pulsación del disparador. Si a esto le sumamos la opción de disparar automáticamente pasados unos segundos, podemos estar completamente seguros de que nuestras exposiciones múltiples van a estar perfectas, ya que no habrá ningún tipo de vibración de cámara entre exposiciones, ni siquiera en la primera ya que se autodispara después de los segundos que le indiques.

Esto es lo que hay que hacer para activar esta opción.

  • Antes de nada, activa la cantidad de brackets necesarios y la diferencia de exposición entre ellos.
  • Activa el autodisparador.

En el menú, vete al apartado timer y después a self timer. Ahí en la opción self timer delay puedes especificar el tiempo del autodisparador.

  • Justo debajo de la opción self timer delay, hay otra opción llamada number of shots. Bien, esta es la opción clave y a la que no le encuentro el sentido, pero simplemente funciona. Verás que puedes poner varios números ahí, si pones el numero 2, con una sola pulsación del disparador saltarán todos los brackets.
  • Finalmente puedes configurar el tiempo entre cada una de las exposiciones, yo lo tengo a 0.5 y es más que suficiente, ya que nunca mueves la cámara entre exposiciones.

Y con esto ya está, bastará una sola pulsación del disparador para que se realicen de forma automática toda la secuencia de imágenes.

Posted
AuthorXuan Prada

En ocasiones puede que necesites arreglar el "nadir" de los panoramas que utilices para 3D lighting y look-development.
Es muy común que según el tipo de objetivo y cabeza panorámica que utilices para fotografiar panoramas, ésta y parte del trípode aparezcan en las fotos del suelo (nadir). Sobre todo si utilizas cabezas panorámicas del tipo de las Nodal Ninja.

Cuando esto me ocurre, suelo utilizar software específicos para trabajar con panoramas para VFX, como PtGui, pero si por cualquier razón no dispones de PtGui, la forma mas fácil de arreglar el "nadir" es en Nuke.

Esta situación es muy común cuando trabajas en un gran estudio de VFX. Las personas encargadas de hacer el "stitching" del panorama, puede que estén muy ocupadas, y te pasen el panorama sin pararse a limpiar pequeños (o grandes) defectos.
Tu, como lighting artist o look-development artist, es muy probable que no tengas instalado PtGui en tu equipo, así que en ese momento Nuke se convertirá en tu mejor amigo para esta tarea.

Este es un ejemplo donde ilustro este problema.
Esta imagen es un "bracket" de uno de los ángulos que forman parte del panorama. Como puedes ver, hice las fotos de forma remota utilizando un ordenador portátil. Lo malo es que éste se ve demasiado en la imagen, cubriendo parte del suelo.

Cuando hice el "stitching" del panorama, estaba demasiado presente en la imagen, convirtiéndose en un problema. Este efecto es mucho más evidente cuando utilizas una cabeza panorámica del tipo Nodal Ninja, ya que el trípode y la propia cabeza se extienden a lo largo de todo el panorama, haciendo muy difícil la tarea de limpiarlo.
La imagen es un "preview" del panorama, así que perdona por la mala calidad de la imagen :)

Esta es la solución que yo utilizo para arreglar este tipo de artefactos o distorsiones utilizando Nuke.
Para el ejemplo he utilizado un panorama de alta resolución que puedes descargar de forma gratuita en akromatic.com

  • Antes de nada importa tu panorama equirectangular en Nuke, y visualízalo en el espacio de color que estés trabajando.
  • Utiliza un nodo spherical transform para ver el panorama como una bola cromada.
  • Para ello, cambia el input type a "Lat Long map" y el output type a "Mirror Ball".
  • En esta imagen puedes ver como el panorama se vería en el software 3D. Si necesitas eliminar algo del suelo, añadir algún tipo de información, mejor hacerlo ahora que antes de renderizar en 3D.
  • Utiliza otro nodo spherical transform pero en esta ocasión cambia el output type a "Cube" y cambia el parametro "rx" a -90 para que podamos ver la porción del cubo donde esta mapeado el suelo.
  • Utiliza un nodo roto paint para eliminar o clonar lo que necesites.
  • Necesitas otro nodo spherical transform, cambia el input type a "Cube" y el output type a "Lat Long map".
  • Te darás cuenta de que el nodo pasa a tener 5 inputs.
  • Estoy utilizando colores constantes para ver exactamente que input corresponde a cada parte del panorama.
  • El nadir debería de estar conectado al input -Y
  • El output format de este nodo debería ser la resolución final del panorama.
  • He reemplazado cada color, por un color negro puro.
  • Cada uno de esos colores debería de tener canal alpha.
  • Este es el resultado. El nadir que habíamos pintado en plano ahora esta proyectado a lo largo del panorama.
  • Chequea el canal alpha.
  • Utiliza un nodo merge para combinar el nuevo nadir con el panorama original.
  • Ya está, si quieres puedes utilizar otro nodo spherical transform para chequear de nuevo el panorama, comprobar que no haya artefactos o distorsiones en el suelo antes de llevártelo a un software 3D.

Este post es una traducción del original escrito en Julio del 2013 en el blog de Xuan Prada.

Si alguna vez has grabado vídeo con una cámara digital SLR, te habrás dado cuenta de que por defecto la corrección de color automática que se aplica al vídeo no esta nada mal, pero si lo que necesitas es llevarte ese vídeo a un software de corrección de color o color grading, esa corrección que viene impuesta al vídeo grabado, resulta demasiado molesta.

Esto ocurre porque la mayoría de SLR aún no graban vídeo en RAW, lo que significa que no tenemos demasiado rango a la hora de tocar los colores en un software de grading.

Por defecto, la curva de corrección que la cámara aplica al vídeo es demasiado agresiva, funciona bien para ser utilizada tal cual sale de la cámara, pero como he dicho antes, no para ser utilizada en un software de corrección de color.

La solución más sencilla a este común problema, es aplanar el vídeo desde el momento en que se graba, es decir, que la curva de corrección que la cámara aplica al vídeo, no sea tan drástica. De este modo tendrás mas rango para jugar en el software de grading antes de que tus blancos y negros empiecen a salirse de rango.

Lo único que tiene que hacer para aplanar tu vídeo, es ajustar los settings como la imagen que dejo aquí abajo.
Y no te preocupes por tus fotos normales, si disparas en RAW estos settings no le afectarán a tus fotografías.

Algunos ejemplos comparativos.