Nota: Este post incluye contenido exclusivo para los suscriptores de elephant vfx pro. (enlaces al final del post).

Hoy en dia tenemos la suerte de poder aplicar los mismos principios fotográficos y cinematográficos a nuestro trabajo como iluminadores en VFX/CG/. Por ello, constantemente hablamos sobre cinematografía, lenguaje cinematográfico y comunicación audiovisual. Hoy, vamos a hablar de algunos tópicos comunes en iluminación cinematográfica: hard light, soft light, specular light y diffuse light.

La diferencia entre hard light (luz dura) y soft light (luz suave) no radica en la luz, si no en la sombra. Cuando la sombra está perfectamente definida y opaca, hablamos de hard light. Cuando por el contrario, la sombra está difuminada, nos referimos al tipo de luz soft light. Cuanta más suavidad en la luz, más difuminadas y consecuentemente menos opacas serán las sombras.

¿Hay algún tipo de luz concreta que proporcione hard light o soft light? No. Cualquier luz puede ser hard o soft en función de dos factores.

  1. Tamaño: No sólo hay que tener en cuenta el tamaño de la fuente lumínica en si, si no la relación de tamaño entre la fuente lumínica y el sujeto a iluminar.
  2. Distancia: En relación a la posición de la fuente lumínica y el sujeto a ser iluminado.

Las ondas electromagnéticas (como la luz) se curvan con respecto a los objetos donde impactan. En el ejemplo de abajo, cuando la luz impacta en la pared, refleja y pasa recto, después se curva hacia el interior (esto es lo que se denomina difraction).

Cuando un beam (rayo) de luz impacta en un objeto, si el tamaño de la fuente lumínica es muy similar al tamaño del sujeto iluminado, los rayos pasan de forma paralela y se curvan ligeramente hacia el interior.

Si el tamaño de la fuente lumínica es más pequeño que el sujeto iluminado o está alejado del mismo, los rayos de luz apenas se curvarán, creando sombras duras y bien definidas.

Si la fuente lumínica es más grande que el sujeto iluminado y está situado cerca del mismo, los rayos de luz se curvan considerablemente, produciendo sombras suaves y poco definidas.

Si la fuente lumínica es mucho más grande que el sujeto iluminado y cercana al mismo, los rayos de luz se curvan tanto que llegan a juntarse y prácticamente las sombras no dibujarán la silueta del sujeto iluminado, siendo incapaces de identificar su forma o silueta.

  • Si una fuente de luz muy grande se posiciona a mucha distancia del sujeto iluminado, su tamaño se verá alterado de forma relativa con respecto al sujeto, convirtiéndola consecuentemente en una fuente de luz pequeña, perdiendo asi su capacidad de generar sombras suaves. El ejemplo más claro es el sol. Es mucho más grande que la tierra, pero al estar a millones de kilómetros, se convierte en una fuente de luz muy pequeña, creando sombras duras. Cuando está nublado, la luz se filtra entre las nubes convirtiéndola otra vez en una fuente de luz grande, y por ello, generadora de sombras suaves.


Para resumir en dos lineas:

  • Soft light = fuentes lumínicas grandes y/o cercanas al sujeto
  • Hard light = fuentes lumínicas pequeñas y/o alejadas del sujeto

Specular light: Fuente lumínica con mucha potencia en el centro que poco a poco se degrada hacia el exterior. Como una linterna tradicional. Genera zonas muy expuestas y brillantes en el sujeto iluminado. Por ejemplo la típica luz de entrevista en un estadio de futbol o en un photocall.

Diffuse light: Fuente lumínica con la misma potencia distribuida sobre todo el área, tiende a iluminar al sujeto de forma compensada.

No confundir diffuse light con soft light. Siempre que hablamos de soft light nos referimos a sombras desenfocadas y suaves. Siempre que hablamos de diffuse light nos referimos a la distribución de la propia luz, en este caso, distribuida con equidad a lo largo de la superficie.

A continuación algunos ejemplos en 3D.

  • En este ejemplo tenemos un personaje iluminado con una fuente lumínica pequeña, más pequeña que el propio sujeto, y situada de forma alejada con respecto al mismo. Resultado, hard light, sombras duras.
  • En este ejemplo tenemos una fuente lumínica de tamaño considerable, similar al sujeto iluminado y colocada cerca del mismo. Como resultado, obtenemos soft light, sombras suaves.
  • En este ejemplo tenemos una fuente luminica muy grande y colocada cerca del sujeto, como resultado produce extra soft light, y las sombras pierden completamente su dibujo, siendo extremadamente suaves.
  • En la siguiente imagen, el sujeto está iluminado por el sol, que pese a ser una fuente lumínica gigantesca, su posición relativa con el sujeto la convierte en diminuta, produciendo asi hard light, sombras duras.
  • Finalmente tenemos otro ejemplo de hard light, en este caso creado por un flash que no deja de ser otro tipo de luz muy potente y concentrada, cercana al sujeto fotografiado. Este efecto puede conseguirse en 3D reduciendo considerablemente el valor spread de las luces.
  • A continuación ejemplos de specular light y diffuse light. (respectivamente).

Los suscriptores de elephant vfx pro podéis desde aquí acceder a un video donde expandimos estos tópicos.

Una de las opciones más útiles existentes en Clarisse son los shading layers. Pueden utilizarse para diferentes tareas, y además combinarse entre si para crear sistemas de shading complejos. En esta ocasión vamos a ver como utilizar los shading layers para renderizar y crear variaciones de crowd (multitudes) de forma muy rápida, y sobre todo, muy sencilla. Necesitando apenas unos minutos para gestionar el shading y sus variaciones en centenares de personajes.

Este post viene acompañado de un video de alrededor de una hora para los suscriptores del programa elephant vfx pro.
Todos los suscriptores ya habéis recibido un email con toda la información.

  • Lo primero que he hecho, es crear un setup IBL, con un día más bien nublado sin dirección de luz muy marcada.
  • He importado el cache de animación con crowd en un context llamado geometry y también he creado un context donde crearé todos los shaders y texturas.
  • Como se puede observar en la imagen, los caches de animación están completamente desorganizados en la escena, tal cual vienen del paquete de simulación. Gracias a los shading layers podremos asignar fácilmente los correspondientes shaders y texturas, también variaciones de los mismos.
  • Clarisse nos permite asignar shading layers bien por nomenclatura exacta de los assets que van a recibir el shader o bien por localización de los mismos. Por ello, también he creado algunos context adicionales, para explorar ambas metodologías.
  • Gracias a una estructura de shading layers muy simple y a unas reglas básicas, tanto de nomenclatura como de localización, con apenas una docena de shaders podemos renderizar un sistema de crowd complejo en apenas unos minutos de trabajo.
  • En el caso de querer ver en viewport el comportamiento de un shading layer específico, basta con seleccionar el modo previz, apuntar al context donde tenemos los crowd y seleccionar el shading layer.
  • Finalmente subimos el sampling en el raytracer para renderizar la escena con calidad final.

En el siguiente video disponible para suscriptores del programa elephant vfx pro, podéis ver todo el proceso detallado y con explicaciones adicionales, duración alrededor de una hora.

Nota 1: En Europa tendemos a utilizar el término Director de fotografía o DP, mientras que en Estados Unidos es más común utilizar la palabra Cinematógrafo, para referirse al mismo profesional. Pese a que algunos, como Vittorio Storaro, consideren que el DP y el Cinematógrafo, son dos roles diferentes, parece existir un consenso global para referirse a este profesional utilizando ambos términos. En este artículo utilizaremos la palabra Cinematógrafo.

Nota 2: Estos son algunos términos que aparecen en el articulo y quizás no todo el mundo está familiarizado con los mismos, los explico de forma breve.

DI: O sala de DI. Donde se "revelan" las películas digitales y se aplican diferentes "color grading" (que no correcciones de color) para crear el look diseñado por el cinematógrafo.
Film: Cuando hablamos de film nos referimos a película fotográfica, es decir, no cine digital si no óptico.
Feature vs episodic: Feature es una película, episodic una serie de televisión o similar.
Optical lab: Laboratorio donde se revela película fotográfica, entre otras cosas.
Rehearsals: Ensayos, generalmente con actores.
Blocking: Planificación de una escena, a diferentes niveles. Acting, técnica, etc.
Location scouting: Búsqueda de localizaciones para el rodaje de una parte de la película.
Rigging: En este contexto nos referimos a los diferentes soportes para colocar cámaras de cine.
Dailies: El proceso de visionado del trabajo realizado el día anterior.
Principal photography: El proceso de produccion de una película, cuando la acción narrativa ocurre y es capturada en cámara.
Coverage: Aquello capturado en cámara mediante lenguaje cinematográfico.
Still: Fotografía.

Diseño del look

Filmmaking es una expresión artística colaborativa, en la que un grupo (muy amplio) de profesionales interpretan diferentes roles para conseguir un producto final, en forma de experiencia narrativa audiovisual. Los cinematógrafos, requieren de sensibilidad artística, sentido excepcional de la organización, habilidad para dominar tecnología compleja que constantemente evoluciona, y un talento especial para fomentar la comunicación y colaboración entre su equipo y equipos adyacentes.

La tarea inicial y más importante de un cinematógrafo, es ayudar a contar la historia, y diseñar un look o estilo visual, que refleje las intenciones narrativas del director o del productor/show runner en el caso de estar hablando de una serie de televisión. Es mandatorio realizar esta tarea teniendo en cuenta las limitaciones de presupuesto y tiempo. Otros colaboradores que generalmente se involucran en esta tarea creativa junto al cinematógrafo, pueden ser; el director, producer, el production designer, el art director y en ocasiones, el visual effects supervisor.
El cinematógrafo también ha de influir y guiar al equipo en la toma de decisiones técnicas requeridas por la producción, siendo parte vital a la hora de elegir cámaras, digital o film, equipos de iluminación, etc. Hay muchas opciones hoy en día, desde anamorphic 35 mm film hasta digital video, en función del presupuesto asignado para la producción y el look que se persigue.

Si el proyecto es un feature film (película), el cinematógrafo debe discutir los pros y contras de utilizar un laboratorio óptico versus digital intermediate (DI). Si se trata de un proyecto episódico para televisión, las discusiones serán alrededor de high definition, standard definition, etc. No hay manuales que respondan a este tipo de preguntas, cada proyecto es único y necesita ser estudiado de forma individual junto al director y productor. La tecnología está continuamente evolucionando y es fundamental que el cinematógrafo esté continuamente estudiando y testeando todas las opciones disponibles, incluyendo film, digital, lentes, dollies, cranes, motion control, todo tipo de iluminación, sistemas aéreos y acuáticos, blue screen y green screen, vfx facilities, etc.

Preproduction planning

El cinematógrafo es frecuentemente invitado a los rehearsals con actores y otros miembros del equipo, para trabajar en el blocking de las escenas y proporcionar ideas creativas con respecto al look de lo que acontece en las mismas. La mayoría de aspectos de la producción se planifican durante esta etapa, incluyendo el número de cámaras necesarias, como moverlas o el tipo de lentes a utilizar para cada plano. Los cinematógrafos también son consultados por el director y su equipo a la hora de realizar storyboards o peviz. También viajan junto a otros equipos de la producción durante la fase de location scouting, en busca de los lugares mas idóneos para rodar. Realizan recomendaciones al art director y al production designer sobre la construcción y decorado de los sets donde se rodarán las diferentes secuencias, para mantener el look diseñado para el proyecto. Junto al director y al assistant director, el cinematógrafo intentará agendar de la mejor forma posible los días y horas de rodaje en exteriores, para así poder aprovechar la iluminación natural de la forma más eficaz posible. También deberán tener muy en cuenta las previsiones climáticas de los lugares donde planean filmar. Han de consultar continuamente con el production designer para construir los sets facilitando el rigging y posicionamiento de luces y cámaras, esto incluye el uso de wild walls, techos falsos, o los colores de las paredes y muebles.

El cinematógrafo también se encarga de organizar a los equipos de cámara, eléctricos y grip, asegurándose de contratar a las personas indicadas para liderar cada uno de los equipos. Trabajan con el gaffer para planificar el posicionamiento y el rigging de las diferentes luces, incluyendo el suministro eléctrico y los paneles de control correspondientes. Todo lo relacionado con movimientos de cámara y soporte será también decidido junto al key grip durante esta fase. Con el production manager se tratará todo lo relacionado con alquiler de equipo, tanto cámaras, como luces o soportes e incluso material muy específico como carcasas submarinas, drones, helicópteros, etc.

También durante pre-producción, el cinematógrafo se encargará de establecer relaciones con los departamentos de vestuario, maquillaje y peluquería para asegurarse de que todos trabajan bajo las mismas direcciones artísticas, y generalmente se organizarán shooting tests con los actores. También se utilizan estos shooting tests para probar nuevas cámaras, emulsiones, LUTs, etc, al tiempo que empieza la colaboración con los laboratorios ópticos o salas de DI para buscar el mejor mecanismo para visualizar dailies.

Principal photography

El cinematógrafo es responsable de ejecutar la visión del director, capturando en cámara todo lo posible requerido por la narrativa y manteniendo el look establecido para la película, siempre en tiempo y en presupuesto. En la mayoría de películas, el día comienza con el cinematógrafo revisando dailies en el laboratorio o DI para asegurarse que lo capturado el día anterior cumple con los requisitos técnicos y artísticos. Posteriormente participan en los rehearsals con el director y los actores, sugiriendo modificaciones en la iluminación o coverage en caso de ser necesario. El cinematógrafo continuamente está en contacto con el assistant director y el production manager informando de cualquier tipo de imprevisto que pueda retrasar o alterar el rodaje. Adicionalmente es tarea del cinematógrafo aprobar el setup de iluminación ejecutado por el gaffer.

Las escenas generalmente se planifican con dobles, no con actores principales. El cinematógrafo trabaja con el director durante esta planificación por si fuera necesario algún cambio en la iluminación o el coverage, y lo planifica en consecuencia con los equipos de gaffer, grip e iluminación. También trabaja con el standby painter por si hubiese necesidad de algún retoque en el set, con el assistant director para organizar la acción secundaria, y el departamento de sonido para colocar sus micrófonos, cableado y equipo de la mejor forma posible. Si el director lo creyera oportuno, se haría un rehearsal final con los actores. Cuando las cámaras empiezan a rodar, además de asegurarse de que no existe ningún problema técnico, actúa como segundo director asistiendo al mismo en todo aquello que necesite. Si fuera necesario, el cinematógrafo podrá requerir la repetición de una toma porque hayan podido darse problemas técnicos o algo no haya sido capturado como estaba previsto. Si se planea una sesión de DI para dailies, el cinematógrafo suele realizar stills que manipula con su ordenador principal y posteriormente envía a DI como punto de partida o concept del look que se procura conseguir.

El cinematógrafo, el director y otras personas relevantes en la producción, visualizan dailies juntos para juzgar el look de la película y el avance de la misma. Al final de cada día el cinematógrafo discute el primer setup necesario para el día siguiente con el assistant director y quizás el director. También informa al script supervisor si hubiese alguna condición especial relacionada con cámaras o luces, se asegura de que los departamentos de cámara, grip e iluminación tienen toda la información necesaria, finalmente discuten con el production manager sobre la posibilidad de devolver equipo alquilado o la necesidad de alquilar material extraordinario. De esta forma, a la mañana siguiente todo estará preparado cuando el director y el cinematógrafo lleguen al set.

Postproduction

El rol del cinematógrafo se extiende también a labores de postproducción, asegurándose así de que el look establecido se mantiene durante este proceso tan lento y laborioso. La mayoría de películas se extienden mucho más en tiempo de postproducción de que producción. En el caso de ser necesario, el cinematógrafo se encargará de la fotografía adicional requerida a última hora durante este proceso, algo cada día más común, ya que muchos directores construyen la películas en los facilities de visual effects. También pueden actuar como consultores para ayudar a mezclar de forma efectiva el footage y los visual effects. En el caso de utilizar un laboratorio óptico, los cinematógrafos tienen la última palabra en cuanto a tiempo de revelado y la adición de matices o tonalidades a la emulsión, o en la sala de DI en el caso de cine digital.

Finalmente se encargan de aprobar la impresión de la cinta para cine junto al director y al productor. En el caso de ser necesario, también se encargará de supervisar los diferentes formatos de emisión, como DVD, televisión, etc. Todos estos pasos extraordinarios son necesarios para asegurarse de que los espectadores experimentan la película como el director y el cinematógrafo habían planeado

El otro día un alumno del curso "Técnicas guerrilla para la creación de planos VFX" me escribió un email preguntándome si Arnold no tenía AOVs para RAW lighting y albedo, ya que anteriormente trabajaba con otros motores de render que si disponían de los mencionados AOVs.

La respuesta es si y no. Es decir, por defecto si miramos la lista de AOVs de Arnold, no veremos ninguno llamado RAW lighting o albedo. Pero si, podemos fácilmente crearlos, os explico un par de soluciones.

  • En los AOVs de Arnold, como veis en la imagen los AiStandard no disponen de AOVs para RAW lighting o albedo.
  • La solución más sencilla es utilizar los AlShaders. Que como podéis comprobar, si que incluyen AOVs tanto para RAW lighting como albedo. Solucionado.
  • Supongamos que tenemos que utilizar AiStandard, aun así, podemos controlar de forma individual este tipo de información. Lo que necesitamos hacer es renderizar los AOVs que comúnmente renderizamos, dependiendo de las necesidades de cada uno, pero generalmente seran AOVs primarios y AOVs tecnicos.
  • También necesitamos hacer un albedo a mano, es decir, sustituyendo todos los shaders AiStandard de la escena por Surface shaders de Maya, que como sabéis, no les afecta la iluminación. En una escena muy compleja, esta tarea puede ser tediosa, pero raramente necesitaremos el albedo de toda la escena, solo de algunos hero assets. Además, esta tarea puede ser automatizada mediante scripting. ¿Algún voluntario?
  • Una vez en Nuke, voy a importar el beauty y el albedo pass.
  • Si dividimos uno por el otro obtenemos el RAW lighting. Con lo que podemos manipular la iluminación sin afectar a el color.
  • También podremos manipular el color independientemente de la iluminación. En este caso estoy tocando el color utilizando un color correction y clonando parte de la textura utilizando un roto paint.
  • Vuelvo a juntar los dos componentes, luz y color utilizando un multiply.
  • Si no hubiera realizado ningún ajuste a la iluminación o al color, esta operación debería de darnos exactamente el mismo resultado del beauty.
  • Finalmente como tenia tambien la informacion de sombras almacenadas en el alpha, provenientes de un shadow catcher, voy a ponerle un suelo a la imagen :)

Llego tarde, pero más vale tarde que nunca. Aunque ya hace tiempo que estoy interesado en VR (realidad virtual) y AR (realidad aumentada) apenas he tenido tiempo de estudiar al respecto y realizar pruebas. Hasta el momento he estado más interesado en capturar live action para VR que en generar contenido 3D, aunque ahora también estoy empezando a estudiar al respecto.

Hace un par de días tuve la oportunidad de probar el HTC Vive durante unas cuantas horas y definitivamente, poco a poco iré realizando más pruebas relacionadas con realidad virtual, al tiempo que voy estudiando la materia. Me interesa especialmente la evolución que sufrirá la narrativa, y los cambios que veremos en el lenguaje cinematográfico tal cual lo conocemos hoy.

Probando el HTC Vive.

Probando el HTC Vive.

Como primer ejercicio tanto de captura como de generación de contenido 3D, he realizado una prueba muy sencilla, pero que me sirve como primer contacto para renderizar imágenes estereoscópicas mediante estereográfica y probarlas utilizando el headset más simple y barato del mercado, Google Cardboard y UMI 3D. (más info abajo).

Antes de explicar la sencillísima forma de renderizar este tipo de imágenes, vamos a explicar un poco del contexto necesario para entender de forma muy básica algunos principio de VR.

Existen dos tipo de sistemas de realidad virtual. Aquellos en los que podemos rotar la cabeza alrededor de un mundo virtual, y aquellos en los que además de rotar, también podemos trasladarnos por el espacio, incluso interactuar con el. En el caso de las Google Cardboard y otros headsets para smartphones, solo podemos rotar la cabeza para inspeccionar alrededor del entorno. Para ello, nos servimos del giroscopio y del acelerómetro que incorporan los teléfonos hoy en día.

Hoy por hoy utilizamos dos tipos de formatos de imagen. Cuando hablamos de contenido pre-renderizado. Por un lado tenemos las imágenes lat-long, o también llamadas equirectangular, y por otro lado las imágenes cúbicas. Las dos se mapean de forma esférica para crear un mundo virtual. Básicamente necesitaremos generar dos imágenes esféricas, una para cada ojo.

Las imágenes lat-long son geniales, porque podemos ver todo el mundo en un solo golpe de vista. El problema que acarrean, es que el 66% de la imagen corresponde a los polos de la esfera virtual donde se mapean, y en esos polos hay demasiada distorsión.

Proyeccion lat-long.

Las imágenes cúbicas para este tipo de contenido son quizás más efectivas que las lat-long, ya que las imágenes se mapean virtualmente en el interior de un cubo, de tal forma que los polos estarán proyectados en dos caras del cubo, lo que corresponde a un 33% del total de la imagen. Esto significa menos distorsión cuando se convierte a espacio esférico.

Proyección cúbica.

Estereografía. Es el acto de proporcionar dos imágenes desde dos cámaras distintas. Entre cada una de las dos cámaras existe un desfase que representa la distancia entre un ojo y el otro. En el caso de cine stereo, esto se realiza renderizando una imagen para el ojo izquierdo y otra para el derecho, y ambas se proyectan en una pantalla plana. 
En el caso de VR, necesitamos renderizar no solo izquierda y derecha, si no también frontal y trasera, siempre manteniendo el mismo desfase entre cámaras, para así poder rotar en todas direcciones.

Por supuesto, hay mucha teoría y conceptos básicos que necesitamos conocer a la hora de trabajar con VR, pero para este simple ejercicio, creo que este es contexto suficiente.

Trabajando en software 3D

  • En esta ocasión, voy a combinar material rodado con material generado mediante VFX.
  • Ya tendremos tiempo en otra ocasión para hablar sobre sistemas y metodologías de captura de fotografía y video. Hoy nos basta con saber que he capturado una imagen panorámica utilizando un rig Nodal Ninja y un fisheye lens, montado sobre una Canon 5 Mark III. La resolución capturada es de alrededor de 12k
  • Con esa imagen puedo fácilmente crearme un mundo virtual fotorrealista, ya que está basado en fotografías. Como este es un ejemplo sencillo, no quiero perder tiempo en crearme un mundo virtual por completo empezando desde cero. Además, lo que más me interesa en VR es precisamente combinar elementos reales con elementos virtuales.

Tate Modern, Londres.

  • Esta imagen de arriba es el panorama que he creado a partir de varias fotografías realizadas en Tate Modern, aquí en Londres. Puedes descargarte este panorama y otros completamente gratuitos aquí. Además, son imágenes HDRI, con lo que podré utilizar el mismo mapa para iluminar mi escena, al menos en parte.
  • Como el mapa panorámico es 360 x 180 puedo cubrir todo el campo de visión para posteriormente rotar mi cabeza con el headset de VR y mirar en cualquier dirección.
  • El siguiente paso es crear los elementos virtuales de mi escena. En este ejercicio simplemente voy a posicionar un robot en el centro de la escena y un par de esferas.
  • Lo ideal es colocar la cámara virtual en aquella posición del entorno donde quieres que los espectadores estén colocados posteriormente en la experiencia de realidad virtual. Recuerda que en este ejemplo utilizamos un headset de smartphone, con lo que el espectador no podrá caminar alrededor del entorno, solo mirar en todas direcciones.
  • Como podéis ver más abajo, la escena es muy simple. Utilizo el propio HDRI panorámico para iluminar. También estoy utilizando un par de softboxes como key lights.
  • Vray no renderiza el fondo en sus environment lights (how clever...). Así que como quiero ver el entorno en el render tengo que crear un environment override con la misma imagen panorámica que utilizo para iluminar, asegurándome que está en la misma orientación.
  • Tambien utilizo un shadow catcher para proyectar las sombras de mis assets 3D en el entorno live action.
  • En este punto, si realizo un render, deberia de obtener el resultado esperado. Simplemente trabajo mi escena como lo haria en cualquier otra ocasion. En este caso con una camara rectilinear y con resolucion HD.
  • El siguiente paso es añadir un Vray extra attribute para convertir nuestra cámara en una cámara estereoscópica. Por defecto dejamos la distancia entre ojos A 6.5cm que es más o menos lo normal en el ser humano. También dejamos desactivada la opción de especificar un punto de enfoque concreto, a menos que creativamente queramos dirigir la mirada del espectador a un lugar concreto del entorno.
  • Si volvemos a renderizar, obtendremos un render para cada ojo. Ya tenemos estereoscopía.
  • Ahora que ya tenemos un render para cada ojo, lo siguiente que tenemos que hacer es renderizarlo de forma esférica para poder mapearlo en un mundo virtual. En este caso vamos a utilizar una proyección cúbica, que como vimos anteriormente tiene menos distorsión.
  • Para ello basta con crear un override de camara tipo cube 6x1
  • Finalmente tenemos que indicar la resolución del render. Esto depende del dispositivo VR que vayas a utilizar, aplicación, soporte, etc. Los desarrolladores de hardware tienen documentación al respecto, recurre a ella. En este caso, para Google Cardboard y similares utilizamos una resolución de 9216x1536. 
  • Como buena práctica es recomendable desactivar el filtrado, para así no acentuar los posibles errores de stitching.
  • Si chequeamos el render en Nuke obtendremos algo similar a esta imagen.
  • Perfecto, ya solo nos queda publicar nuestra imagen para visualizarla en un dispositivo VR.
  • Estoy utilizando irisVR que permite subir las imágenes a través de una aplicación web, para posteriormente visualizarlas a través de su propia app (apple y android) utilizando tu VR headset.
  • Simplemente tienes que crearte una cuenta gratuita y subir las imágenes.
  • Una vez subidas las imagenes, apareceran en tu libreria.
  • Ya utilizando tu smartphone, ejecuta la app de irisVR llamada Scope y en tu libreria podras ver todas tus imagenes subidas a traves de la web.
  • Selecciona cualquier de ellas y la propia app te indicara que coloques tu movil en el VR headset.
  • En este caso estoy utilizando dos diferentes, Google Cardboard y UMI Box 3.
  • Y con esto ya tenemos nuestros renders 3D y fotografias listas para ver en un VR headset.
  • Asi es como se ven el el movil cuando no tenemos el headset puesto.
  • Obviamente esta experiencia dista mucho de interactuar con contenido digital o fotogrametría dentro de un headset como el HTC Vive, pero como primer ejercicio no estaámal. Seguiremos hablando de VR en el futuro a medida que aprendamos mas al respecto.