Hola patrons,

En esta ocasión estoy publicando dos videos, en total casi cuatro horas, de diferentes tópicos que considero importantes y relevantes para este canal. Estos videos no forman parte de ninguna de las dos series de largo formato que tenemos en el canal, simplemente son un mix de sujetos. Espero poder publicar más de estos videos cuando considere que hay suficiente material para crear estos "mixes". Ideas no faltan :)

Los tópicos de hoy son:

- New features in Katana 4.x
- Katana new render queue.
- Multiple rendering using graph state variables.
- Improvements in catalog and monitor.
- USD viewport with Hydra.
- New lighting tools.
- New network material edit.
- New lighting tools.
- Modelling desdert dunes in Houdini and Blender.
- New solaris features relevant for assets creation and set dressing.

Toda la información en mi Patreon.

Como siempre, muchas gracias por vuestro apoyo.
Xuan.

Posted
AuthorXuan Prada

En este video tutorial de casi 3 horas, voy a explicar mi proceso común de fotogrametría utilizando Reality Capture, en combinación con Maya, Zbrush, Mari y UV Layout.

Explicaré todo el proceso completo, desde la captura de footage en set hasta la finalización del asset. Cubriré los settings básicos de Reality Capture, necesarios para procesar tus imágenes, generar point clouds, meshes y texturas.
Finalmente desarrollaré todo el asset hasta convertirlo en un asset propio de efectos visuales.

Estos son los tópicos que trataremos en el video.

- Camera gear.
- Camera settings.
- Shooting patterns.
- Footage preparation.
- Photogrammetry software.
- Photogrammetry process in Reality Capture.
- Model clean up.
- Retopology.
- UV mapping.
- Texture re-projection, displacement and color maps.
- High resolution texturing in Mari.
- Render tests.

Puedes acceder a este tutorial en mi página de Patreon.

Una vez hemos generado el mesh, como vimos en el post anterior, llega el momento del clean up. En el caso de tratar con assetsmuy densos, generados a través de lidar, antes de realizar cualquier operación seguramente tengamos que decimarlos utilizando el software específico del escaner. No hay ningún software DCC capaz de gestionar semejante cantidad de información. En nuestro caso, es un modelo sencillo, así que podemos dirctamente importarlo en Zbrush para realizar labores de clean up.

Lo que siempre hago es descartar las partes del mesh que no me interesan, en este caso en particular me interesa nada más la roca. Voy a dejar un margen de suelo, pero no creo que lo utilice en el futuro. En Zbrush podemos fácilmente enmascarar aquellas partes a desechar, tanto mediante selección como pintando. Una vez elimandas aquellas partes que no nos interesan, suelo darle un repaso general al mesh para eliminar ruido y spikes, utilizando para ello el pincel flaten y soft. En caso de ver algún error también podemos solucionarlo, o también por ejemplo podemos refinar algunas zonas que no hayan sido capturadas con suficiente detalle. En este caso, todo ha sido capturado perfectamente.

Por mantenr cierto orden, he creado varios directorios llamados respectivamente, zbrush_in, zbrush_out y zbrush.

Clean up.

Una vez estamos satisfechos con la apariencia del mesh, tenemos dos opciones. Cear una geometría apta para producción, es decir, con una topología ordenada y eficiente. O por el contrario, crear una versión decimada donde conservamos todo el detalle original del scan pero cuya topología es desordenada y sucia. La elección depende de lo que tu necesites. En el caso de vfx, lo normal es generar una versión con topología correcta.

Para ello, lo ideal es generar una versión decimada para llevarnos a Maya y hacer la retopología encima. No queremos lidiar con la versión de alta resolución. En mi caso conreto, como no estoy realizando este asset de verdad, es sólo una demo, y además, porque tengo más cosas que hacer y soy un vago, voy a realizar una retopología automática dentro de Zbrush. No es la mejor topología del mundo, pero es mejor que una versión decimada y simula el paso de generar una retopología en base a un scan.

Decimation, no apto par vfx pipeline.

Automatic retopo en Zbrush.

El siguiente paso es realizar un uv mapping decente. Si no te desenvuelves bien con el uv mapping, échale un ojo a este curso. Buenas uvs son indispensables en un pipeline de producción de vfx, muy importantes. Para este asset, que es relativamente pequeño, voy a utilizar un sólo UDIM. Generalmente nunca utilizo un sólo UDIM, pero trabajar con UDIMs requiere ciertos pasos extras cuando trabajamos con fotogrametría, así que ya hablaremos de eso en otra ocasión.

UV mapping.

Una vez tenemos el asset con su buena topología y su uv mapping, deberíamos de crear una versión para fx, en el caso de que fuera necesario. En este caso no lo es. Este es el mesh que se va a utilizar para el render, tal cual está. Lo siguiente que necesitamos es reproyectar los detalles que teníamos en el scan original y extraer un displacement map, para que a la hora del render, esta simple geometría tenga es aspecto que deseamos.

En Zbrush, subdividimos un par de veces el asset, y reproyectamos e scan. Extraemos los mapas en EXR 32 bit con el midpoint a cero. De esta forma no tendremos que preocuparnos por absolutamente nada, con aplicar el displacement en Maya todo se verá perfectamente.

Zbrush reprojeciton.

Finalmente, en Maya realizamos un render test con el displacement aplicado. Todo el detalle debería de estar ahí, pero si quieres estar seguro, puedes realizar un render del scan original y compararlo con el estado actual del asset.

Render test.

Los usuarios de elephant vfx pro pueden descargarse el material utilizado en este post.

Como lectores de elephant vfx seguramente sabréis que estamos preparando un completísimo curso de Isotropix Clarisse. Como regalo de fin de año, os dejo uno de los muchos capítulos que formarán parte del curso. El vídeo en cuestión dura casi una hora y está disponible en su totalidad para los suscriptores de elephant vfx pro.

El resto de lectores de elephant vfx podéis acceder a media hora del vídeo, y de esta forma haceros una idea de lo que será el curso de Clarisse que tenemos en marcha.

El capítulo que he elegido para que podáis ver de forma abierta, es uno donde trato la configuración de displacement maps en Clarisse. Tema que por supuesto, expandiremos en profundidad durante el resto del curso.

Enjoy :)

Seguramente Meshlab sea la única herramienta disponible para trabajar con cantidades muy altas de polígonos, al menos, sin contar software propietario de soluciones Lidar. Además, Meshlab es gratuito, open source y disponible para todo tipo de arquitecturas.

Estoy trabajando con terrenos complejos, de mas de 50 millones de polígonos. Maya simplemente no puede gestionar de forma eficiente semejante cantidad de polígonos. Lo ideal seria abrirlo en Zbrush y reducir la cantidad de polígonos mediante decimation, pero la gestión de memoria de Zbrush no es demasiado buena, y simplemente no te dejara abrir el terreno.

La alternativa es abrirlo en Meshlab y utilizando sus (rapidísimas) herramientas de reducción de polígonos, exportar versiones más ligeras para utilizar en Maya. Llevo mucho tiempo utilizando Meshlab para lidiar con Lidar, photogrammetry y otro tipo de geometrías muy pesadas, y sin duda creo que es la solución más adecuada para la mayor parte de trabajos que he tenido que realizar. (en Linux tienes algunos bugs un tanto fastidiosos).

  • Veamos como reducir los poligonos de este terreno de 16 millones de polys. Ya he descartado Zbrush ya que da error de memoria y no permite abrirlo.
  • En Meshlab existen diferentes soluciones para reducir la densidad de una malla, a mi particularmente me gusta Quadric Edge Collapse Decimation, sobretodo por su rapidez.
  • Existen diferentes estrategias para controlar el tipo de reduccion, me gusta utilizar el percentage reduction. En este caso estoy reduciendo a la mitad, 0.5
  • El resultado como cabe de esperar, es de 8 millones de polys.
  • He vuelto a correr la herramienta para obtener un terreno de 4 millones de polys y llevarmelo a Maya.
Posted
AuthorXuan Prada