De un tiempo a esta parte, compañías como Facebook, Google o Intel están invirtiendo grandes cantidades de dinero en una tecnología sustitutiva de lo que tradicionalmente entendemos por «el 3D», a ver si esta vez suena la flauta. Los hologramas y las imágenes lenticulares que tanto me emocionaban en mis años mozos parecen estar a punto de volver a lo grande después de pasarse décadas agazapados a la sombra.
NOTA: Soy escéptico por naturaleza con esta clase de expectativas. Cualquier tecnología emergente es una Atari Jaguar en mi cabeza. Pero ey: cacharritos. Mirad el gif de abajo, cómo mola.

Minority Report en nuestras casas.

Un apunte: leo que hay que distinguir entre lentículas y holografías porque, si bien su efecto es el mismo — crear sensación de tridimensionalidad a partir de una ilusión óptica conocida como paralaje: la impresión de que estamos viendo múltiples profundidades en una imagen plana dependiendo del lugar desde el que la observamos — las propiedades de la luz a las que recurren son distintas.
Las lentículas refractan la luz.

Las holografías, la reflejan.

Lo que os enseño aquí parece ser la evolución de ambas, una tecnología que ha vuelto a ganar impulso gracias al desarrollo de los dos pilares en los que se apoya — las cámaras que captan las imágenes y las pantallas donde se representan — y que han comenzado a converger hasta el punto de que sus desarrolladores anticipan una explosión comercial en los próximos cinco años bajo un solo nombre y un mercado que podría crecer desde los 578 millones de dólares el año pasado hasta los 2.780 para 2023, según un estudio de Markets and Markets.
Las llaman «imágenes volumétricas».
Como digo: soy un escéptico con estas cosas, pero la apuesta está ahi, de todas formas. Como muestra, tenemos el megaestudio de 930 metros cuadrados que ha levando Intel en Los Ángeles, capacitado para tomar imágenes desde cualquier ángulo que permita su cúpula, y que recientemente ha empleado el director de Grease, Randal Kleiser, para rodar una promo con motivo del 40 aniversario de la película.

¿Cómo luce en estos momentos? A nivel más elemental, sin interactividad por parte del espectador, parece una evolución del bullet-time de Matrix. Este vídeo es de 2018.
Sin embargo, es más flexible — y accesible — de lo que parece. No es necesario un estudio volumétrico como el que ha diseñado Intel para desarrollar esta clase de imágenes. Al margen de esta instalación existen, de momento, otras tres opciones, diferenciadas por su fidelidad a la imagen tridimensional, y por el coste que comportan.

· Teléfonos móviles, como el iPhone 11. A grandes rasgos, sacan una imagen de un objeto y analizan su «mapa de profundidad»; una especie de silueta en negativo donde las partes más oscuras son las más cercanas. A partir de esos valores, crea una separación entre primer plano y fondo.

Facebook hace uso de esta opción para tridimensionalizar las fotos, como veis aquí.
· También existen las llamadas cámaras de percepción de profundidad, como DepthKit (o el Kinect de Microsoft, Dios lo tenga en su gloria).
· O la opción más avanzada de todas: la captación de campos de luz a través de un conjunto de cámaras (hasta 32 en algunos casos) que recogen toda la información lumínica que registramos cuando nos movemos sobre un objeto. Teóricamente proporciona el mejor resultado de entre todas estas opciones.
Google está trabajando bastante en esta disciplina. De hecho, el año pasado empleó uno de estos sistemas multicámaras en la cabina de la lanzadera Discovery.

La compañía Looking Glass empleó este mismo sistema para grabar a un polluelo de petrel…

…Y trasladar lo grabado a un prisma de cristal.

Estas imágenes pertenecen a un post de uno de los responsables de la compañía, Shawn Fraye, desarrollador de un monitor específicamente preparado para este tipo de imágenes — la versión «más plana» del prisma del gif anterior — y que comenzará a llegar a sus usuarios en primavera de 2020.
Huelga decir que esta tecnología no está exenta de problemas. En el CES 2018, el director de Intel Studios, Diego Priluski, reconocía que el ancho de banda actual no puede manejar tal cantidad de datos: 40 cámaras a una resolución de 5K generan 5 teras de información por minuto. Demasiado.
¿Queréis saber más? Aquí, una historia de la cinematografía volumétrica, por James George. Es una tecnología, como véis, bastante reciente. Los primeros ejemplos datan del año 2000, aproximadamente y sin tener en cuenta su prehistoria. Que yo recuerde, la primera vez que vi algo remotamente parecido fue en el Telediario, con esta máquina recreativa de Sega: el videojuego Hologram Time Traveler, creado por Rick Dyer. El año era 1991.