Desarrollan una tecnología de imágenes holográficas asistida por IA que pueden llevar la RA en 3D a las gafas normales

Image

Investigadores del Laboratorio de Imaginación Computacional de Standford han desarrollado una nueva tecnología de imágenes holográficas que, impulsada por Inteligencia Artificial (IA), permite superponer imágenes en movimiento tridimensionales en color en las lentes de gafas normales, suponiendo un avance en las gafas de Realidad Aumentada (RA).

Los actuales dispositivos de Realidad Aumentada, como pueden ser las gafas Magic Leap 2 o las AirVision M1 de Asus, disponen de un diseño con tamaño voluminoso debido a las necesidades de espacio que requiere su tecnología, lo que resulta incómodo a la hora de utilizarlas de forma continua.

De cara a mejorar esta tecnología y «desbloquear todo su potencial en aplicaciones de consumo», un grupo de investigadores del Laboratorio de Imaginación Computacional de Standford (SCI) han desarrollado un prototipo de visor RA impulsado por IA, que es capaz de utilizar imágenes holográficas para superponer imágenes 3D en movimiento y a color en las lentes de unas gafas normales.

De esta forma, la nueva tecnología permitiría que, en lugar de utilizar los actuales visores de gran tamaño, los usuarios podrían integrar este sistema RA den sus propias gafas, gracias a su formato compacto y cómodo.

Tal y como lo define el profesor de ingeniería eléctrica asociado al proyecto Gordon Wetzstein, en declaraciones al medio Stanford News, lo que el usuario ve a través de las lentes gracias a esta nueva tecnología es «un mundo enriquecido superpuesto con imágenes computarizadas en 3D vibrantes y a todo color».

En concreto, el amplio tamaño de los dispositivos RA actuales se debe al voluminoso sistema óptico de proyección de sus motores de luz y a su «incapacidad para representar con precisión señales de profundidad tridimensionales para contenido virtual», según han detallado los investigadores en un artículo publicado en la revista Nature.

De hecho, estos sistemas no permiten que el usuario vea el mundo real a través de las lentes del visor, si no que las cámaras que utilizan estos dispositivos capturan el entorno del mundo real y combinan esas imágenes con las imágenes computarizadas.

Además, según ha matizado Wetzstein, este sistema utiliza lentes de aumento entre el ojo del usuario y las pantallas de proyección. Esto requiere que haya una distancia mínima entre el ojo, las lentes y las pantallas de proyección, aumentando aún más el volumen.

Sin embargo, la holografía es una técnica fotográfica que permite crear imágenes tridimendionales basadas en el empleo de la luz. Teniendo esto en cuenta y según han explicado los investigadores, la nueva tecnología de imágenes holográficas para el sistema de RA, utiliza una combinación de «rejillas de metasuperficie a todo color de diseño inverso, una geometría de guía de onda compacta con compensación de dispersión y algoritmos de holografía impulsados por IA».

Todo ello se traduce en que se elimina la necesidad de utilizar lentes ópticas voluminosas entre el modulador de luz espacial y la guía de ondas para poder representar contenido de realidad aumentada en 3D con movimiento y a color desde un dispositivo mucho más compacto.

Funcionamiento

Para ello, los investigadores han utilizado la IA para mejorar las señales de profundidad en las imágenes holográficas. Siguiendo esta línea, han logrado avances en nanofotónica y tecnologías de visualización de guías de ondas, lo que ha permitido que se puedan proyectar hologramas computarizados en las lentes de las gafas sin depender de sistemas ópticos adicionales.

El funcionamiento de esta tecnología se basa en un sistema de guía de ondas que graba patrones a escala nanométrica en la superficie de la lente. Además, utilizan pequeñas pantallas holográficas que proyectan las imágenes computarizadas a través de patrones grabados, que provocan que la luz rebote dentro de la lente antes de que llegue directamente al ojo del espectador.

Así, al mirar a través de las gafas, los usuarios visualizarán el mundo real junto con las imágenes computarizadas en 3D, que ofrecen movimiento y se muestran en color.

Con todo ello, los investigadores han subrayado que esta nueva tecnología se podría implementar para usos relacionados con la medicina a la hora de realizar cirugías, o con la mecánica para, por ejemplo, aprender a trabajar sobre un motor. Igualmente, también se prevén campos de uso como los videojuegos, el entretenimiento y la educación.

Compartir:

Innovación

parrot bebop

Drones destacados del 2018

7 agosto 2018 8:17 AM

Los resultados audiovisuales que se pueden conseguir utilizando esta herramienta…

Tecnología

¿Qué es un Brand Manager y qué funciones tiene?

¿Qué es un Brand Manager y qué funciones tiene?

11 abril 2024 11:13 AM

Los consumidores son cada vez más exigentes y menos fieles…

Empresas

Hueso impreso en 3D.

Crean el primer hueso sintético hecho en impresora 3D

2 febrero 2017 9:38 AM

Cualquier tipo de fracturas resulta ser un grave problema para…

Marketing

Chileno se prepara para recibir «Óscar» de la Innovación Tecnológica en Dubai

Chileno se prepara para recibir «Óscar» de la Innovación Tecnológica en Dubai

18 enero 2024 12:23 PM

El chileno Edmundo Casas es ingeniero civil eléctrico y doctor…

Mundo digital

Una nueva investigación de la OIT revela el impacto de la digitalización en el trabajo en las economías en desarrollo

Una nueva investigación de la OIT revela el impacto de la digitalización en el trabajo en las economías en desarrollo

28 febrero 2024 11:37 AM

Una nueva publicación sobre la expansión de la actividad económica…

Scroll al inicio