La óptica compleja involucrada con colocar una pantalla a una pulgada de distancia del ojo en los visores VR podría hacer que los anteojos inteligentes corrijan los problemas de visión. Estos prototipos de “autofocals” de los investigadores de Stanford utilizan la detección de profundidad y el seguimiento de la mirada para enfocar el mundo cuando alguien no tiene la capacidad de hacerlo por sí mismo.
Lee también: La primera exposición que se llevará a cabo con ¡realidad virtual!
Nitish Padmanaban, de SIGGRAPH en Vancouver, es el investigador principal de esta tecnología. Se trata de ser una solución al problema de la presbicia, que es básicamente cuando tus ojos se niegan a enfocar los objetos cercanos. Le pasa a millones de personas a medida que envejecen, incluso personas con una visión excelente.
Existen, por supuesto, bifocales y lentes progresivos que combinan la luz de tal manera que enfocan dichos objetos, soluciones puramente ópticas y económicas, pero inflexibles. Solo proporcionan una pequeña “ventana gráfica” a través de la cual puedes ver el mundo. Y también hay anteojos de lentes ajustables, pero deben acomodarse lenta y manualmente con un marcador en el costado. ¿Qué pasaría si pudieras hacer que la lente entera cambiara de forma automática, dependiendo de la necesidad que tengas en tiempo real?
Lee también: ¿Sabes cuál es la diferencia entre realidad aumentada, virtual y mixta?
Tanto Padmanaban y sus colegas, Robert Konrad y Gordon Wetzstein, trabajan en ello. Aunque el prototipo actual es obviamente demasiado voluminoso y limitado para el despliegue real, el concepto parece sólido.
Él trabajó anteriormente con tecnologías de realidad virtual y mencionó lo que se llama el problema de la convergencia de alojamiento. Básicamente es la forma en que vemos los cambios en la vida real cuando nos movemos y enfocamos de nuevo nuestros ojos de lejos a cerca y esto no ocurre de manera adecuada (si es que lo hacemos) en la realidad virtual. Eso puede producir dolor y náuseas.
Funciona de la siguiente manera. Un sensor de profundidad en las gafas recoge una vista básica de la escena en frente de la persona: un periódico está a 25 centímetros de distancia, una mesa a un metro de distancia y el resto de la sala considerablemente más. Luego, un sistema de seguimiento ocular verifica hacia donde está la mirada del usuario y hace referencias cruzadas con el mapa de profundidad.
Lee también: Salas de VR que DEBES visitar en la CDMX
Todo el proceso de revisar la mirada, la profundidad del objeto seleccionado y el ajuste de las lentes toma un total de aproximadamente 150 milisegundos. Eso es lo suficientemente largo como para que el usuario note que sucede, pero todo el proceso de redirigir y reenfocar la mirada tarda tal vez tres o cuatro veces más, por lo que los cambios en el dispositivo estarán completos para cuando los ojos del usuario estén normalmente en reposo.
Incluso con un prototipo inicial, las Autofocales son comparables y, a veces, mejores que la corrección tradicional. Además, la operación ‘natural’ de los Autofocals los hace utilizables en el primer uso.
Lee también: ¡Todos podrían desarrollar una app para Google Daydream!
Actualmente, el equipo realiza pruebas para medir de forma más cuantitativa las mejoras derivadas de este sistema y para detectar posibles efectos nocivos, problemas técnicos u otras molestias. Padmanaban sugirió que algunos fabricantes ya están en investigaciones para este tipo de método y, a pesar de su etapa inicial, es muy prometedor.
Debe estar conectado para enviar un comentario.