domingo, 15 de noviembre de 2015
0 comentarios

Se da a conocer sistema de displays auto-levitantes, que permiten interacción física con objetos virtuales flotantes

domingo, noviembre 15, 2015
Un enjambre interactivo de píxeles 3D (o vóxels) flotantes, desarrollados en el Human Media Lab de la Queen’s University espera revolucionar la forma en que las personas interactúan con la realidad virtual. El sistema, llamado BitDrones, permite a los usuarios explorar información virtual en 3D mediante la interacción con bloques de construcción auto-levitantes.



Ver video en YouTube

Roel Vertegaal, profesor de Queen’s University, y sus estudiantes, dieron a conocer el sistema BitDrones el lunes 9 de noviembre (2015) en el Simposio sobre Software y Tecnologías para Interfaz de usuario de la ACM en Charlotte, Carolina del Norte. BitDrones es el primer paso hacia la creación de materia autónoma levitable, interactiva y programable—materiales capaces de cambiar su forma 3D de una manera programable—con ayuda de enjambres de nano-quadricópteros. El trabajo resalta varias aplicaciones posibles para la nueva tecnología, incluidos el modelado en 3D de “realidad-real”, juegos, modelado molecular, imágenes médicas, robótica y visualización de información en línea.

"BitDrones hace hace que la materia programable voladora, como aparece en la película futurista de Disney Big Hero 6, está más cerca de la realidad," dice el Dr. Vertegaal. "Es un primer paso hacia permitir que las personas interactúen con objetos virtuales en 3D como si fueran objetos físicos reales."


El Dr. Vertegaal y su equipo del Human Media Lab crearon tres tipos de BitDroness Cada uno representa un nivel diferente de resolución de display auto-levitante. Los ”PixelDrones" están equipados con un LED y un pequeño display de matriz de puntos. Los ”ShapeDrones" poseen una malla de peso ligero y una estructura geométrica construida con impresíón 3D, y sirven como bloques de construcción para modelos 3D complejos. Los ”DisplayDrones" están equipados con un display de alta resolución flexible, curvo y con capacidad multitáctil, una cámara de vídeo frontal, y sistema Android. Los tres tipos de BitDrones están equipadas con marcadores reflectantes, lo que les permite seguir su posición y movimiento individuales en tiempo real mediante tecnologías de captura de movimiento. El sistema también registra movimiento de la mano del usuario y el tacto, permitiendo a los usuarios manipular los voxels en el espacio.

"A esto le llamamos una interfaz de realidad real en lugar de una interfaz de realidad virtual. Esto la distingue de tecnologías como Microsoft HoloLens y el Oculus Rift: en realidad se pueden tocar y ver los píxeles sin necesidad de cascos o lentes”, dice el Dr. Vertegaal.

Dr. Vertegaal y su equipo describen una serie de posibles aplicaciones para esta tecnología. En un primer caso, los usuarios pueden explorar físicamente a una carpeta de archivos tocando PixelDrones asociados a la carpeta. Cuando se abre la carpeta, su contenido se muestran mediante otros PixelDrones que vuelan bajo ella a lo largo de una trayectoria circular y horizontal. Es posible navegar a través de los archivos en este circulo empujando y deslizando físicamente los drones hacia los lados.

Los usuarios también podrían manipular los ShapeDrones como bloques de construcción para un modelo 3D en tiempo real. Por último, el sistema BitDrones permitirá realizar actividades de telepresencia remota, así los usuarios podrán aparecer localmente a través de un DisplayDrone con Skype. El DisplayDrone sería capaz de detectar automáticamente y reproducir los movimientos de la cabeza del usuario remoto, permitiéndole inspeccionar virtualmente un lugar, y haciendo más fácil para el usuario local entender sus acciones.

Mientras que el sistema actualmente sólo es compatible con decenas de drones relativamente grandes (de 2.5 a 5 pulgadas), el equipo del Human Media Lab está trabajando para ampliar el sistema para poder soportar miles de drones. Estos futuros drones medirían no más de media pulgada de tamaño, permitiendo a usuarios desarrollar materia programable más fluida y de alta resolución.


Acerca de el Human Media Lab
El Human Media Lab (HML) de Queen’s University es uno de los más importantes laboratorios de Interacción Persona-Computador (HCI) de Canadá. Sus invenciones incluyen detectores de seguimiento ocular omnipresentes; televisores y teléfonos móviles con seguimiento ocular; PaperPhone, primero de teléfono flexible del mundo; PaperTab, el primer iPad flexible del mundo; y TeleHuman, primer sistema de teleconferencia pseudo-holográfico del mundo. El HML es dirigido por el Dr. Roel Vertegaal, Profesor de HCI en la Facultad de Informática de Queen’s University. Trabajan con él son un número de estudiantes universitarios de grado y postgrado con experiencia en computación, diseño, psicología e ingeniería. Página web: http://www.humanmedialab.org

Publicación siguiente
Esta es la publicación más reciente
Entrada antigua
 
Toggle Footer
Top