viernes, 12 de abril de 2013

Resumen: A Wearable Augmented Reality System Using Positioning Infrastructures and a Pedometer

A Wearable Augmented Reality System Using Positioning Infrastructures and a Pedometer
por Ryuhei TENMOKU,  Masayuki KANBARA,  Naokazu YOKOYA

El paper describe un sistema de realidad aumentada capaz de ser equipado o vestido en forma de headset, que utiliza un sistema de infraestructuras de posicionamiento y un podómetro (pequeño gadget que cuenta cada paso que tomas). El sistema mide la orientación del usuario con un sensor inercial y su posición utilizando infraestructuras de posicionamiento (RFID o IrDA) localizadas en el ambiente interior y un podómetro.

Introducción

En los sistemas de realidad aumentada, la posición y orientación del punto de vista del usuario son importantes para poder relacionar coordenadas del mundo real con coordenadas virtuales. Usualmente en casos donde se desea medir la posición del usuario en un ambiente exterior, se utiliza el GPS, aun más, en su aplicación para aplicaciones con realidad aumentada, se necesita un sistema GPS diferencial o de tiempo real para medir la posición del usuario de forma precisa.

Sin embargo, debido a que ambos utilizan comunicación por radio para corregir datos GPS, la configuración de hardware es complicada. Además, un sistema GPS no puede ser usado para posicionamiento en un ambiente interior

El propósito del paper fue construir un sistema de sobre posición de anotaciones capaz de ser equipado o vestido en forma de headset, que pudiera ser utilizado tanto en interiores como exteriores. El sistema propuesto utiliza infraestructuras de posicionamiento usadas para especificar la posición del usuario  en ciertos puntos específicos, y un podómetro usado para estimar la posición del usuario midiendo sus movimientos.
Además, un sensor inercial agregado al headset detecta la orientación del punto de vista del usuario. 

El sistema genera anotaciones en forma de imágenes sobre puestas a partir de información como la posición, orientación y la base de datos de anotaciones almacenadas en una computadora equipable, y las muestra en tiempo real a través de un display agregado al headset.


Configuración de Hardware


El sistema esta comprendido por cinco sensores, una notebook y un display. Los cinco sensores determinan la posición y orientación del punto de vista del usuario. Esta información se envía a la notebook, la cual genera las anotaciones a partir de esa información y una base de datos de anotaciones almacenada en la notebook. Al último, envía de vuelta las imágenes sobre puestas con anotaciones al display adjuntado al headset. El usuario entonces puede verlas a través del display. El hardware usado es:

Sensores: El usuario equipa cinco sensores, a los cuales se les da poder mediante la notebook o una batería de 9V. Los datos son transmitidos a la computadora mediante puerto USB o comunicación serial.

  • Sensor inercial (Intersense: InterTrax2): Sensor inercial adjunto al headset que mide la orientación del punto de vista del usuario. Puede obtener datos a 256Hz.
  • Cámara (Dragonfly): Cámara adjunta al headset que captura la escena real desde el punto de vista del usuario. Captura imágenes de color RGB 24bit con una resolución de 640x480. La cámara puede capturar la imagen a 30 frames por segundo.
  • Receptor IrDA: Receptor adjunto a la bolsa del usuario, que recibe rayos infrarrojos incluyendo los ID's de posicionamiento. 
  • RFID tag Reader (OMRON: V720): Lector de tags RFID adjuntado a la muñeca del usuario, que lee los ID's de posicionamiento guardados en los RFID tags.
  • Podómetro (NEC TOKIN: 3D motion sensor): Podómetro que puede medir pendiente, movimiento. Además mide aceleración en la dirección horizontal.
Computadora (DELL: Inspiron 8100, PentiumIII 1.2Ghz, 512 MB RAM): Computadora cargada en la bolsa del usuario. Contiene una base de datos con información de anotaciones para generar las imágenes de anotación sobre puestas en el display. 

Display (MicroOptical: Clip on Display): Dispositivo display para ver video transparente. Es adjunto al display, y puede presentar imágenes es a color con resolución de 640 x 480. La energía es suministrada por la caja de control cargada en la bolsa del usuario.

Medición de Posición

El sistema identifica la posición del usuario en ambientes interiores y exteriores de dos maneras, con el podómetro y con infraestructuras de posicionamiento (IrDA, RFID). Las infraestructuras de posicionamiento se usan cuando el usuario se localiza cerca de ellas, y el podómetro cuando el usuario se aleja. El error acumulado del podómetro se arregla cuando el sistema recibe un ID de posición al acercarse a una infraestructura.


Algunos ejemplos de la colocación de las infraestructuras de posicionamiento:
Experimento para evaluar la medición de la posición

En el paper, se describe un experimento que se hizo para conocer el desempeño de las mediciones de posición. En el ambiente experimental el usuario camino siguiendo flechas (a) en donde marcadores IrDA se encontraban en los puntos 1, 2, 3 y 4. En (b), las cruces rojas muestran la posición del usuario calculada en cada paso, y los círculos azules muestran que el error acumulado del podómetro es aproximadamente 20 o 30% de la distancia real que camina el usuario. 


Medición de la Orientación

La orientación del punto de vista del usuario se midió con un sensor inercial, pero haciéndolo solo de esta manera es difícil, ya que los datos del sensor presentan dos tipos de errores, error de rumbo (drift error) y error acumulativo. El primero es generado por el cambio de temperatura y el segundo por el abrupto giro a altas velocidades y el uso constante del sensor. Para arreglar el error de rumbo, se utilizan las imágenes capturadas por la cámara para sincronizar con los datos del sensor. El segundo tipo de error se arregla manualmente por el usuario, al ser un prototipo el sistema, pero en el futuro proponen combinar una brújula electrónica con un sensor de gravedad para arreglar el error acumulativo.




Generación de Imágenes sobre puestas

Las anotaciones sobre puestas son imágenes del escenario real desde el punto de vista del usuario con cuatro tipos de información:

Flechas: Conectan las anotaciones guía con los objetos en el escenario real.
Anotaciones Guía: Muestran los nombres de objetos reales.
Indicadores: Muestra el estado del sistema al usuario.
Información detallada: Muestra información detallada del objeto real.

Entre más cerca camine el usuario a la anotación, más grande es mostrada al usuario, así el usuario puede intuitivamente imaginar las anotaciones con objetos reales. 

El sistema necesita una base de datos de anotaciones para generar las imágenes sobre puestas que son presentadas al usuario. La base de datos de anotaciones consiste en los siguientes datos:
  • Imágenes de anotaciones guía y anotaciones detalladas.
  • Direcciones de las flechas.
  • Posiciones de las anotaciones y marcadores IrDA.
El sistema entonces elige las anotaciones adecuadas de la base de datos a partir de la posición estimada del usuario y su orientación, generando una anotación en tiempo real en el display.

Conclusiones

El paper presenta un proyecto demasiado interesante sobre lo que es la realidad aumentada, y el posicionamiento, tanto en ambientes interiores como exteriores. Si bien al observar la configuración de hardware podemos considerar que el equipo no sería lo suficiente óptimo para poder usarlo en un headset, hay que considerar que se trata de un prototipo, y encontrar partes pequeñas que se pudieran ajustar al tamaño de un headset no debería ser un problema.

En sí, el uso de infraestructuras de posicionamiento como RFID y IrDA para localizar la posición del usuario en ambientes interiores me parece una excelente idea para cualquier tipo de aplicaciones que requieren información de posicionamiento en estos ambientes, aunque claro que también es aplicable a ambientes exteriores.

Referencia:

1 comentario: