Esta semana, Meta lanzó una nueva aplicación de demostración llamada First Hand para mostrar el tipo de experiencias que los desarrolladores pueden crear con las herramientas de seguimiento de manos sin control de la compañía.
El seguimiento de manos sin controlador ha estado disponible en Quest durante años hasta este momento, y aunque es una modalidad de entrada más accesible que usar controladores, los controladores siguen siendo la principal forma de entrada para la gran mayoría de los juegos y aplicaciones de los visores.
Meta ha estado presionando cada vez más a los desarrolladores para que adopten el seguimiento de manos como algo más que una novedad y, con ese fin, ha estado creando herramientas para facilitar que los desarrolladores aprovechen la función. Pero, ¿qué es mejor que un buen ejemplo práctico?
Meta la demo «First Hand» (nombrada en referencia a una aplicación de demostración anterior de Oculus llamada First Contact). Aunque la demostración está diseñada en gran medida para mostrar las capacidades de seguimiento manual a los desarrolladores, First Hand está disponible para que cualquiera lo descargue de forma gratuita desde App Lab.
En el blog para desarrolladores de Oculus, el equipo detrás de la aplicación explica que se creó con el ‘SDK de interacción’, que forma parte de la ‘Plataforma de presencia‘ de la empresa, un conjunto de herramientas creadas para ayudar a los desarrolladores a aprovechar la realidad mixta y el seguimiento de manos, capacidades de Quest. First Hand también se lanza como un proyecto de código abierto, lo que brinda a los desarrolladores una forma de mirar debajo del capó y tomar prestado código e ideas para crear sus propias aplicaciones de seguimiento de manos.
El equipo de desarrollo explicó algunas de las ideas detrás del diseño de la aplicación:
«First Hand muestra algunas de las interacciones de Hands que hemos encontrado como las más mágicas, robustas y fáciles de aprender, pero que también son aplicables a muchas categorías de contenido. En particular, dependemos en gran medida de las interacciones directas. Con las heurísticas táctiles directas avanzadas que vienen de fábrica con Interaction SDK (como la limitación táctil, que evita que su dedo atraviese accidentalmente los botones), interactuar con UI 2D y botones en VR se siente realmente natural.
También mostramos varias de las técnicas de agarre que ofrece el SDK. Hay algo visceral en la interacción directa con el mundo virtual con las manos, pero descubrimos que estas interacciones también necesitan un ajuste cuidadoso para que realmente funcionen. En la aplicación, puede experimentar interactuando con una variedad de clases de objetos (pequeños, grandes, restringidos, con dos manos) e incluso aplastar una roca apretándola lo suficientemente fuerte.»
El equipo también compartió 10 consejos para los desarrolladores que buscan hacer uso del Interaction SDK en sus aplicaciones de Quest, consúltelos en la publicación del desarrollador.
Me encanta que vayan confluyendo distintas tecnologías para mejorar la experiencia de juego. Los controles de realidad virtual están muy bien aprovechados en muchos juegos, pero en ocasiones resultan demasiado «artificiales» y, sinceramente, a los jugadores nos gustaría poder utilizar más libremente nuestras manos y pies/piernas, sobre todo cuando se requiere de una interacción medianamente compleja más allá de las básicas habituales (coger, agarrar, disparar…).
Me encanta ver que se está trabajando en evolucionar la experiencia y la interacción con los mundos de realidad virtual, y no se queda simplemente en sacar títulos y más títulos, conviertiéndolo así en una moda pasajera…
Creo que de verdad hay un interes en que este formato cada vez se extienda más y evolucione, y todas estas mejoras sin duda demuestran que le queda mucho tirón a la realidad virtual.
esta tengo que probarla, pero he de decir que navegar por los menús de quest con las manos ya es muy cómodo, probare la app sin duda