Esto es lo que pensé sobre las nuevas gafas de realidad aumentada de Snap

Esto es lo que pensé sobre las nuevas gafas de realidad aumentada de Snap

Los nuevos Spectacles de quinta generación pueden mostrar información visual y aplicaciones directamente en sus lentes transparentes, lo que hace que los objetos parezcan estar en el mundo real, con una interfaz impulsada por el nuevo sistema operativo de la empresa, Snap OS. A diferencia de los típicos cascos de realidad virtual o dispositivos de computación espacial, estos lentes de realidad aumentada (RA) no oscurecen su visión y la recrean con cámaras. No hay una pantalla que cubra su campo de visión. En cambio, las imágenes parecen flotar y existir en tres dimensiones en el mundo que lo rodea, flotando en el aire o descansando sobre mesas y pisos.

Bobby Murphy, director de tecnología de Snap, describió su intención a . como “computación superpuesta al mundo que mejora nuestra experiencia de las personas en los lugares que nos rodean, en lugar de aislarnos o sacarnos de esa experiencia”.

En mi demostración, pude apilar LEGO sobre una mesa, golpear una pelota de golf de realidad aumentada en un hoyo al otro lado de la habitación (al menos un triple bogey), pintar flores y enredaderas en los techos y las paredes con mis manos, y hacer preguntas sobre los objetos que estaba mirando y recibir respuestas del chatbot virtual de inteligencia artificial de Snap. Incluso había una pequeña criatura virtual parecida a un perro morado de Niantic, el peridotoque me siguió por toda la habitación y hasta el balcón.

Pero si levantas la vista del LEGO verás una habitación normal. La pelota de golf está en el suelo, no en un campo de golf virtual. El peridoto está posado en una barandilla de balcón real. Esto significa, fundamentalmente, que puedes mantener contacto (incluso contacto visual) con las personas que te rodean en la habitación.

Para lograr todo esto, Snap ha incorporado mucha tecnología en las monturas. Hay dos procesadores integrados en el interior, por lo que todo el procesamiento se realiza en las propias gafas. Las cámaras de refrigeración en los laterales hicieron un trabajo eficaz de disipación del calor en mi demostración. Cuatro cámaras capturan el mundo que te rodea, así como el movimiento de tus manos para el seguimiento de los gestos. Las imágenes se muestran a través de microproyectores, similares a los que se encuentran en los picoproyectores, que hacen un buen trabajo al presentar esas imágenes tridimensionales justo delante de tus ojos sin necesidad de una gran configuración inicial. Crea un campo de visión alto y profundo (Snap afirma que es similar a una pantalla de 100 pulgadas a 10 pies) en un dispositivo relativamente pequeño y ligero (226 gramos). Además, se oscurecen automáticamente cuando sales al exterior, por lo que funcionan bien no solo en tu casa, sino también en el mundo exterior.

Todo esto se controla mediante una combinación de voz y gestos con las manos, la mayoría de los cuales me resultaron bastante naturales. Por ejemplo, puedes seleccionar objetos con los dedos y arrastrarlos. El chatbot de IA podría responder a preguntas planteadas en lenguaje natural (“¿Qué es ese barco que veo a lo lejos?”). Algunas de las interacciones requieren un teléfono, pero en su mayor parte los Spectacles son un dispositivo independiente.

No es barato. Snap no vende las gafas directamente a los consumidores, sino que exige que aceptes al menos Un año pagando $99 por mes por una cuenta del Programa para desarrolladores de Spectacles que le da acceso a ellosMe aseguraron que tiene una definición muy abierta de quién puede desarrollar para la plataforma. Snap también anunció una nueva asociación con OpenAI que aprovecha sus capacidades multimodales, lo que, según afirma, ayudará a los desarrolladores a crear experiencias con un contexto del mundo real sobre las cosas que la gente ve o escucha (o dice).

El autor de la publicación aparece de pie afuera con unas gafas Snap Spectacles gigantes. La foto es un poco ridícula
Soy yo

Dicho esto, todo funcionó de maravilla. Los objetos tridimensionales mantuvieron una sensación de permanencia en los espacios en los que los colocaste, lo que significa que puedes moverlos y se quedan en su lugar. El asistente de IA identificó correctamente todo lo que le pedí. Hubo algunos fallos aquí y allá, por ejemplo, los ladrillos LEGO se desplomaron entre sí, pero en general este era un pequeño dispositivo sólido.

Sin embargo, no son de perfil bajo. Nadie las confundiría con unas gafas o gafas de sol normales. Un colega las describió como gafas 3D reforzadas, lo que parece bastante acertado. No son el ordenador más ridículo que me he puesto en la cara, pero tampoco me hicieron sentir exactamente como un tipo genial. Aquí hay una foto de mí probándolas. Saquen sus propias conclusiones.