Lo mejor de las gafas inteligentes no es la realidad aumentada. Es la IA.

Lo mejor de las gafas inteligentes no es la realidad aumentada. Es la IA.

Tanto Meta como Snap han puesto sus gafas en manos (o tal vez en la cara) de los periodistas. Y ambos han demostrado que después de años de promesas, las especificaciones AR por fin están disponibles. una cosa. Pero lo realmente interesante de todo esto para mí no es la RA en absoluto. Es IA.

Toma las gafas nuevas de Meta. Todavía son sólo un prototipo, ya que el costo de construirlos (al parecer 10.000 dólares) es muy alto. Pero la compañía los mostró de todos modos esta semana, sorprendiendo básicamente a todos los que pudieron probarlos. Las funciones holográficas se ven muy bien. Los controles por gestos también parecen funcionar muy bien. Y posiblemente lo mejor de todo es que se parecen más o menos a gafas normales, aunque gruesas. (Tenga en cuenta que es posible que tenga una definición diferente de gafas de apariencia normal que la de la mayoría de las personas). Si desea obtener más información sobre sus características, Alex Heath tiene un excelente artículo práctico

en El borde.

Pero lo que me resulta más intrigante de todo esto es la forma en que las gafas inteligentes te permiten interactuar sin problemas con la IA a medida que avanzas el día. Creo que eso será mucho más útil que ver objetos digitales en espacios físicos. Dicho de manera más simple: no se trata de los efectos visuales. Se trata del cerebro.

Hoy, si quieres hacer una pregunta sobre ChatGPT o Gemini de Google o lo que sea, puedes bastante Tienes que usar tu teléfono o computadora portátil para hacerlo. Claro, puedes usar tu voz, pero aún necesita ese dispositivo como ancla. Esto es especialmente cierto si tienes alguna pregunta sobre algo que ves; necesitarás la cámara del teléfono inteligente para eso. Meta ya se ha adelantado aquí permitir que las personas interactúen con su IA a través de sus gafas inteligentes Ray-Ban Meta

. Es liberador estar libre de la atadura de la pantalla. Francamente, mirar una pantalla apesta.

Es por eso que cuando probé las nuevas Spectacles de Snap hace un par de semanas, me cautivó menos la capacidad de simular un green de golf en la sala de estar que la forma en que podía mirar el horizonte. Pregúntele al agente de inteligencia artificial de Snap sobre el gran barco que vi a lo lejos, y que no sólo lo identifique sino que me dé una breve descripción del mismo. De manera similar, en El borde Heath señala que la parte más impresionante de la demostración de Orion de Meta fue cuando miró un conjunto de ingredientes y los vasos le dijeron qué eran y cómo hacer un batido con ellos.

La característica principal de Orion u otras gafas no serán los juegos de ping-pong AR.Golpear una pelota invisible con la palma de tu mano es simplemente una tontería.. ¿Pero la capacidad de utilizar IA multimodal para comprender mejor el mundo que te rodea, interactuar con él y sacarle más provecho sin quedar atrapado en una pantalla? Eso es asombroso.

Y realmente, ese siempre ha sido el atractivo. Al menos para mí. En 2013, cuando estaba escribiendo sobre Google Glasslo más revolucionario de esa computadora facial extremadamente incipiente fue su capacidad de ofrecer información contextual relevante usando Google Now (en ese momento la respuesta de la compañía a Siri de Apple) de una manera que pasaba por alto mi teléfono.

Si bien tenía sentimientos encontrados sobre Glass en general, argumenté: “Te va a encantar Google Now por tu cara”. Sigo pensando que eso es cierto.