Apple evita la exageración de la “IA” en el discurso de apertura de la WWDC al incorporar ML en los productos

Apple evita la exageración de la “IA” en el discurso de apertura de la WWDC al incorporar ML en los productos
Alguien escanea su rostro con el Apple Vision Pro durante un carrete de demostración de la presentación principal de la WWDC 2023.
Agrandar / Alguien escanea su rostro usando las “técnicas de aprendizaje automático más avanzadas” de Apple con Apple Vision Pro durante un carrete de demostración de la conferencia principal de la WWDC 2023.

Manzana

En medio de nuevos productos notables como Apple Silicon Mac Pro y Apple Vision Pro revelados en el evento principal de la WWDC 2023 del lunes, los presentadores de Apple nunca mencionaron el término “IA”, una omisión notable dado que sus competidores como Microsoft y Google se han centrado mucho en IA generativa en este momento. Aún así, la IA fue parte de la presentación de Apple, solo que con otros nombres.

Si bien “IA” es un término muy ambiguo en estos días, rodeado de avances asombrosos y exageraciones extremas, Apple optó por evitar esa asociación y, en cambio, se centró en términos como “aprendizaje automático” y “ML”. Por ejemplo, durante la demostración de iOS 17, vicepresidente sénior de ingeniería de software craig federighi

habló sobre las mejoras en la autocorrección y el dictado:

Autocorrección funciona con aprendizaje automático en el dispositivo y, a lo largo de los años, hemos seguido mejorando estos modelos. El teclado ahora aprovecha un modelo de lenguaje transformador, que es lo último en predicción de palabras, lo que hace que la autocorrección sea más precisa que nunca. Y con el po der de Apple Silicon, el iPhone puede ejecutar este modelo cada vez que presiona una tecla.

En particular, Apple mencionó el término “transformador” de IA en un discurso de apertura de Apple. La compañía habló específicamente sobre un “modelo de lenguaje de transformador”, lo que significa que su modelo de IA utiliza la arquitectura de transformador que ha estado impulsando muchas innovaciones generativas de IA recientes, como el generador de imágenes DALL-E y el chatbot ChatGPT.

Un modelo de transformador (primero un concepto introducido en 2017) es un tipo de arquitectura de red neuronal utilizada en el procesamiento del lenguaje natural que emplea un mecanismo de autoatención, lo que le permite priorizar diferentes palabras o elementos en una secuencia. Su capacidad para procesar entradas en paralelo ha llevado a mejoras significativas en la eficiencia y ha impulsado avances en tareas de procesamiento de lenguaje natural (NLP), como traducción, re sumen y respuesta a preguntas.

Aparentemente, el nuevo modelo de transformador de Apple en iOS 17 permite autocorrecciones a nivel de oración que pueden terminar una palabra o una oración completa cuando presiona la barra espaciadora. También aprende de su estilo de escritura, lo que guía sus sugerencias.

Todo este procesamiento de IA en el dispositivo es bastante fácil para Apple debido a una parte especial de los chips Apple Silicon (y los chips Apple anteriores, comenzando con el A11 en 2017) llamado el Motor neuronal, que está diseñado para acelerar las aplicaciones de aprendizaje automático. Apple también dijo que el dictado “obtiene un nuevo modelo de reconocimiento de voz basado en transformadores que aprovecha el Neural Engine para hacer que el dictado sea aún más preciso”.

Una captura de pantalla de Craig Federighi hablando sobre la autocorrección en iOS 17, que ahora usa un
Agrandar / Una captura de pantalla de Craig Federighi hablando sobre la autocorrección en iOS 17, que ahora usa un “modelo de lenguaje transformador”.

Manzana

Durante el discurso de apertura, Apple también mencionó el “aprendizaje automático” varias otras veces: mientras describía una nueva función de pantalla de bloqueo del iPad (“Cuando selecciona una foto en vivo, usamos un modelo de aprendizaje automático avanzado para sintetizar fotogramas adicionales”); Funciones PDF de iPadOS (“Gracias a los nuevos modelos de aprendizaje automático, iPadOS puede identificar los campos en un PDF para que pueda usar Autocompletar para completarlos rápidamente con información como nombres, direcciones y correos electrónicos de sus contactos”); una función de audio adaptativo de AirPods (“Con Volumen personalizado, usamos el aprendizaje automático para comprender sus preferencias de escucha a lo largo del tiempo”); y una función de widget de Apple Watch llamada Smart Stack (“Smart Stack utiliza el aprendizaje automático para mostrarle información relevante justo cuando la necesita”).

Apple también presentó una nueva aplicación llamada Diario que permite el registro personal de texto e imágenes (algo así como un diario interactivo), bloqueado y encriptado en su iPhone. Apple dijo que la IA juega un papel, pero no usó el término “IA”.

“Usando el aprendizaje automático en el dispositivo, su iPhone puede crear sugerencias personalizadas de momentos para inspirar su escritura”, dijo Apple. “Las sugerencias se seleccionarán de forma inteligente a partir de la información de tu iPhone, como tus fotos, ubicación, música, entrenamientos y más. Y tú controlas qué incluir cuando habilitas las Sugerencias y cuáles guardar en tu Diario”.

Finalmente, durante la demostración del nuevo Apple Vision Pro, la compañía reveló que la imagen en movimiento de los ojos de un usuario en la parte frontal de las gafas proviene de un avatar 3D especial creado al escanear su rostro, y lo adivinó, aprendizaje automático.

Leave a Reply

Your email address will not be published. Required fields are marked *