El inicio relámpago de la IA: ¿qué cambió repentinamente? Un resumen de Ars Frontiers 2023

El inicio relámpago de la IA: ¿qué cambió repentinamente?  Un resumen de Ars Frontiers 2023
Benj Edwards (L) moderó un panel con Paige Bailey (C), Haiyan Zhang (R) para la sesión Ars Frontiers 2023 titulada
Agrandar / El 22 de mayo, Benj Edwards (izquierda) moderó un panel con Paige Bailey (centro), Haiyan Zhang (derecha) para la sesión de Ars Frontiers 2023 titulada “The Lightning Onset of AI: ¿Qué cambió repentinamente?”

Ars Technica

El lunes, Ars Technica organizó nuestra conferencia virtu al Ars Frontiers. En nuestro quinto panel, cubrimos “El inicio relámpago de la IA: ¿Qué cambió repentinamente?” El panel contó con una conversación con paige bailey

gerente principal de productos para modelos generativos en Google DeepMind, y haiyan zhanggerente general de Gaming AI en Xbox, moderado por el reportero de AI de Ars Technica, Benj Edwards.

El panel se transmitió originalmente en vivo y ahora puede ver una grabación de todo el evento en YouTube. La introducción de la parte “Lightning AI” comienza en la marca 2:26:05

en la retransmisión.

Grabación en vivo de Ars Frontiers 2023.

Dado que “IA” es un término confuso que significa diferentes cosas en diferentes contextos, comenzamos la discusión considerando la definición de IA y lo que significa para los panelistas. Bailey dijo: “Me gusta pensar en la IA como algo que ayuda a derivar patrones de los datos y usarlos para predecir conocimientos… no es más que derivar conocimientos de los datos y usarlos para hacer predicciones y generar información aún más útil”.

Zhang estuvo de acuerdo, pero desde el punto de vista de los videojuegos, también ve a la IA como una fuerza creativa en evolución. Para ella, la IA no se trata solo de analizar, encontrar patrones y clasificar datos; también está desarrollando capacidades en lenguaje creativo, generación de imágenes y codificación. Zhang cree que este poder transformador de la IA puede elevar e inspirar la creatividad humana, especialmente en los videojuegos, que considera la cúspide de la expresión artística.

A continuación, nos sumergimos en la pregunta principal del panel: ¿Qué ha cambiado que condujo a esta nueva era de IA? ¿Se trata solo de exageraciones, tal vez debido a la alta visibilidad de ChatGPT, o ha habido algunos avances tecnológicos importantes que nos trajeron esta nueva ola?

Paige Bailey de Google durante su panel Ars Frontiers 2023 sobre IA.
Agrandar / Paige Bailey de Google durante su panel Ars Frontiers 2023 sobre IA.

Ars Technica

Zhang señaló los desarrollos en las técnicas de IA y la gran cantidad de datos ahora disponibles para el entrenamiento: “Hemos visto avances en la arquitectura de modelos para modelos de transformadores, así como en los modelos de codificadores automáticos recursivos, y también la disponibilidad de grandes conjuntos de datos. para luego entrenar estos modelos y combinar eso con, en tercer lugar, la disponibilidad de hardware como GPU, MPU para poder realmente tomar los modelos para tomar los datos y poder entrenarlos en nuevas capacidades de cómputo”.

Bailey se hizo eco de estos sentimientos y agregó una mención notable de las contribuciones de código abierto: “También tenemos esta comunidad vibrante de expertos en código abierto que son modelos de código abierto, modelos como LLaMA, ajustándolos con ajuste de instrucciones de muy alta calidad y conjuntos de datos RLHF. .”

Cuando se le pidió que explicara la importancia de las colaboraciones de código abierto para acelerar los avances de la IA, Bailey mencionó el uso generalizado de modelos de capacitación de código abierto como PyTorch, Jax y TensorFlow. También afirmó la importancia de compartir las mejores prácticas y afirmó: “Ciertamente, creo que esta comunidad de aprendizaje automático solo existe porque las personas comparten sus ideas, sus conocimientos y su código”.

Cuando se le preguntó acerca de los planes de Google para los modelos de código abierto, Bailey señaló los Recursos de investigación de Google en GitHub y enfatizó su asociación con Hugging Face, una comunidad de IA en línea. “No quiero revelar nada que pueda estar viniendo por la tubería”, dijo.

IA generativa en consolas de juegos, riesgos de IA

Haiyan Zhang de Microsoft durante su panel Ars Frontiers 2023 sobre IA.
Agrandar / Haiyan Zhang de Microsoft durante su panel Ars Frontiers 2023 sobre IA.

Ars Technica

Como parte de una conversación sobre los avances en hardware de IA, le preguntamos a Zhang cuánto tiempo pasaría antes de que los modelos de IA generativa pudieran ejecutarse localmente en las consolas. Dijo que estaba emocionada con la perspectiva y señaló que una configuración dual de cliente en la nube puede ser lo primero: “Creo que será una combinación de trabajar en la IA para ser inferencia en la nube y trabajando en colaboración con la inferencia local para que podamos dar vida a las mejores experiencias de los jugadores”.

Bailey señaló el progreso de la reducción del modelo de lenguaje LLaMA de Meta para que se ejecute en dispositivos móviles, e insinuó que un camino similar podría abrir la posibilidad de ejecutar modelos de IA en consolas de juegos también: “Me encantaría tener un gran lenguaje hiperpersonalizado”. modelo que se ejecuta en un dispositivo móvil, o que se ejecuta en mi propia consola de juegos, que tal vez pueda hacer que un jefe sea particularmente difícil de vencer para mí, pero que podría ser más fácil de vencer para otra persona”.

Para dar seguimiento, preguntamos si un modelo generativo de IA se ejecuta localmente en un teléfono inteligente, ¿eso eliminará a Google de la ecuación? “Creo que probablemente haya espacio para una variedad de opciones”, dijo Bailey. “Creo que debería haber opciones disponibles para que todas estas cosas coexistan de manera significativa”.

Al analizar los riesgos sociales de los sistemas de IA, como la información errónea y las falsificaciones profundas, ambos panelistas dijeron que sus respectivas empresas estaban comprometidas con el uso responsable y ético de la IA. “En Google, nos preocupamos mucho por asegurarnos de que los modelos que producimos sean responsables y se comporten de la manera más ética posible. Y, de hecho, incorporamos a nuestro equipo de IA responsable desde el día cero, cada vez que capacitamos a los modelos desde la curación de nuestros datos, asegurándonos de que se crea la combinación adecuada de preentrenamiento”, explicó Bailey.

A pesar de su anterior entusiasmo por los modelos de IA de código abierto y ejecutados localmente, Baily mencionó que los modelos de IA basados ​​en API que solo se ejecutan en la nube podrían ser más seguros en general: “Creo que existe un riesgo significativo de que los modelos se utilicen indebidamente en manos de personas que no necesariamente entienden o no son conscientes del riesgo. Y esa también es parte de la razón por la que a veces ayuda preferir las API en lugar de los modelos de código abierto”.

Al igual que Bailey, Zhang también discutió el enfoque corporativo de Microsoft para la IA responsable, pero también comentó sobre los desafíos éticos específicos de los juegos, como asegurarse de que las características de la IA sean inclusivas y accesibles.

Leave a Reply

Your email address will not be published. Required fields are marked *