Eso no fue Google I/O, fue Google AI

Eso no fue Google I/O, fue Google AI

Hace tres años, la compañía expulsó a Timnit Gebru, el codirector de su equipo de inteligencia artificial ética, esencialmente por un documento que planteaba preocupaciones sobre los peligros de los modelos de lenguaje extenso. Desde entonces, las preocupaciones de Gebru se han convertido en la corriente principal. Su partida y las consecuencias de la misma marcaron un punto de inflexión en la conversación sobre los peligros de la IA sin control. Uno esperaría que Google aprendiera de ello; de ella.

Y luego, la semana pasada, Geoffrey Hinton anunció que dejaría Google, en gran parte para tener la libertad de hacer sonar la alarma sobre las nefastas consecuencias de los rápidos avances en la IA que teme que pronto le permitan superar a los humanos. inteligencia. (O, como dijo Hinton, es “bastante concebible que la humanidad sea solo una fase pasajera en la evolución de la inteligencia”).

Y así, I/O ayer estuvo muy lejos del evento en 2018, cuando la compañía alegremente Dúplex demostrado, mostrando cómo el Asistente de Google podría realizar llamadas automáticas a pequeñas empresas sin que las personas en esas llamadas supieran que estaban interactuando con una IA. Fue una demostración increíble. Y uno que hizo que mucha gente se sintiera profundamente incómoda.

Una y otra vez en el I/O de este año, escuchamos acerca de la responsabilidad. James Manyika, quien dirige el programa de tecnología y sociedad de la compañía, abrió hablando sobre las maravillas que la IA ha forjado, particularmente en torno al plegamiento de proteínas, pero se apresuró a hacer la transición a las formas en que la compañía piensa sobre la desinformación, y señaló cómo marcaría las imágenes generadas con marcas de agua y aludiendo a las barandillas para evitar su mal uso.

Hubo una demostración de cómo Google puede implementar la procedencia de la imagen para contrarrestar la información errónea, desacreditando una búsqueda de imágenes de manera efectiva mostrándola la primera vez (en el ejemplo en el escenario, una foto falsa que pretende mostrar que el alunizaje fue un engaño) fue indexado. Fue un poco de conexión a tierra en medio de todo el asombro y la maravilla, operando a escala.

Y luego… a los teléfonos. El nuevo Google Pixel Fold obtuvo la línea de aplausos más grande del día. A la gente le gustan los aparatos.

El teléfono puede doblarse, pero para mí fue una de las cosas menos alucinantes que vi en todo el día. Y en mi cabeza, seguí volviendo a uno de los primeros ejemplos que vimos: un foto de una mujer parada frente a unas colinas y una cascada.

Magic Editor borró la correa de su mochila. ¡Fresco! Y también hizo que el cielo nublado se viera mucho más azul. Reforzando esto, en otro ejemplo, esta vez con un niño sentado en un banco sosteniendo globos, Magic Editor una vez más hizo que el día fuera más brillante y luego ajustó toda la iluminación en las fotos para que la luz del sol se viera más natural. Más real que real.

¿Hasta dónde queremos llegar aquí? ¿Cuál es el objetivo final al que apuntamos? En última instancia, ¿simplemente nos saltamos las vacaciones por completo y generamos algunas imágenes bonitas, bonitas? ¿Podemos suplantar nuestros recuerdos con versiones más soleadas e idealizadas del pasado? ¿Estamos mejorando la realidad? ¿Todo es más bonito? ¿Está todo mejor? ¿Es todo esto muy, muy bueno? ¿O algo mas? ¿Algo de lo que aún no nos hemos dado cuenta?

Leave a Reply

Your email address will not be published. Required fields are marked *