Cuatro tendencias que cambiaron la IA en 2023

El riesgo existencial se ha convertido en uno de los mayores memes de la IA. La hipótesis es que algún día construiremos una IA que sea mucho más inteligente que los humanos, y esto podría tener graves consecuencias. Es una ideología defendida por muchos en Silicon Valley, incluido Ilya Sutskever, el científico jefe de OpenAI, quien jugó un papel fundamental en el derrocamiento del CEO de OpenAI, Sam Altman (y luego su reincorporación unos días después).

Pero no todo el mundo está de acuerdo con esta idea. Los líderes de IA de Meta, Yann LeCun y Joelle Pineau, han dicho que estos temores son “ridículos” y que la conversación sobre los riesgos de la IA se ha vuelto “desquiciada”. Muchos otros actores poderosos de la IA, como la investigadora Joy Buolamwini, dicen que centrarse en riesgos hipotéticos distrae la atención de los daños muy reales que la IA está causando hoy.

Sin embargo, la creciente atención sobre el potencial de la tecnología para causar daños extremos ha provocado muchas conversaciones importantes sobre la política de IA y ha animado a los legisladores de todo el mundo a tomar medidas.

4. Los días del lejano oeste de la IA han terminado

Gracias a ChatGPT, todos, desde el Senado de los EE. UU. hasta el G7, estuvieron hablando sobre políticas y regulaciones de IA este año. A principios de diciembre, los legisladores europeos concluyeron un año político muy ocupado cuando acordaron la Ley de IA, que introducirá reglas y estándares vinculantes sobre cómo desarrollar la IA más riesgosa de manera más responsable. También prohibirá ciertas aplicaciones “inaceptables” de IA, como el uso policial del reconocimiento facial en lugares públicos.

Mientras tanto, la Casa Blanca introdujo una orden ejecutiva sobre IA, además de compromisos voluntarios de las principales empresas de IA. Sus esfuerzos apuntaron a brindar más transparencia y estándares para la IA y dieron mucha libertad a las agencias para adaptar las reglas de IA para adaptarse a sus sectores.

Una propuesta de política concreta que r ecibió mucha atención fueron las marcas de agua: señales invisibles en texto e imágenes que pueden ser detectadas por computadoras para señalar el contenido generado por IA. Estos podrían usarse para rastrear el plagio o ayudar a combatir la desinformación, y este año vimos investigaciones que lograron aplicarlos a texto e imágenes generados por IA.

No sólo estaban ocupados los legisladores, sino también los abogados. Vimos un número récord de demandas, en las que artistas y escritores argumentaron que las empresas de inteligencia artificial habían eliminado su propiedad intelectual sin su consentimiento y sin compensación. En una emocionante contraofensiva, investigadores de la Universidad de Chicago desarrollaron Nightshade, una nueva herramienta de envenenamiento de datos que permite a los artistas luchar contra la IA generativa al alterar los datos de entrenamiento de maneras que podrían causar graves daños a los modelos de IA que generan imágenes. Se está gestando una resistencia y espero que el próximo año se realicen más esfuerzos desde la base para cambiar el equilibrio de poder de la tecnología.

Aprendizaje más profundo

Ahora sabemos qué ha estado haciendo el equipo de superalineación de OpenAI

OpenAI ha anunciado los primeros resultados de su equipo de superalineación, su iniciativa interna dedicada a evitar que una superinteligencia (una hipotética IA futura que puede ser más astuta que los humanos) se vuelva deshonesta. El equipo está dirigido por el científico jefe Ilya Sutskever, quien formó parte del grupo que el mes pasado despidió al director ejecutivo de OpenAI, Sam Altman, solo para reintegrarlo unos días después.

Lo de siempre: A diferencia de muchos de los anuncios de la compañía, esto no presagia un gran avance. En un trabajo de investigación discreto, el equipo describe una técnica que permite que un modelo de lenguaje grande menos poderoso supervise a uno más poderoso y sugiere que esto podría ser un pequeño paso hacia descubrir cómo los humanos podrían supervisar máquinas sobrehumanas. Lea más de Will Douglas Heaven.

Bits y Bytes

Google DeepMind utilizó un modelo de lenguaje grande para resolver un problema matemático sin solución
En un artículo publicado en Nature, la compañía dice que es la primera vez que se utiliza un modelo de lenguaje grande para descubrir una solución a un antiguo enigma científico: producir nueva información verificable y valiosa que no existía anteriormente. (Revisión de tecnología del .)

Heaven32: