Por temor a la “pérdida de control”, los críticos de la IA piden una pausa de 6 meses en el desarrollo de la IA

Una imagen generada por IA de un globo que ha dejado de girar.
Agrandar / Una imagen generada por IA de un globo que ha dejado de girar.

Difusión estable

El miércoles, el Future of Life Institute publicó un carta abierta en su sitio web pidiendo a los laboratorios de IA que “pau sen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4”. Firmada por Elon Musk y varios destacados investigadores de inteligencia artificial, la carta rápidamente comenzó a llamar la atención

en la prensa—y algunos crítica en las redes sociales

A principios de este mes, OpenAI lanzó GPT-4, un modelo de IA que puede realizar tareas de composición y supuestamente pasar pruebas estandarizadas a nivel humano, aunque esas afirmaciones aún están siendo evaluadas por la investigación. Independientemente, el avance de las capacidades de GPT-4 y Bing Chat sobre los modelos de IA anteriores asustó a algunos expertos que creen que nos dirigimos hacia sistemas de IA superinteligentes más rápido de lo esperado.

En este sentido, el Future of Life Institute argumenta que los avances recientes en IA han llevado a una “carrera fuera de control” para desarrollar e implementar modelos de IA que son difíciles de predecir o controlar. Creen que la falta de planificación y gestión de estos sistemas de IA es preocupante y que los sistemas de IA potentes solo deben desarrollarse una vez que sus efectos se comprendan bien y sean manejables. Como escriben en la carta:

Los sistemas de IA con inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación y lo reconocen los principales laboratorios de IA. Como se afirma en el ampliamente respaldado Principios de IA de Asilomarla IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y debería planificarse y gestionarse con el cuidado y los recursos correspondientes.

En particular, la carta plantea cuatro preguntas cargadas, algunas de las cuales suponen escenarios hipotéticos que son muy controvertidos en algunos sectores de la comunidad de IA, incluida la pérdida de “todos los trabajos” para la IA y la “pérdida de control” de la civilización:

  • “Debería ¿Dejamos que las máquinas inunden nuestros canales de información con propaganda y mentiras?”
  • “Debería ¿Automatizamos todos los trabajos, incluidos los de cumplimiento?
  • “Debería desarrollamos mentes no humanas que eventualmente podrían superarnos en número, astucia, obsoletas y reemplazarnos?”
  • “Debería corremos el riesgo de perder el control de nuestra civilización?”

Para abordar estas amenazas potenciales, la carta pide a los laboratorios de IA que “pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4”. Durante la pausa, los autores proponen que los laboratorios de IA y los expertos independientes colaboren para establecer protocolos de seguridad compartidos para el diseño y desarrollo de IA. Estos protocolos serían supervisados ​​por expertos externos independientes y deberían garantizar que los sistemas de IA sean “seguros más allá de toda duda razonable”.

Sin embargo, no está claro qué significa realmente “más poderoso que GPT-4” en un sentido práctico o regulatorio. La carta no especifica una forma de garantizar el cumplimiento midiendo el poder relativo de un modelo de lenguaje grande o multimodal. Además, OpenAI tiene específicamente evitado publicar detalles técnicos sobre cómo funciona GPT-4.

El Future of Life Institute es una organización sin fines de lucro fundada en 2014 por un grupo de científicos preocupados por los riesgos existenciales que enfrenta la humanidad, incluida la biotecnología, las armas nucleares y el cambio climático. Además, el riesgo existencial hipotético de la IA ha sido un enfoque clave para el grupo. De acuerdo a a Reutersla organización está financiada principalmente por la Fundación Musk, un grupo de altruismo efectivo con sede en Londres. Compromiso de los fundadoresy Fundación Comunitaria de Silicon Valley.

Signatarios notables de la carta confirmado por un reportero de Reuters incluyen al mencionado CEO de Tesla, Elon Musk, los pioneros de AI Yoshua Bengio y Stuart Russell, el cofundador de Apple Steve Wozniak, el CEO de Stability AI, Emad Mostaque, y el autor Yuval Noah Harari. La carta abierta está disponible para que cualquier persona en Internet la firme sin verificación, lo que inicialmente condujo a la inclusión de algunos nombres agregados falsamente, como el ex director ejecutivo de Microsoft, Bill Gates, el director ejecutivo de OpenAI, Sam Altman, y el personaje ficticio. Juan mecha. Esos nombres fueron eliminados más tarde.

Leave a Reply

Your email address will not be published. Required fields are marked *