Los ejecutivos de OpenAI advierten sobre el “riesgo de extinción” de la inteligencia artificial en una nueva carta abierta

Una imagen generada por IA de
Agrandar
/ Una imagen generada por IA de “IA tomando el control del mundo”.

Difusión estable

El martes, el Centro para la Seguridad de la IA (CAIS) liberado una sola frase declaración firmado por ejecutivos de OpenAI y DeepMind, ganadores del Premio Turing y otros investigadores de IA que advierten que el trabajo de su vida podría potencialmente extinguir a toda la humanidad.

La breve declaración, que según CAIS está destinada a abrir el debate sobre el tema de “un amplio espectro de riesgos importantes y urgentes de la IA”, dice lo siguiente: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos sociales”. riesgos a gran escala, como pandemias y guerras nucleares”.

Los signatarios de alto perfil de la declaración incluyen a los ganadores del Premio Turing Geoffery Hinton y Yoshua Bengio, el CEO de OpenAI, Sam Altman, el científico jefe de OpenAI, Ilya Sutskever, el CTO de OpenAI, Mira Murati, el CEO de DeepMind, Demis Hassabis, el CEO de Anthropic, Dario Amodei, y profesores de UC Berkeley, Stanford y ..

Esta declaración surge mientras Altman viaja por el mundo, tomando reuniones con los jefes de estado sobre la IA y sus peligros potenciales. A principios de mayo, Altman abogó por las regulaciones de su industria frente al Senado de los Estados Unidos.

Teniendo en cuenta su corta extensión, la carta abierta de CAIS se destaca por lo que no incluye. Por ejemplo, no especifica exactamente qué significa “IA”, considerando que el término puede aplicarse a cualquier cosa, desde movimientos fantasma en pac man a mo delos de lenguaje que pueden escribir sonetos al estilo de un mafioso sabio de los años cuarenta. La carta tampoco sugiere cómo se podrían mitigar los riesgos de extinción, solo que debería ser una “prioridad global”.

Sin embargo, en un aspecto relacionado presione soltarCAIS dice que quiere “establecer barandillas y establecer instituciones para que los riesgos de la IA no nos tomen desprevenidos”, y compara la advertencia sobre la IA con J. Robert Oppenheimer advertencia sobre los posibles efectos de la bomba atómica.

A los expertos en ética de la IA no les hace gracia

Una imagen generada por IA de un globo que ha dejado de girar.
Agrandar / Una imagen generada por IA de un globo que ha dejado de girar.

Difusión estable

Esta no es la primera carta abierta sobre peligros hipotéticos de IA que acaban con el mundo que hemos visto este año. En marzo, el Instituto Future of Life publicó una declaración más detallada firmada por Elon Musk que abogaba por una pausa de seis meses en los modelos de IA “más potentes que GPT-4”, que recibió una amplia cobertura de prensa pero también se encontró con una respuesta escéptica de algunos en la comunidad de aprendizaje automático.

A los expertos que a menudo se enfocan en la ética de la IA no les divierte esta tendencia emergente de cartas abiertas.

La Dra. Sasha Luccioni, científica investigadora de aprendizaje automático en Hugging Face, compara la nueva carta de CAIS con un juego de manos: “En primer lugar, mencionar el riesgo existencial hipotético de la IA al mismo tiempo que riesgos muy tangibles como las pandemias y el cambio climático. , que son muy frescos y viscerales para el público, le da más credibilidad”, dice. “También es una mala dirección, atraer la atención del público a una cosa (riesgos futuros) para que no piensen en otra (riesgos tangibles actuales como prejuicios, problemas legales y consentimiento)”.

Leave a Reply

Your email address will not be published. Required fields are marked *