Carta abierta de líderes tecnológicos pide una pausa en el desarrollo de IA

Carta abierta de líderes tecnológicos pide una pausa en el desarrollo de IA

Figuras clave en la industria de la inteligencia artificial (IA) han firmado una carta abierta pidiendo la suspensión de los poderosos sistemas de IA debido a los profundos riesgos que representan para la humanidad.

El CEO de Twitter, Elon Musk, el cofundador de Apple, Steve Wozniak, y el cofundador de Pinterest, Evan Sharp, se encuentran entre los que desean que la capacitación y el desarrollo de IA más allá de las capacidades de GPT-4 continúen durante al menos seis años.

Según la carta abierta, los sistemas de IA se están volviendo cada vez más competitivos con los humanos para tareas comunes, y el desarrollo de mentes no humanas podría eventualmente superar en número y astucia a los humanos, poniendo así en peligro a nuestra civilización.

Para abordar estos riesgos, instaron a los laboratorios de IA a detener la capacitación en estos sistemas de IA y asociarse con expertos individuales para desarrollar e implementar protocolos de seguridad comunes para el diseño y desarrollo avanzado de IA. Estos protocolos de seguridad deben ser rigurosamente auditados y monitoreados por expertos externos independientes.

Si esa pausa no se puede hacer cumplir rápidamente, instaron a los desarrolladores de IA a que también trabajen con los formuladores de políticas para “acelerar el desarrollo de sistemas sólidos de gobierno de IA”.

Esto incluye reguladores nuevos y poderosos para supervisar y rastrear sistemas de IA de alto rendimiento, un sólido ecosistema de auditoría y certificación, financiamiento para la investigación de seguridad de IA e instituciones con buenos recursos para hacer frente a las perturbaciones económicas y políticas que causará la IA.

La carta abierta enfatiza que esta no es una pausa general en el desarrollo de la IA, sino un retroceso de la carrera peligrosa hacia modelos de caja negra impredecibles y cada vez más grandes con capacidades emergentes.

En cambio, la investigación y el desarrollo de la IA deberían centrarse en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros y transparentes.

Es importante tener pautas para el desarrollo de la IA

Teniendo en cuenta el potencial casi ilimitado de la IA, no sorprende que los gigantes tecnológicos como Meta y Microsoft estén compitiendo para desarrollar modelos de IA más potentes y darse la ventaja de ser los primeros en moverse en el espacio.

Pero lo importante es que estas empresas existen con el objetivo principal de ganar dinero. Cualquier empresa que priorizara el beneficio social sobre las ganancias probablemente dejaría de existir.

Esta es la razón por la cual es importante contar con regulaciones para el desarrollo de IA, ya que las empresas compiten para lanzar herramientas de IA con sus propios intereses.

Los habitantes del sudeste asiático, incluidos los singapurenses, son actualmente ambivalentes sobre los aspectos positivos y negativos de la IA, en particular sobre cómo se ve a estos gigantes tecnológicos, según una encuesta de Blackbox ADNA.

Empresas con mayor probabilidad de usar IA de manera responsable
Crédito de la foto: Blackbox Research

La mayoría parece pensar que Microsoft, Apple, Alphabet (la empresa matriz de Google), Meta y Open AI desarrollarían y usarían la IA de manera responsable.

Las empresas utilizan la IA de forma menos responsable
Crédito de la foto: Blackbox Research

Por otro lado, Meta ocupa el primer lugar como la empresa que usaría la IA de manera menos responsable. Esto se produce después de que Mark Zuckerberg anunciara que la empresa se trasladaría a la IA.

Sin embargo, la industria de la IA aún está en pañales, lo que la hace significativamente más difícil de regular. La regulación también podría obstaculizar la innovación en un momento en que la industria está creciendo rápidamente.

De hecho, un estudio de la Universidad de Stanford descubrió que los intentos de regular la IA en su conjunto serían “erróneos”, ya que todavía “no existe una definición clara de IA” y los riesgos y factores involucrados pueden variar enormemente según el campo y la industria.

El tema de la regulación de la IA es complejo, pero lo cierto es que la IA definitivamente necesitará regulación tarde o temprano.

Crédito de la imagen destacada: The Siasat Daily