Gigantes de la tecnología piden una pausa en los experimentos de IA por temor a “riesgos profundos para la sociedad” : Heaven32

Gigantes de la tecnología piden una pausa en los experimentos de IA por temor a “riesgos profundos para la sociedad” : Heaven32

El magnate multimillonario Elon Musk y una variedad de expertos pidieron el miércoles una pausa en el desarrollo de poderosos sistemas de inteligencia artificial (IA) para dar tiempo a asegurarse de que sean seguros.

Un carta abiertafirmado por más de 1,000 personas hasta el momento, incluidos Musk y el cofundador de Apple, Steve Wozniak, fue impulsado por el lanzamiento de GPT-4 de la firma OpenAI respaldada por Microsoft.

La compañía dice que su último modelo es mucho más poderoso que la versión anterior, que se usó para impulsar ChatGPT, un bot capaz de generar fragmentos de texto a partir de las indicaciones más breves.

“Los sistemas de IA con inteligencia humana-competitiva pueden plantear profundos riesgos para la sociedad y la humanidad”, dijo el carta abierta titulado “Pausar experimentos gigantes de IA”.

“Los poderosos sistemas de inteligencia artificial deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, dijo.

Musk fue un inversionista inicial en OpenAI, pasó años en su directorio y su empresa de automóviles, Tesla, desarrolla sistemas de inteligencia artificial para ayudar a impulsar su tecnología de conducción autónoma, entre otras aplicaciones.

La carta, organizada por el Future of Life Institute, financiado por Musk, fue firmada por destacados críticos y competidores de OpenAI como el jefe de Stability AI, Emad Mostaque.

El pionero canadiense de la IA, Yoshua Bengio, también signatario, en una conferencia de prensa virtual en Montreal advirtió “que la sociedad no está preparada” para esta poderosa herramienta y sus posibles usos indebidos.

“Reduzcamos la velocidad. Asegurémonos de desarrollar mejores barandillas”, dijo, y pidió una discusión internacional exhaustiva sobre la IA y sus implicaciones, “como lo hemos hecho con la energía nuclear y las armas nucleares”.

‘Digno de confianza y leal’

La carta citado de un blog escrito por el fundador de OpenAI, Sam Altman, quien sugirió que “en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros”.

“Estamos de acuerdo. Ese punto es ahora”, los autores de la opluma carta escribió.

“Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4”.

Pidieron a los gobiernos que intervengan e impongan una moratoria si las empresas no llegan a un acuerdo.

​Los seis meses deben usarse para desarrollar protocolos de seguridad, sistemas de gobierno de IA y reenfocar la investigación para garantizar que los sistemas de IA sean más precisos, seguros, “confiables y leales”.

La carta no detallaba los peligros revelados por GPT-4.

​Pero los investigadores, incluido Gary Marcus de la Universidad de Nueva York, quien firmó la carta, han argumentado durante mucho tiempo que los chatbots son grandes mentirosos y tienen el potencial de ser súper propagadores de desinformación.

Sin embargo, el autor Cory Doctorow ha comparado la industria de la IA a un esquema de “bomba y descarga”, argumentando que tanto el potencial como la amenaza de los sistemas de IA se han exagerado enormemente.

© Agencia France-Presse

Leave a Reply

Your email address will not be published. Required fields are marked *