¿Cómo podría la IA hacer que la humanidad se extinga?

¿Cómo podría la IA hacer que la humanidad se extinga?

Imagen para el artículo titulado ¿Cómo podría la IA provocar la extinción de la humanidad?

Ilustración: Ole.CNX (Shutterstock)

Esta semana, un grupo de investigadores de IA conocidos y de buena reputación firmado una declaración compuesto por 22 palabras:

Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear.

Como profesor de IA, también estoy a favor de reducir cualquier riesgo y estoy preparado para trabajar en ello personalmente. Pero cualquier declaración redactada de esa manera está destinada a crear alarma, por lo que sus autores probablemente deberían ser más específicos y aclarar sus preocupaciones.

Tal como lo define la Enciclopedia Británica, la extinción es “extinción o exterminio de una especie”. He conocido a muchos de los firmantes de la declaración, que se encuentran entre los científicos más sólidos y de mayor reputación en el campo, y ciertamente tienen buenas intenciones. Sin embargo, no nos han dado un escenario tangible de cómo podría ocurrir un evento tan extremo.

No es la primera vez que estamos en esta posición. El 22 de marzo de este año, una petición firmada por un conjunto diferente de empresarios e investigadores solicitó una pausa en el despliegue de IA de seis meses. En la petición, en el sitio web del Future of Life Institute, establecieron como su razonamiento: “Riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación y reconocido por los principales laboratorios de inteligencia artificial”, y acompañaron su solicitud con una lista de preguntas retóricas:

¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?

Una sensación genérica de alarma.

Ciertamente es cierto que, junto con muchos beneficios, esta tecnología conlleva riesgos que debemos tomar en serio. Pero ninguno de los escenarios antes mencionados parece delinear un camino específico hacia la extinción. Esto significa que nos quedamos con una sensación genérica de alarma, sin ninguna acción posible que podamos tomar.

El sitio web de la Centro para la seguridad de la IAdonde apareció la última declaración, se describe en una sección separada ocho amplias categorías de riesgo. Estos incluyen el “armamento” de la IA, su uso para manipular el sistema de noticias, la posibilidad de que los humanos finalmente se vuelvan incapaces de autogobernarse, la facilitación de regímenes opresivos, etc.

Excepto por el uso de armas, no está claro cómo los otros riesgos, aún terribles, podrían conducir a la extinción de nuestra especie, y la carga de explicarlo recae en quienes lo reclaman.

El uso de armas es una preocupación real, por supuesto, pero también se debe aclarar qué significa esto. En su sitio web, la principal preocupación del Centro para la Seguridad de la IA parece ser el uso de sistemas de IA para diseñar armas químicas. Esto debe evitarse a toda costa, pero las armas químicas ya están prohibidas. La extinción es un evento muy específico que requiere explicaciones muy específicas.

El 16 de mayo, en su audiencia en el Senado de los Estados UnidosA Sam Altman, el CEO de OpenAI, que desarrolló el chatbot ChatGPT AI, se le pidió dos veces que explicara su peor escenario. Finalmente respondió:

Mis peores temores son que nosotros, el campo, la tecnología, la industria, causemos un daño significativo al mundo… Es por eso que comenzamos la empresa. [to avert that future] … Creo que si esta tecnología sale mal, puede salir bastante mal.

Pero aunque estoy firmemente a favor de ser lo más cuidadosos posible, y lo he dicho públicamente durante los últimos diez años, es importante mantener el sentido de la proporción, especialmente cuando se habla de la extinción de una especie de ocho mil millones. individuos

La IA puede crear problemas sociales que realmente deben evitarse. Como científicos, tenemos el deber de comprenderlos y luego hacer todo lo posible para resolverlos. Pero el primer paso es nombrarlos y describirlos, y ser específico.

¿Quiere saber más sobre la IA, los chatbots y el futuro del aprendizaje automático? Consulte nuestra cobertura completa de inteligencia artificialo explore nuestras guías para Los mejores generadores de arte de IA gratuitos y Todo lo que sabemos sobre ChatGPT de OpenAI.

Nello CristianiniProfesor de Inteligencia Artificial, Universidad de baño

Este artículo se vuelve a publicar de La conversación bajo una licencia Creative Commons. Leer el artículo original.

Leave a Reply

Your email address will not be published. Required fields are marked *