La IA podría explicar por qué no nos encontramos con ningún extraterrestre, propone un estudio salvaje: Heaven32

La Inteligencia Artificial está haciendo sentir su presencia de miles de formas diferentes. Ayuda a los científicos a dar sentido a grandes cantidades de datos; ayuda a detectar fraudes financieros; conduce nuestros coches; nos da sugerencias musicales; sus chatbots nos vuelven locos. Y esto apenas está comenzando.

¿Somos capaces de comprender con qué rapidez seguirá desarrollándose la IA? Y si la respuesta es no, ¿constituye eso el Gran Filtro?

El Paradoja de Fermi es la discrepancia entre la aparente alta probabilidad de que existan civilizaciones avanzadas y la total falta de evidencia de que existan. Se han propuesto muchas soluciones sobre por qué existe la discrepancia. Una de las ideas es la ‘Gran filtro.’

El Gran Filtro es un evento o situación hipotética que impide que la vida inteligente se vuelva interplanetaria e interestelar e incluso conduce a su desaparición. Piense en el cambio climático, la guerra nuclear, los ataques de asteroides, las explosiones de supernovas, las plagas o cualquier otra cosa de la galería de eventos cataclísmicos de los pícaros.

¿O qué tal el rápido desarrollo de la IA?

Un nuevo documento en Acta Astronáutica explora la idea de que la Inteligencia Artificial se convierte en Superinteligencia Artificial (ASI) y que ASI es el Gran Filtro. El título del artículo es “¿Es la Inteligencia Artificial el gran filtro que hace que las civilizaciones técnicas avanzadas sean raras en el universo?” El autor es Michael Garrett del Departamento de Física y Astronomía de la Universidad de Manchester.

“Sin una regulación práctica, hay muchas razones para creer que la IA podría representar una gran amenaza para el curso futuro no sólo de nuestra civilización técnica sino de todas las civilizaciones técnicas”.

Michael Garrett, Universidad de Manchester

Algunos piensan que el Gran Filtro impide que especies tecnológicas como la nuestra se vuelvan multiplanetarias. Eso es malo porque una especie corre mayor riesgo de extinción o estancamiento si tiene un solo hogar. Según Garrett, una especie está en una carrera contra el tiempo sin un planeta de respaldo.

“Se propone que dicho filtro surja antes de que estas civilizaciones puedan desarrollar una existencia multiplanetaria estable, lo que sugiere que la longevidad típica (L) de una civilización técnica es inferior a 200 años”, escribe Garrett.

Si es cierto, eso puede explicar por qué no detectamos tecnofirmas u otra evidencia de ETI (Inteligencias Extraterrestres). ¿Qué nos dice eso sobre nuestra propia trayectoria tecnológica? Si nos enfrentamos a una limitación de 200 años, y si se debe a la ASI, ¿dónde nos deja eso?

Garrett subraya la “…necesidad crítica de establecer rápidamente marcos regulatorios para el desarrollo de la IA en la Tierra y el avance de una sociedad multiplanetaria para mitigar tales amenazas existenciales”.

Muchos científicos y otros pensadores dicen que estamos en la cúspide de una enorme transformación. La IA apenas está comenzando a transformar la forma en que hacemos las cosas; Gran parte de la transformación se produce entre bastidores. La IA parece estar a punto de eliminar puestos de trabajo para millones de personas y, cuando se combina con la robótica, la transformación parece casi ilimitada. Esa es una preocupación bastante obvia.

Pero hay preocupaciones más profundas y sistemáticas. ¿Quién escribe los algoritmos? ¿La IA discriminará de alguna manera? Casi con certeza. ¿Los algoritmos en competencia socavarán las sociedades democráticas poderosas? ¿Seguirán abiertas las sociedades abiertas? ¿ASI comenzará a tomar decisiones por nosotros y quién será responsable si lo hace?

Se trata de un árbol en expansión de preguntas ramificadas sin un final claro.

Stephen Hawking (RIP) advirtió que la IA podría acabar con la humanidad si comienza a evolucionar de forma independiente.

“Temo que la IA pueda reemplazar a los humanos por completo. Si la gente diseña virus informáticos, alguien diseñará una IA que mejore y se replique a sí misma. Esta será una nueva forma de vida que supere a los humanos”, dijo. dijo cableado revista en 2017. Una vez que la IA pueda superar a los humanos, se convierte en ASI.

Hawking puede ser una de las voces más reconocibles en emitir advertencias sobre la IA, pero está lejos de ser la única. Los medios de comunicación están llenos de debates y advertencias, además de artículos sobre el trabajo que la IA hace por nosotros. Las advertencias más alarmantes dicen que ASI podría volverse deshonesta. Algunas personas descartan eso como ciencia ficción, pero Garrett no.

“La preocupación por que la Superinteligencia Artificial (ASI) eventualmente se vuelva deshonesta se considera un problema importante; combatir esta posibilidad en los próximos años es una búsqueda de investigación creciente para los líderes en este campo”, escribe Garrett.

Si la IA no proporcionara beneficios, la cuestión sería mucho más sencilla. Pero proporciona todo tipo de beneficios, desde mejores imágenes y diagnósticos médicos hasta sistemas de transporte más seguros. El truco para los gobiernos es permitir que florezcan los beneficios y al mismo tiempo limitar los daños.

“Este es especialmente el caso en áreas como la seguridad nacional y la defensa, donde el desarrollo responsable y ético debería ser primordial”, escribe Garrett.

El problema es que nosotros y nuestros gobiernos no estamos preparados. Nunca ha habido nada parecido a la IA, y no importa cómo intentemos conceptualizarla y comprender su trayectoria, nos quedamos con ganas.

Y si estamos en esta posición, también lo estaría cualquier otra especie biológica que desarrolle IA. La llegada de la IA y luego de la ASI podría ser universal, lo que la convertiría en candidata al Gran Filtro.

Éste es el riesgo que plantea ASI en términos concretos: ya no podría necesitar la vida biológica que la creó.

“Al llegar a un singularidad tecnológicalos sistemas ASI superarán rápidamente la inteligencia biológica y evolucionarán a un ritmo que superará por completo los mecanismos de supervisión tradicionales, lo que conducirá a consecuencias imprevistas y no deseadas que es poco probable que estén alineadas con los intereses o la ética biológicos”, explica Garrett.

¿Cómo podría ASI liberarse de la molesta vida biológica que lo acorrala? Podría diseñar un virus mortal, podría inhibir la producción y distribución de alimentos agrícolas, podría forzar la fusión de una planta de energía nuclear y podría iniciar guerras.

Realmente no lo sabemos porque es todo territorio inexplorado. Hace cientos de años, los cartógrafos dibujaban monstruos en las regiones inexploradas del mundo, y eso es lo que estamos haciendo ahora.

Si todo esto suena triste e inevitable, Garrett dice que no lo es.

Su análisis hasta ahora se basa en que ASI y los humanos ocupan el mismo espacio. Pero si podemos alcanzar un estatus multiplanetario, la perspectiva cambia.

“Por ejemplo, una especie biológica multiplanetaria podría aprovechar experiencias independientes en diferentes planetas, diversificando sus estrategias de supervivencia y posiblemente evitando el fallo único que enfrenta una civilización ligada a un planeta”, escribe Garrett.

Si podemos distribuir el riesgo entre múltiples planetas alrededor de múltiples estrellas, podremos protegernos contra los peores resultados posibles de la ASI.

“Este modelo distribuido de existencia aumenta la resiliencia de una civilización biológica a las catástrofes inducidas por la IA al crear redundancia”, escribe.

Si uno de los planetas o puestos de avanzada que ocuparán los humanos del futuro no logra sobrevivir a la singularidad tecnológica ASI, otros pueden sobrevivir. Y aprenderían de ello.

El estatus multiplanetario podría incluso hacer algo más que sobrevivir a ASI. Podría ayudarnos a dominarlo. Garrett imagina situaciones en las que podemos experimentar más a fondo con la IA mientras la mantenemos contenida. Imaginemos la IA en un asteroide aislado o en un planeta enano, cumpliendo nuestras órdenes sin acceso a los recursos necesarios para escapar de su prisión.

“Permite entornos aislados donde se pueden estudiar los efectos de la IA avanzada sin el riesgo inmediato de una aniquilación global”, escribe Garrett.

Pero aquí está el enigma. El desarrollo de la IA avanza a un ritmo acelerado, mientras que nuestros intentos de volvernos multiplanetarios no.

“La disparidad entre el rápido avance de la IA y el progreso más lento de la tecnología espacial es marcada”, escribe Garrett.

La diferencia es que la IA es computacional e informativa, pero los viajes espaciales contienen múltiples obstáculos físicos que aún no sabemos cómo superar. Nuestra propia naturaleza biológica frena los viajes espaciales, pero ningún obstáculo de ese tipo frena la IA.

“Si bien en teoría la IA puede mejorar sus propias capacidades casi sin limitaciones físicas”, escribe Garrett, “los viajes espaciales deben enfrentar limitaciones energéticas, límites de la ciencia de los materiales y las duras realidades del entorno espacial”.

Por ahora, la IA opera dentro de las limitaciones que establecemos. Pero puede que ese no sea siempre el caso. No sabemos cuándo la IA podría convertirse en ASI o incluso si puede hacerlo. Pero no podemos ignorar la posibilidad. Esto lleva a dos conclusiones entrelazadas.

Si Garrett tiene razón, la humanidad debe trabajar más diligentemente en los viajes espaciales. Puede parecer descabellado, pero las personas conocedoras saben que es verdad: la Tierra no será habitable para siempre. La humanidad perecerá aquí por nuestra propia mano o por la mano de la naturaleza si no nos expandimos al espacio. La estimación de Garrett a 200 años simplemente le pone un signo de exclamación. A énfasis renovado llegar a la Luna y Marte ofrece alguna esperanza.

La segunda conclusión se refiere a legislar y gobernar la IA, una tarea difícil en un mundo donde los psicópatas pueden hacerse con el control de naciones enteras y están empeñados en hacer la guerra.

“Si bien las partes interesadas de la industria, los formuladores de políticas, los expertos individuales y sus gobiernos ya advierten que la regulación es necesaria, establecer un marco regulatorio que pueda ser globalmente aceptable será un desafío”, escribe Garrett.

Desafiante apenas lo describe. Las disputas internas de la humanidad hacen que todo sea aún más ingobernable. Además, no importa qué tan rápido desarrollemos pautas, ASI podría cambiar aún más rápidamente.

“Sin una regulación práctica, hay muchas razones para creer que la IA podría representar una amenaza importante para el curso futuro no sólo de nuestra civilización técnica sino de todas las civilizaciones técnicas”, escribe Garrett.

Si lo hacemos, podría terminar en lo que puede parecer aburrido y cotidiano: discutir sobre la legislación.

“La persistencia de vida inteligente y consciente en el universo podría depender de la implementación oportuna y efectiva de tales medidas regulatorias internacionales y esfuerzos tecnológicos”, escribe Garrett.

Este artículo fue publicado originalmente por Universo hoy. Leer el artículo original.

Heaven32: