Nuevo documento muestra cómo los gobiernos pueden disuadir el surgimiento de IA hostil y súper inteligente


La invención de una súper inteligencia artificial ha sido un tema central en la ciencia ficción desde al menos el siglo XIX. Del cuento de E.M. Forster La máquina se detiene (1909) a la reciente serie de televisión HBO Westworld, Los escritores han tendido a retratar esta posibilidad como un desastre no mitigado.

Pero este problema ya no es de ficción. Destacados científicos e ingenieros contemporáneos ahora también están preocupados de que la súper IA pueda algún día superar la inteligencia humana (un evento conocido como "singularidad") y convertirse en la humanidad "peor error".

Las tendencias actuales sugieren que estamos listos para ingresar a un mercado internacional carrera de armamentos para tal tecnología. Cualquier empresa de alta tecnología o laboratorio gubernamental que logre inventar la primera súper IA obtendrá una tecnología potencialmente dominante en el mundo. Es un premio ganador se lleva todo.

Entonces, para aquellos que quieran detener un evento de este tipo, la pregunta es cómo desalentar este tipo de carrera armamentista, o al menos incentivar a los equipos competidores para que no cortes las esquinas con la seguridad de la IA.

Una súper IA plantea dos desafíos fundamentales para sus inventores, como filósofo Nick Bostrom y otros han señalado Uno es un problema de control, que es cómo asegurarse de que la súper IA tenga los mismos objetivos que la humanidad.

Sin esto, la inteligencia podría destruir deliberadamente, accidentalmente o por negligencia a la humanidad, un "desastre de IA".

El segundo es un problema político, que es cómo garantizar que los beneficios de una súper inteligencia no se destinen solo a una pequeña élite, causando desigualdades sociales y de riqueza masivas.

Si se produce una carrera armamentista súper AI, podría llevar a los grupos competidores a ignorar estos problemas para desarrollar su tecnología más rápidamente. Esto podría conducir a una súper IA de mala calidad o hostil.

Una solución sugerida es usar políticas públicas para dificultar el ingreso a la carrera a fin de reducir el número de grupos competidores y mejorar las capacidades de los que sí lo hacen. Cuantos menos compitan, menos presión habrá para tomar atajos para ganar.

Pero, ¿cómo pueden los gobiernos disminuir la competencia de esta manera?

Mi colega Nicola Dimitri y yo recientemente publicado un artículo que trató de responder esta pregunta Primero demostramos que en una carrera típica de ganador-toma toda la carrera, como la de construir la primera súper IA, solo participarán los equipos más competitivos.

Esto se debe a que la probabilidad de inventar realmente la súper IA es muy pequeña, y entrar en la carrera es muy costoso debido a la gran inversión necesaria en investigación y desarrollo.

De hecho, esta parece ser la situación actual con el desarrollo de una IA "estrecha" más simple. Aplicaciones patentadas para este tipo de IA están dominadas por algunas empresas, y la gran mayoría de la investigación de IA se realiza en solo tres regiones (Estados Unidos, China y Europa). También parece haber muy pocos, Si alguna, grupos que actualmente invierten en la construcción de una súper IA.

Esto sugiere que reducir el número de grupos competidores no es la prioridad más importante en este momento. Pero incluso con un menor número de competidores en la carrera, la intensidad de la competencia podría conducir a los problemas mencionados anteriormente.

Entonces, para reducir la intensidad de la competencia entre los grupos que se esfuerzan por construir una súper IA y aumentar sus capacidades, los gobiernos podrían recurrir a la contratación pública y los impuestos.

La contratación pública se refiere a todas las cosas que los gobiernos pagan a las compañías privadas para proporcionar, desde software para su uso en agencias gubernamentales hasta contratos para ejecutar servicios. Los gobiernos podrían imponer restricciones a cualquier proveedor de súper IA que les exigiera abordar los problemas potenciales y apoyar tecnologías complementarias para mejorar la inteligencia humana e integrarla con la IA.

Pero los gobiernos también podrían ofrecer comprar una versión menos que mejor de la súper IA, creando efectivamente un "segundo premio" en la carrera armamentista y evitando que sea una competencia ganadora.

Con un premio intermedio, que podría ser por inventar algo cercano (pero no exactamente) a una súper IA, los grupos competidores tendrán un incentivo para invertir y cooperar más, reduciendo la intensidad de la competencia. Un segundo premio también reduciría el riesgo de fracaso y justificaría más inversiones, ayudando a aumentar las capacidades de los equipos competidores.

En cuanto a los impuestos, los gobiernos podrían establecer la tasa impositiva sobre el grupo que inventa la súper IA de acuerdo con lo amigable o hostil que sea la IA. Una tasa de impuestos lo suficientemente alta significaría esencialmente la nacionalización de la súper AI. Esto desalentaría fuertemente a las empresas privadas de cortar esquinas por temor a perder su producto en el estado.

Bien público no monopolio privado

Esta idea puede requerir una mejor coordinación global de los impuestos y la regulación de la súper AI. Pero no necesitaría la participación de todos los gobiernos. En teoría, un solo pais o una región (como la UE) podría asumir los costos y el esfuerzo involucrados en abordar los problemas y la ética de la súper IA.

Pero todos los países se beneficiarían y la súper IA se convertiría en un bien público en lugar de un monopolio privado imparable.

Por supuesto, todo esto depende de que la súper IA sea realmente una amenaza para la humanidad. Y algunos científicos no creen que lo sea. Podríamos naturalmente ingeniero de distancia Los riesgos de la súper IA con el tiempo. Algunos piensan que los humanos podrían incluso fusionarse con AI.

Cualquiera sea el caso, nuestro planeta y sus habitantes se beneficiarán enormemente al asegurarnos de que Obtener lo mejor de AI, una tecnología que todavía está en su infancia. Para esto, necesitamos una mejor comprensión de qué papel puede jugar el gobierno.La conversación

Wim Naudé, Profesor Titular, Instituto de Investigación Económica y Social de Maastricht sobre Innovación y Tecnología (UNU-MERIT), Universidad de las Naciones Unidas.

Este artículo se republica de La conversación bajo una licencia Creative Commons. Leer el artículo original.

LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *