Los militares deberían pensar en construir robots asesinos

Ilustración para el artículo titulado Panel del Congreso: Tenemos un imperativo moral de al menos considerar la construcción de un terminador

Foto: Carl Court (imágenes falsas)

La Comisión de Seguridad Nacional sobre Inteligencia Artificial, un panel asesor del Congreso, dirigido por el ex director ejecutivo de Google, Eric Schmidt, ha reflexionado sobre si Estados Unidos debería o no desplegar armas autónomas artificialmente inteligentes y, después de tener en cuenta las numerosas razones, sería una idea terrible. , decidido que al menos jugar con la idea es “Imperativo moral.”

Por Reuters, el panel de dos días, que fue presidido por Schmidt y vicepresidente por el ex subsecretario de Defensa Robert Work, se opuso a que Estados Unidos se una a una coalición internacional de al menos 30 países que han instado a un tratado para prohibir el desarrollo o uso de armas autónomas. . En cambio, el panel aconsejó al Congreso que mantuviera abiertas sus opciones.

Los críticos han señalado durante mucho tiempo peligros inherentes de armamento controlado por IA, que incluye todo, desde sistemas con fallas o de gatillo fácil que inician escaramuzas violentas que podrían convertirse en conflictos más grandes, la posibilidad de que tales sistemas puedan ser adquiridos por terroristas o subvertidos contra sus amos por piratas informáticos, y que tanques y drones podría decidir masacrar a civiles indefensos. él Campaña para detener a los robots asesinos enumera docenas de organizaciones internacionales como miembros y advierte que permitir que las máquinas decidan “Que vive y muere, sin más intervención humana”, “cruzaría un umbral moral”.

En cambio, el panel del Congreso concluyó que los robots asesinos que potencialmente son realmente buenos matando es en realidad una razón para no descartarlos: la lógica es que quizás las armas autónomas podrían ser mucho más discriminatorias en su selección de objetivos y, por lo tanto, matar a menos personas. El panel sugirió que un tratado contra la proliferación también puede ser más realista que una prohibición absoluta.

Según Reuters:

Su vicepresidente, Robert Work, ex subsecretario de Defensa, dijo que se espera que las armas autónomas cometan menos errores que los humanos en la batalla, lo que lleva a una reducción de bajas o escaramuzas causadas por la identificación errónea de objetivos.

“Es un imperativo moral al menos perseguir esta hipótesis”, dijo.

Lo único que el panel descartó por completo es la posibilidad de que AI participe en la decisión de si lanzar o no un arma nuclear (lo que obviamente podría marcar el comienzo de un apocalipsis).

Las recomendaciones del panel incluyen la integración de la inteligencia artificial en la recopilación de inteligencia, la inversión de $ 32 mil millones en dinero federal en la investigación de la inteligencia artificial y la creación de una unidad especial centrada en problemas digitales similar al cuerpo médico del ejército, según Reuters. Sus recomendaciones no son vinculantes y el Congreso no tiene la obligación de actuar sobre ellas cuando se presente el informe del panel en marzo.

Los ejércitos nacionales han avanzado en la construcción de armamento autónomo, independientemente de la presión internacional para no hacerlo. En noviembre de 2020, El jefe de defensa del Reino Unido, el general Nick Carter, calcula que sus fuerzas armadas podrían tener hasta 30,000 robots trabajando junto con 90,000 soldados para el año 2030, aunque Carter especificó que los humanos mantendrán el control de las decisiones finales para que los robots abran fuego.

El ejército estadounidense ha estado probando tanques autónomos, pero también se le asegura al público que cumplir con los “estándares éticos” ese exigir operadores carnosos ser capaz de “ejercer los niveles adecuados de juicio humano sobre el uso de la fuerza”. En Febrero de 2020, el Departamento de Defensa publicó principios rectores para los sistemas autónomos que había desarrollado en conjunto con los “principales expertos en IA”, incluido que el personal “ejerce los niveles adecuados de juicio y cuidado” mientras desarrolla y despliega sistemas de IA, intenta evitar sesgos no deseados en los sistemas de IA, ser transparente en la forma en que se desarrollan los sistemas y garantizar que los sistemas autónomos sean fiables y gobernables. El ejército de EE. UU. Ha sido particularmente cauteloso a la hora de quedarse atrás en cualquier posible carrera armamentista en armamento autónomo, que dice que se está persiguiendo. por Rusia y China.

El “enfoque en la necesidad de competir con inversiones similares hechas por China y Rusia … sólo sirve para alentar las carreras armamentistas”, dijo a Reuters Mary Wareham de la Campaña para Detener el Robot Asesino.

.

Leave a Reply

Your email address will not be published. Required fields are marked *