Trate a ChatGPT y la IA como armas biológicas, no como bombas nucleares

Los humanos de hoy están desarrollando quizás la tecnología más poderosa de nuestra historia: la inteligencia artificial. Los daños sociales de la IA, incluida la discriminación, las amenazas a la democracia y la concentración de influencia, ya están bien documentados. Sin embargo, las principales empresas de IA están en una carrera armamentista para construir sistemas de IA cada vez más potentes que aumentarán estos riesgos a un ritmo que no hemos visto en la historia humana.

Mientras nuestros líderes lidian con cómo contener y controlar el desarrollo de la IA y los riesgos asociados, deben considerar cómo las regulaciones y los estándares han permitido a la humanidad capitalizar las innovaciones en el pasado. La regulación y la innovación pueden coexistir y, especialmente cuando hay vidas humanas en juego, es imperativo que así sea.

La tecnología nuclear proporciona una historia de advertencia. Aunque la energía nuclear es más de 600 veces más seguro que el petróleo en términos de mortalidad humana

y capaz de una enorme producción, pocos países lo tocarán porque el público conoció primero al miembro equivocado de la familia.

Fuimos introducidos a la tecnología nuclear en forma de bombas atómicas y de hidrógeno. Estas armas, que representan la primera vez en la historia de la humanidad que el hombre desarrolló una tecnología capaz de acabar con la civilización humana, fueron producto de una carrera armamentista que priorizó la velocidad y la innovación sobre la seguridad y el control. Los fracasos posteriores de la ingeniería de seguridad adecuada y la gestión de riesgos, que condujeron a los desastres nucleares de Chernobyl y Fukushima, destruyeron cualquier posibilidad de aceptación generalizada de la energía nuclear.

A pesar de que la evaluación general del riesgo de la energía nuclear sigue siendo muy favorable y de las décadas de esfuerzo para convencer al mundo de su viabilidad, la palabra ‘nuclear’ sigue estando contaminada. Cuando una tecnología causa daño en sus fases iniciales, la percepción social y la sobrerreacción regulatoria pueden reducir permanentemente el beneficio potencial de esa tecnología. Debido a un puñado de errores iniciales con la energía nuclear, no hemos podido capitalizar su energía limpia y segura, y la neutralidad del carbono y la estabilidad energética siguen siendo una quimera.

Pero en algunas industrias, lo hemos hecho bien. La biotecnología es un campo incentivado para moverse rápidamente: los pacientes sufren y mueren todos los días por enfermedades que carecen de curas o tratamientos. Sin embargo, el espíritu de esta investigación no es “moverse rápido y romper cosas”, sino innovar lo más rápido y seguro posible. El límite de velocidad de la innovación en este campo está determinado por un sistema de prohibiciones, regulaciones, ética y normas que aseguran el bienestar de la sociedad y de los individuos. También protege a la industria de quedar paralizada por una reacción violenta a una catástrofe.

Al prohibir las armas biológicas en la Convención de Armas Biológicas durante la Guerra Fría, las superpotencias opuestas pudieron unirse y acordar que la creación de estas armas no era lo mejor para nadie. Los líderes vieron que estas tecnologías incontrolables, pero altamente accesibles, no deben ser tratadas como un mecanismo para ganar una carrera armamentista, sino como una amenaza para la humanidad misma.

Esta pausa en la carrera armamentista de las armas biológicas permitió que la investigación se desarrollara a un ritmo responsable, y los científicos y los reguladores pudieron implementar estándares estrictos para cualquier innovación nueva capaz de causar daño humano. Estas regulaciones no se han producido a expensas de la innovación. Por el contrario, la comunidad científica ha establecido una bioeconomía, con aplicaciones que van desde la energía limpia hasta la agricultura. Durante la pandemia de COVID-19, los biólogos convirtieron un nuevo tipo de tecnología, el ARNm, en una vacuna segura y eficaz a un ritmo sin precedentes en la historia de la humanidad. Cuando están en juego daños significativos para las personas y la sociedad, la regulación no impide el progreso; lo habilita.

Una encuesta reciente de investigadores de IA reveló que El 36 por ciento cree que la IA podría causar una catástrofe a nivel nuclear. A pesar de esto, la respuesta del gobierno y el movimiento hacia la regulación ha sido lento en el mejor de los casos. Este ritmo no es rival para el aumento en la adopción de tecnología, con ChatGPT que ahora supera los 100 millones de usuarios.

Este panorama de riesgos de IA en rápida escalada condujo 1800 directores ejecutivos y 1500 profesores firmaron recientemente una carta pidiendo una pausa de seis meses en desarrollar una IA aún más poderosa y embarcarse urgentemente en el proceso de regulación y mitigación de riesgos. Esta pausa le daría tiempo a la comunidad mundial para reducir los daños ya causados ​​por la IA y evitar impactos potencialmente catastróficos e irreversibles en nuestra sociedad.

A medida que trabajamos hacia una evaluación de riesgos de los daños potenciales de la IA, la pérdida de potencial positivo debe incluirse en el cálculo. Si tomamos medidas ahora para desarrollar la IA de manera responsable, podríamos obtener increíbles beneficios de la tecnología.

Por ejemplo, ya hemos visto destellos de la IA que transforma el descubrimiento y el desarrollo de fármacos, mejora la calidad y el costo de la atención médica y aumenta el acceso a médicos y tratamientos médicos. DeepMind de Google ha demostrado que la IA es capaz de resolver problemas fundamentales en biología que durante mucho tiempo habían eludido las mentes humanas. Y la investigación ha demostrado que la IA podría acelerar el logro de cada uno de los Objetivos de Desarrollo Sostenible de la ONUimpulsando a la humanidad hacia un futuro de mejor salud, equidad, prosperidad y paz.

Este es un momento para que la comunidad mundial se una, como lo hicimos hace cincuenta años en la Convención de Armas Biológicas, para garantizar un desarrollo seguro y responsable de la IA. Si no actuamos pronto, es posible que estemos condenando un futuro brillante con la IA y, junto con ella, nuestra propia sociedad actual.

¿Quiere saber más sobre la IA, los chatbots y el futuro del aprendizaje automático? Consulte nuestra cobertura completa de inteligencia artificialo explore nuestras guías para Los mejores generadores de arte de IA gratuitos y Todo lo que sabemos sobre ChatGPT de OpenAI.

Emilia Javorsky, MD, MPH, es médica científica y directora de compromisos de múltiples partes interesadas en el Future of Life Institute, que publicó cartas abiertas recientes advierte que la IA representa un “riesgo de extinción” para la humanidad y abogando por una pausa de seis meses en el desarrollo de IA.

Leave a Reply

Your email address will not be published. Required fields are marked *