¿Cómo abordan S’pore y otros países la regulación de la IA?

¿Cómo abordan S’pore y otros países la regulación de la IA?

Hasta la fecha, no se han instalado teléfonos ni televisores en las habitaciones de huéspedes en Asilomar State Beach and Conference Grounds. La conexión WiFi también ha estado disponible recientemente. Esto está diseñado para preservar el encanto rústico de la propiedad de casi 70 acres con 30 edificios históricos, ubicada cerca de la pintoresca costa de Pacific Grove en el suroeste de California.

En contraste con su encanto atemporal, Asilomar fue testigo de una notable convergencia de algunos de los intelectuales más progresistas del mundo en 2017. Más de 100 científicos de los campos del derecho, la economía, la ética y la filosofía han compilado y formulado algunos principios relacionados con la inteligencia artificial (IA).

Conocido como los 23 Principios de IA de Asilomar, se considera uno de los marcos más antiguos y de mayor importancia para la gobernanza de IA hasta la fecha.

el contexto

Si bien la campana de Asilomar no suena, ciertamente no se ha perdido la carta abierta firmada por miles de expertos en IA, incluido el CEO de SpaceX, Elon Musk, que pide una pausa de seis meses en el entrenamiento de sistemas de IA que superen el rendimiento de GPT. 4.

La carta abierta pide una congelación de seis meses en la investigación de IA
La carta abierta firmada por 1100 expertos en IA / Crédito de la foto: Future of Life Institute

La carta comenzaba con uno de los principios de Asilomar: “La IA avanzada podría significar un cambio profundo en la historia de la vida en la Tierra y debería planificarse y gestionarse con el debido cuidado y recursos.”

Muchos sospecharon que el origen de esta noticia fue la aparición del chatbot generativo de IA ChatGPT-4, que había conquistado el panorama digital. Desde su lanzamiento en noviembre pasado, el chatbot había desatado una frenética carrera armamentista entre los gigantes tecnológicos para presentar herramientas similares.

Pero detrás de la búsqueda incesante se encuentran algunas preocupaciones éticas y sociales profundas sobre las tecnologías que pueden producir creaciones que imitan inquietantemente el trabajo de los humanos con facilidad.

Hasta el momento de esta carta abierta, muchos países estaban adoptando un enfoque de laissez-faire para el desarrollo comercial de IA.

Un día después de la publicación de esta carta, Italia se convirtió en el primer país occidental en prohibir el uso del chatbot de IA generativo ChatGPT de OpenAI por temor a violaciones de la privacidad. Sin embargo, la prohibición finalmente se levantó el 28 de abril, ya que OpenAI cumplió con las demandas del regulador.

reacciones del mundo

Joe Biden Ai
El presidente de EE. UU., Joe Biden, se reúne con su Consejo Asesor de Ciencia y Tecnología en la Casa Blanca en Washington, EE. UU. / Crédito: Reuters

Esa misma semana, el presidente de EE. UU., Joe Biden, se reunió con su consejo de asesores en ciencia y tecnología para discutir los “riesgos y oportunidades” de la IA. Instó a las empresas de tecnología a garantizar la mayor seguridad posible de sus creaciones antes de lanzar las al público interesado.

Un mes después, el 4 de mayo, la administración Biden-Harris anunció una serie de medidas diseñadas para fomentar la innovación responsable en IA que proteja los derechos y la seguridad de los estadounidenses. Estas acciones incluyeron un borrador de orientación política sobre el desarrollo, la adquisición y el uso de sistemas de IA.

El mismo día, el gobierno del Reino Unido dijo que comenzaría una investigación exhaustiva sobre el impacto de la IA en los consumidores, las empresas y la economía y si se necesitaban nuevos controles.

El 11 de mayo, legisladores clave de la UE llegaron a un consenso sobre la necesidad urgente de regulaciones más estrictas relacionadas con la IA generativa. También abogaron por la prohibición de la vigilancia facial ubicua y votarán sobre el proyecto de ley de IA de la UE más adelante en junio.

En China, las autoridades reguladoras ya habían anunciado proyectos de medidas para hacer cumplir la gestión de los servicios de IA generativa en abril. El gobierno chino exigió a las empresas que proporcionaran evaluaciones de seguridad integrales antes de ofrecer sus productos al público. Aún así, la agencia quiere proporcionar un entorno de apoyo que ha llevado a las empresas líderes a desarrollar modelos de IA capaces de desafiar a ChatGPT-4.

En general, la mayoría de los países buscan regulaciones de insumos o de planificación. Sin embargo, dado que los límites de lo que es posible cambian constantemente, ningún experto puede predecir con certeza los procesos y las consecuencias exactos que implicaría la IA generativa.

De hecho, es la falta de precisión y preparación lo que plantea desafíos para la regulación y la gobernanza de la IA.

¿Qué pasa con Singapur?

El año pasado, la Autoridad de Desarrollo de Medios de Info-Comunicaciones (IMDA) y la Comisión de Protección de Datos Personales (PDPC) introdujeron AI Verify, un marco de prueba de gobernanza de IA y un conjunto de herramientas que alienta a la industria a adoptar un nuevo enfoque para lograr transparencia en el uso de la IA.

AI Verify fue lanzado por IMDA en mayo pasado
AI Verify, un conjunto de herramientas y marco de prueba de gobernanza de IA, lanzado en Singapur en mayo pasado / Crédito de la foto: IMDA

AI Verify se presenta en forma de producto mínimo viable (MVP) y permite a las empresas demostrar las capacidades de sus sistemas de IA mientras toman medidas sólidas de mitigación de riesgos.

Con una invitación abierta a empresas de todo el mundo para participar en el piloto internacional, Singapur espera fortalecer el marco existente al incorporar información valiosa desde diferentes perspectivas y contribuir activamente a establecer estándares internacionales.

A diferencia de otros países, Singapur reconoce la confianza como la base para el surgimiento de la IA. Una forma de aumentar la confianza es comunicarse con todas las partes interesadas, desde los reguladores, las empresas hasta los auditores, los consumidores y el público en general, con la mayor claridad y eficacia posibles sobre las múltiples dimensiones de las aplicaciones de IA.

Singapur reconoce que las diferencias culturales y geográficas pueden afectar la interpretación y la implementación de los principios éticos universales de la IA, lo que da como resultado un marco de gobernanza de la IA fragmentado.

Por lo tanto, en esta fase de desarrollo, se considera óptimo construir una IA confiable y un marco para determinar la confiabilidad de la IA.

¿Por qué necesitamos regular la IA?

Una cacofonía de voces como las de Elon Musk, Bill Gates e incluso Stephen Hawking articulan una creencia compartida: si no adoptamos un enfoque proactivo de la coexistencia entre humanos y máquinas, podemos sembrar sin darnos cuenta las semillas de nuestra propia destrucción.

Nuestra sociedad ya se ha visto gravemente afectada por una explosión de algoritmos que distorsionan la opinión, aumentan la desigualdad o desencadenan un colapso monetario repentino. A medida que la IA madura rápidamente y los reguladores luchan por mantenerse al día, podemos correr el riesgo de pasar por alto las reglas relevantes para la toma de decisiones, dejándonos vulnerables.

Como resultado, algunos expertos se negaron a firmar la carta abierta, creyendo que socava la verdadera escala de la situación y pidiendo muy poco por el cambio. Su lógica es que la IA suficientemente “inteligente” no permanecerá confinada a los sistemas informáticos por mucho tiempo.

La versión web de chatgpt
Crédito de la foto: Menta

Con la intención de OpenAI de crear un sistema de IA que sea consistente con los valores e intenciones humanos, es solo cuestión de tiempo antes de que la IA sea “consciente”: un poderoso sistema cognitivo capaz de tomar decisiones independientes que no son diferentes de las de una persona normal

Hasta entonces, dejará obsoleto cualquier marco regulatorio conjurado sobre la base de los sistemas de IA actuales.

Por supuesto, incluso si mantenemos estos puntos de vista especulativos que recuerdan a las historias de ciencia ficción, otros expertos se preguntan si el campo de la IA aún está en pañales, a pesar de su notable auge.

Advirtieron que imponer regulaciones estrictas podría sofocar la misma innovación que nos impulsa hacia adelante. En cambio, se debe buscar una mejor comprensión del potencial de la IA antes de considerar la regulación.

Además, la IA impregna muchos dominios, cada uno con matices y consideraciones únicos, por lo que no tiene sentido tener solo un marco de gobierno general.

¿Cómo debemos regular la IA?

El rompecabezas que rodea a la IA es intrínsecamente único. A diferencia de los sistemas de ingeniería tradicionales, donde los diseñadores pueden predecir características y resultados de manera confiable, la IA opera en un área de incertidumbre.

Esta distinción fundamental exige un nuevo enfoque de los marcos regulatorios que aborde las complejidades de las fallas de la IA y su propensión a traspasar los límites previstos. En consecuencia, la atención siempre ha estado en controlar las aplicaciones de la tecnología.

En este punto, la idea de ejercer un control más estricto sobre el uso de la IA generativa puede parecer confusa a medida que su integración en nuestra vida diaria se vuelve más omnipresente. Esto centra la mirada colectiva en el concepto vital de la transparencia.

Los expertos quieren desarrollar estándares sobre cómo se debe crear, probar e implementar la IA para que pueda estar sujeta a un mayor escrutinio externo y se fomente un entorno de responsabilidad y confianza. Otros están considerando limitar el uso de las versiones más potentes de IA.

CEO de OpenAI
El CEO de OpenAI, Sam Altman, testificó ante el Congreso el 16 de mayo / Crédito: The Wrap

Al testificar ante el Congreso el 16 de mayo, Sam Altman, director ejecutivo de OpenAI, propuso un sistema de licencias para garantizar que los modelos de IA cumplan con rigurosos estándares de seguridad y se sometan a un escrutinio exhaustivo.

Sin embargo, esto podría dejar solo a un puñado de empresas con los recursos y las habilidades para navegar de manera efectiva el complejo panorama regulatorio y dictar cómo se debe usar la IA.

La personalidad de la tecnología y los negocios, Bernard Marr, enfatizó la importancia de no convertir la IA en un arma. Además, destacó la necesidad urgente de un “interruptor de apagado”, un mecanismo a prueba de fallas que permita la intervención humana dada la idiosincrasia de la IA.

Igualmente importante es la aceptación unánime por parte de los fabricantes de las pautas éticas exigidas internacionalmente, que sirven como brújula moral para sus creaciones.

Por muy tentadoras que puedan parecer estas soluciones, la pregunta de quién tiene el poder de implementarlas y asignar la responsabilidad por los contratiempos que involucran a la IA o a los humanos sigue sin respuesta.

En medio de soluciones tentadoras y perspectivas contradictorias, queda un hecho innegable: el futuro de la regulación de la IA se encuentra en un momento crítico, esperando que las personas tomen medidas decisivas, al igual que esperamos ansiosamente cómo nos moldeará la IA.

Fuente de imagen seleccionada: IEEE

Leave a Reply

Your email address will not be published. Required fields are marked *