Cómo los reguladores globales equilibran la innovación y la seguridad para la IA

Cómo los reguladores globales equilibran la innovación y la seguridad para la IA

La tecnología de inteligencia artificial (IA) ha estado a la vanguardia de la innovación en la década de 2020. El software generativo como ChatGPT y Midjourney supera los límites creativos, para bien o para mal.

Por un lado, estas herramientas ofrecen un gran potencial en áreas como la redacción, el diseño gráfico y la investigación. Por otro lado, también pueden ser la causa de una serie de problemas, desde difundir información errónea hasta invadir la privacidad de los usuarios.

A medida que esta tecnología se vuelve más frecuente, existe una necesidad urgente de definir los límites dentro de los cuales se permite operar a las herramientas de IA. Aquí hay un vistazo a las diferentes formas en que los reguladores globales están lidiando con el rápido ritmo de la innovación y estableciendo barreras protectoras.

preocupaciones sobre la privacidad

Los sistemas de IA se basan en datos para optimizar su rendimiento. Por ejemplo, OpenAI, los creadores de ChatGPT, entrena sus herramientas de IA con una variedad de información que se encuentra en línea. Esto puede incluir datos personales obtenidos sin el consentimiento de las personas. ChatGPT también almacena todas sus indicaciones y estos datos se pueden usar para capacitación adicional.

Con más de 100 millones de personas que utilizan la plataforma, OpenAI tiene la enorme responsabilidad de proteger los datos. El mes pasado, la empresa se estancó y un error permitió a los usuarios ver el historial de chat de otras personas en ChatGPT. Si no se controlan, tales fallas pueden tener consecuencias preocupantes.

Es lógico que estas herramientas de IA no estén abiertas al público hasta que las pruebas exhaustivas puedan garantizar que todos los datos de usuario recopilados estén en buenas manos.

Los usuarios encuentran constantemente formas de eludir los filtros de contenido de ChatGPT. OpenAI ahora ofrece recompensas de hasta $ 20,000 para aquellos que encuentren fallas

Después de la violación de datos antes mencionada, Italia se convirtió en el primer país europeo en prohibir ChatGPT. La autoridad italiana de protección de datos citó preocupaciones sobre la recopilación de datos personales y la falta de verificación de edad, lo que puede permitir que los menores accedan a contenido inapropiado.

Otros países europeos, todos los cuales cumplen con el Reglamento General de Protección de Datos (GDPR), que brinda a los usuarios más control sobre su información personal, podrían seguir su ejemplo. Según los informes, las autoridades de Alemania e Irlanda están en conversaciones con Italia sobre su decisión de prohibir ChatGPT.

En los EE. UU., los reguladores están considerando nuevas reglas para el software de inteligencia artificial generativa. El departamento de comercio del país quiere establecer pautas que respalden las auditorías y las evaluaciones de riesgos que se pueden usar para evaluar si se puede confiar en un sistema de IA.

China también ha dado los primeros pasos, exigiendo que el software de inteligencia artificial generativa pase una evaluación de seguridad del gobierno antes de ser lanzado al público.

Cree una IA ética

A medida que los sistemas de IA se acercan a la inteligencia humana, ya no pueden ser completamente objetivos. Al describir imágenes o escribir material creativo, se ven obligados a revelar sus prejuicios. Estos resultan de los datos sobre los que se entrena la IA.

En el pasado, se descubrió que ChatGPT hacía comentarios despectivos cuando se le pedía que contara chistes sobre ciertos temas. OpenAI ha trabajado para corregir tales casos, dando forma así a la brújula moral de su software.

En Singapur, la Comisión de Protección de Datos Personales (PDPC) y la Autoridad de Desarrollo de Medios de Infocomm (IMDA) han desarrollado una herramienta que prueba la imparcialidad de las herramientas de IA de acuerdo con los principios éticos de IA reconocidos internacionalmente. Actualmente, el uso es voluntario y se alienta a las empresas a ser más transparentes sobre sus implementaciones de IA.

El Reino Unido también está invirtiendo millones de dólares en el desarrollo de aplicaciones éticas de IA, particularmente en el sector financiero.

Problema con el carro que conduce un automóvil autónomo
Este ejemplo de un automóvil autónomo ilustra el tipo de decisiones éticas que la IA necesita ser entrenada para tomar / Crédito de la foto: LiveInnovation

A fines de 2022, la Casa Blanca publicó un borrador para una Declaración de Derechos de AI en los EE. UU. Uno de los cinco puntos clave es la protección contra la discriminación algorítmica.

Establece que los diseñadores y desarrolladores deben tomar medidas para garantizar que sus sistemas de inteligencia artificial no discriminen a los humanos en función de atributos como la raza, el origen étnico o el género. Tal como está, este plan no se puede hacer cumplir legalmente, pero podría ser una señal de políticas futuras.

La Comisión Europea está trabajando en el primer marco legal para la IA que clasifica los sistemas en función de su nivel de riesgo. Tal como está, el proyecto de ley de IA sometería las herramientas de IA generativa a un conjunto de medidas que se consideren apropiadas para los sistemas de “alto riesgo”.

ralentizar la innovación

Si bien la necesidad de una regulación de la IA es obvia, la forma en que se hace podría obstaculizar el proceso de innovación.

Por ejemplo, designar herramientas de IA generativa como de “alto riesgo” podría resultar en costosas medidas de cumplimiento. Como resultado, es posible que ya no puedan ofrecer sus servicios de forma gratuita. Las tarifas reducirían la base de usuarios y esto podría reducir los datos disponibles para entrenar la IA.

De hecho, las regulaciones afectarían negativamente la velocidad a la que tales herramientas de IA pueden aprender y evolucionar.

Sin embargo, un crecimiento más lento no es necesariamente una desventaja. Les daría a las empresas más tiempo para garantizar que sus herramientas sean seguras de usar y que los datos de los usuarios estén seguros. Habría más oportunidades de solucionar los errores antes de que se logre la adopción masiva, momento en el que los errores más pequeños en el código podrían tener efectos devastadores.

Como suele ser el caso, depende de los reguladores globales encontrar el equilibrio adecuado entre innovación y seguridad.

Crédito para imágenes seleccionadas: Analytics Insight

Leave a Reply

Your email address will not be published. Required fields are marked *