Cómo pretende Singapur contrarrestar las amenazas planteadas por la IA generativa

Cómo pretende Singapur contrarrestar las amenazas planteadas por la IA generativa

A medida que la tecnología de IA generativa continúa ampliando los límites de la creación de contenido, desde texto hasta imágenes, desde video hasta música, la necesidad de regulación se vuelve más clara cada día.

Por ejemplo, hacer deepfakes se ha vuelto sorprendentemente fácil con aplicaciones como Reface y FaceApp. Los estudios de inteligencia artificial como Deep Voodoo han demostrado cuán convincentes pueden ser estos videos, y hay pocos indicios que sugieran que el contenido no es realmente real.

En las manos equivocadas, estos medios pueden ser una fuente grave de desinformación. Se puede usar la imagen de casi cualquier persona para recitar guiones y difundir mensajes en contra de su voluntad. Los estafadores ya comenzaron a usar deepfakes para convencer a las víctimas de que sus amigos y familiares necesitan dinero.

En Singapur, la Autoridad de Desarrollo de Medios de Infocomm (IMDA) ha publicado un documento de debate que detalla los riesgos de la tecnología de IA generativa y un marco potencial para abordar estas amenazas. He aquí un vistazo a los puntos clave identificados en el documento:

Los riesgos de la tecnología de IA generativa

Los errores de herramientas de IA como Bard y ChatGPT están ampliamente documentados en las redes sociales. Los modelos generativos son tan precisos como los datos con los que se entrenan y, como tales, pueden engañar a los usuarios de vez en cuando.

Actualmente, estos modelos no pueden transmitir incertidumbre y pueden parecer demasiado confiados cuando las respuestas son incorrectas. Todos los programas basados ​​en estos modelos también repetirán los mismos errores hasta que se corrija el modelo.

Además de las inexactitudes fácticas, los modelos de lenguaje también son propensos al sesgo. Por ejemplo, dadas las indicaciones “un médico” y “una enfermera”, el generador de imágenes Stable Diffusion generó imágenes de hombres para el primero y de mujeres para el segundo.

Sin corrección, los modelos de IA podrían perpetuar los estereotipos y sesgos observados en los datos con los que se entrenan.

Sesgo de estereotipo de IA
Imágenes generadas por avisos de IA / Crédito: Documento de debate sobre IA generativa de IMDA

Del mismo modo, las herramientas de IA también deben reflejar un conjunto de valores similares a los de los humanos. De lo contrario, a medida que avanza la tecnología, también aumenta el riesgo de que la IA haga más daño que bien.

A continuación, se deben abordar las preocupaciones de privacidad y confidencialidad. “Existe un riesgo de privacidad cuando los modelos ‘recuerdan’ por completo un conjunto particular de datos y lo replican cuando se les consulta”, afirma el documento de discusión de IMDA.

Supongamos que una empresa utiliza una herramienta de inteligencia artificial para realizar cálculos financieros, ingresando datos confidenciales, como los ingresos generados y los bienes vendidos. La herramienta de IA podría entonces almacenar esos datos y compartir la información financiera de la empresa con usuarios externos que la soliciten.

Finalmente, el documento de discusión aborda los desafíos involucrados en el entrenamiento de AI en material protegido por derechos de autor. Para proteger a los autores, es necesario definir qué es el juego limpio.

Por ejemplo, podría estar bien que la IA cree una sinopsis de un libro, pero ¿qué pasa si los usuarios solicitan el contenido de páginas específicas? Las mismas preguntas surgen cuando se trata de recrear el estilo de un artista o la voz de un cantante.

Un marco para la gobernanza generativa de la IA

Para fomentar un ecosistema de IA confiable, el documento de discusión de IMDA describe una serie de dimensiones que los formuladores de políticas deben considerar. En primer lugar, existe la necesidad de responsabilidad entre quienes desarrollan modelos de lenguaje de IA.

Los usuarios finales, así como las empresas que se basan en estos modelos, deben conocer las elecciones de diseño realizadas por los desarrolladores de IA. Por ejemplo, debe haber transparencia sobre qué tipo de información se utilizó para entrenar un modelo de lenguaje. Esto puede ayudar a los usuarios a evaluar los riesgos y los sesgos que podría asumir un modelo.

Los formuladores de políticas pueden poner esto en práctica al hacer cumplir métricas estandarizadas, un conjunto de criterios contra los cuales se pueden monitorear y evaluar los modelos lingüísticos. El documento aboga por la evaluación de terceros, que puede proporcionar evaluaciones objetivas de las herramientas de IA.

Además, los usuarios deben poder identificar el contenido de IA. En el pasado, las imágenes generadas por IA, como la del Papa Francisco con una chaqueta de plumas, se volvieron virales y causaron confusión en cuanto a su legitimidad. Estos pueden ser una fuente importante de información errónea y deben abordarse a través de regulaciones.

Papa con chaqueta acolchada
Una imagen viral generada por IA del Papa Francisco con una chaqueta acolchada.

El documento recomienda la aplicación de marcas de agua en el contenido generado por IA para que los consumidores puedan tomar decisiones más informadas.

Finalmente, dado el rápido ritmo del desarrollo de la IA, la investigación en seguridad también debe ponerse al día. Los formuladores de políticas deberían invertir en tecnologías que se están desarrollando para mantener los sistemas de IA bajo control y garantizar que no causen daños.

También existe la necesidad de programas educativos que eduquen a los consumidores sobre cómo usar la IA de manera responsable y alinear la innovación con el bien común.

IMDA comienza Fundación de verificación de IA

Para dar un paso hacia un futuro más seguro impulsado por la IA, IMDA estableció la Fundación AI Verify en junio.

La fundación incluye a los principales actores de la industria, incluidos Google, IBM y Microsoft, que supervisan el desarrollo de la herramienta de prueba AI Verify, que ayudará a garantizar el uso responsable de esta tecnología.

AI Verify utiliza pruebas estandarizadas para medir el rendimiento de los sistemas de IA de acuerdo con un conjunto de principios reconocidos internacionalmente, incluidos aspectos como la seguridad, la transparencia y la equidad.

Dado que la herramienta necesita un desarrollo constante, IMDA la ha puesto a disposición de la comunidad de código abierto. A través de la Fundación AI Verify, IMDA tiene como objetivo aprovechar las contribuciones de la comunidad global y desarrollar aún más AI Verify para uso futuro.

Fuente de la imagen seleccionada: Brookings Institution

Lea también: Cómo esta startup de S’pore AI está transformando el sector del marketing al automatizar la creación de contenido

Leave a Reply

Your email address will not be published. Required fields are marked *