Una guía temprana para la formulación de políticas sobre IA generativa

Una guía temprana para la formulación de políticas sobre IA generativa

Quería saber si tenía alguna sugerencia y me preguntó qué pensaba que significaban todos los nuevos avances para los legisladores. Pasé algunos días pensando, leyendo y conversando con los expertos sobre esto, y mi respuesta se transformó en este boletín. ¡Así que aquí va!

Aunque GPT-4 es el abanderado, es solo uno de los muchos lanzamientos de inteligencia artificial generativa de alto perfil en los últimos meses: Google, nvidia, Adobe, y Baidu han anunciado sus propios proyectos. En resumen, la IA generativa es de lo que todo el mundo habla. Y aunque la tecnología no es nueva, sus implicaciones políticas están a meses, si no años, de ser entendidas.

GPT-4, lanzado por OpenAI la semana pasada, es un modelo de lenguaje grande multimodal que utiliza el aprendizaje profundo para predecir palabras en una oración. Genera texto notablemente fluido y puede responder tanto a imágenes como a indicaciones basadas en palabras. Para los clientes que pagan, GPT-4 ahora impulsará ChatGPT, que ya se incorporó a las aplicaciones comerciales.

La iteración más reciente ha causado un gran revuelo, y Bill Gates la llamó “revolucionaria” en una carta esta semana. Sin embargo, OpenAI también ha sido criticado por la falta de transparencia sobre cómo se entrenó y evaluó el sesgo del modelo.

A pesar de toda la emoción, la IA generativa conlleva riesgos significativos. Los modelos están entrenados en el depósito tóxico que es Internet, lo que significa que a menudo producen resultados racistas y sexistas. También inventan cosas con regularidad y las expresan con confianza convincente. Eso podría ser una pesadilla desde el punto de vista de la desinformación y podría hacer que las estafas sean más persuasivas y prolíficas.

Las herramientas de IA generativa también son amenazas potenciales para la seguridad y la privacidad de las personas, y tienen poco respeto por las leyes de derechos de autor. Las empresas que utilizan IA generativa que tiene robado el trabajo de otros

ya están siendo demandados.

Alex Engler, becario en estudios de gobernabilidad en la Institución Brookings, ha considerado cómo los formuladores de políticas deberían estar pensando en thes y ve dos tipos principales de riesgos: daños por uso malicioso y daños por uso comercial. Los usos maliciosos de la tecnología, como la desinformación, el discurso de odio automatizado y la estafa, “tienen mucho en común con la moderación de contenido”, dijo Engler en un correo electrónico que me envió, “y la mejor manera de abordar estos riesgos es probablemente la gobernanza de la plataforma”. (Si quieres saber más sobre esto, te recomiendo que escuches el de esta semana). Programa dominical de Tech Policy Press, donde Justin Hendrix, editor y conferencista sobre tecnología, medios y democracia, habla con un panel de expertos sobre si los sistemas de inteligencia artificial generativa deben regularse de manera similar a los algoritmos de búsqueda y recomendación. Pista: Sección 230.)

Las discusiones de política sobre la IA generativa se han centrado hasta ahora en esa segunda categoría: los riesgos del uso comercial de la tecnología, como la codificación o la publicidad. Hasta ahora, el gobierno de EE. UU. ha tomado medidas pequeñas pero notables, principalmente a través de la Comisión Federal de Comercio (FTC). La FTC emitió una declaración de advertencia a las empresas el mes pasado instándolas a no hacer afirmaciones sobre las capacidades técnicas que no pueden corroborar, como exagerar lo que la IA puede hacer. Esta semana, en su blog de negocios, usó un lenguaje aún más fuerte sobre los riesgos que las empresas deben considerar al usar IA generativa.

Leave a Reply

Your email address will not be published. Required fields are marked *