Cuatro lecciones de 2023 que nos dicen hacia dónde se dirige la regulación de la IA

Cuatro lecciones de 2023 que nos dicen hacia dónde se dirige la regulación de la IA

En términos más generales, es probable que veamos que las estrategias que surgieron el año pasado continúen, se amplíen y comiencen a implementarse. Por ejemplo, tras la orden ejecutiva del presidente Biden, varias agencias gubernamentales de EE. UU. pueden delinear nuevas mejores prácticas pero empoderar a las empresas de IA para que se controlen a sí mismas. Y al otro lado del charco, las empresas y los reguladores comenzarán a lidiar con la Ley de IA de Europa y su enfoque basado en el riesgo. Ciertamente no será fácil y seguramente habrá mucha discusión sobre cómo funcionan realmente en la práctica estas nuevas leyes y políticas.

Mientras escribía este artículo, me tomé un tiempo para reflexionar sobre cómo llegamos hasta aquí. Creo que las historias sobre el auge de las tecnologías merecen un examen reflexivo: pueden ayudarnos a comprender mejor lo que podría suceder a continuación. Y como reportero, he visto patrones que surgen en estas historias a lo largo del tiempo, ya sea con blockchain, redes sociales, autos sin conductor o cualquier otra innovación de rápido desarrollo que cambia el mundo. La tecnología suele avanzar mucho más rápido que la regulación, y los legisladores se enfrentan cada vez más al desafío de mantenerse al día con la tecnología misma mientras idean nuevas formas de elaborar leyes sostenibles y preparadas para el futuro.

Al pensar específicamente en Estados Unidos, no estoy seguro de que lo que estamos experimentando hasta ahora no tenga precedentes, aunque ciertamente la velocidad con la que la IA generativa se ha introducido en nuestras vidas ha sido sorprendente. El año pasado, la política de IA estuvo marcada por los movimientos de poder de las grandes tecnologías, la mejora de las habilidades del Congreso y el bipartidismo (¡al menos en este espacio!), la competencia geopolítica y el rápido despliegue de tecnologías incipientes sobre la marcha.

Entonces ¿Que aprendimos? ¿Y qué hay a la vuelta de la esquina? Hay mucho que tratar de mantener al tanto en términos de políticas, pero he dividido lo que necesita saber en cuatro conclusiones.

1. Estados Unidos no planea apretarle los tornillos a las Big Tech. Pero los legisladores hacer planea involucrar a la industria de la IA.

El director ejecutivo de OpenAI, Sam Altman, comenzó su gira por el Congreso en mayo pasado, seis meses después del espectacular lanzamiento de ChatGPT. Se reunió con legisladores en cenas privadas y testificó sobre la amenazas existenciales que su propia tecnología podría plantear a la humanidad. En muchos sentidos, esto marcó la pauta de cómo hemos estado hablando de IA en los EE. UU., y fue seguido por El discurso de Biden sobre la IA, foros de información sobre IA del Congreso para ayudar a los legisladores a ponerse al día y el lanzamiento de modelos de lenguaje más amplios. (En particular, la lista de invitados a estos foros sobre conocimientos de IA estaba muy inclinada hacia la industria).

A medida que los legisladores estadounidenses comenzaron a abordar realmente la IA, se convirtió en un área poco común (aunque pequeña) de bipartidismo en el Capitolio, y los legisladores de ambos partidos pidieron más barreras en torno a la tecnología. Al mismo tiempo, aumentó la actividad a nivel estatal y en los tribunales, principalmente en torno a protecciones para los usuarios, como la verificación de la edad y moderación de contenido.

Como escribí en el artículo: “A través de esta actividad, comenzó a surgir una versión estadounidense de la política de IA: una que es amigable con la industria de la IA, con énfasis en las mejores prácticas, una dependencia de diferentes agencias para elaborar sus propias reglas y una enfoque matizado de regular cada sector de la economía de manera diferente”. La culminación de todo esto fue la orden ejecutiva de Biden a finales de octubre, que esbozaba un enfoque distribuido de la política de IA, en el que diferentes agencias elaboran sus propias reglas. Dependerá (tal vez como era de esperar) en gran medida de aceptación de empresas de IA.

Leave a Reply

Your email address will not be published. Required fields are marked *