¿Cómo sería la regulación de la IA?

¿Cómo sería la regulación de la IA?

Imagen para el artículo titulado ¿Cómo sería la regulación de la IA?

Foto: Gana McNamee (imágenes falsas)

Comida para llevar:

  • Una nueva agencia federal para regular la IA parece útil, pero podría verse indebidamente influenciada por la industria tecnológica. En cambio, el Congreso puede legislar la rendición de cuentas.
  • En lugar de otorgar licencias a las empresas para lanzar tecnologías avanzadas de inteligencia artificial, el gobierno podría otorgar licencias a los auditores y presionar a las empresas para que establezcan juntas de revisión institucional.
  • El gobierno no ha tenido mucho éxito en frenar los monopolios tecnológicos, pero los requisitos de divulgación y las leyes de privacidad de datos podrían ayudar a controlar el poder corporativo.

El CEO de OpenAI, Sam Altman, instó a los legisladores a considerar la regulación de la IA durante su testimonio en el Senado el 16 de mayo de 2023. Esa recomendación plantea la pregunta de qué sigue para el Congreso. Las soluciones que propuso Altman (crear una agencia reguladora de IA y exigir licencias para las empresas) son interesantes. Pero lo que sugirieron los otros expertos en el mismo panel es al menos igual de importante: exigir transparencia en los datos de entrenamiento y establecer marcos claros para los riesgos relacionados con la IA.

Otro punto que no se dijo fue que, dada la economía de construir modelos de IA a gran escala, la industria puede estar presenciando el surgimiento de un nuevo tipo de monopolio tecnológico.

Como investigador que estudia redes sociales e inteligencia artificial

, creo que las sugerencias de Altman han puesto de relieve cuestiones importantes, pero no proporcionan respuestas en sí mismas. La regulación sería útil, pero ¿de qué forma? La concesión de licencias también tiene sentido, pero ¿para quién? Y cualquier esfuerzo por regular la industria de la IA deberá tener en cuenta el poder económico y la influencia política de las empresas.

¿Una agencia para regular la IA?

Los legisladores y formuladores de políticas de todo el mundo ya han comenzado a abordar algunos de los problemas planteados en el testimonio de Altman. El Ley de IA de la Unión Europea se basa en un modelo de riesgo que asigna aplicaciones de IA a tres categorías de riesgo: inaceptable, alto riesgo y bajo o mínimo riesgo. Esta categorización reconoce que las herramientas para calificación social por parte de los gobiernos y herramientas automatizadas para la contratación plantean riesgos diferentes a los del uso de IA en filtros de spam, por ejemplo.

El Instituto Nacional de Estándares y Tecnología de EE. UU. también tiene un Marco de gestión de riesgos de IA que fue creado con entrada extensa de múltiples partes interesadasincluida la Cámara de Comercio de EE. UU. y la Federación de Científicos Estadounidenses, así como otras asociaciones comerciales y profesionales, empresas de tecnología y grupos de expertos.

Agencias federales como la Comisión de Igualdad de Oportunidades en el Empleo

y el Comisión Federal de Comercio ya han emitido directrices sobre algunos de los riesgos inherentes a la IA. La Comisión de Seguridad de Productos para el Consumidor y otras agencias también tienen un papel que desempeñar.

En lugar de crear una nueva agencia que administre la riesgo de verse comprometido por la industria de la tecnología que debe regular, el Congreso puede apoyar la adopción privada y pública de la Marco de gestión de riesgos del NIST y aprobar proyectos de ley como el Ley de responsabilidad algorítmica. Eso tendría el efecto de imponer responsabilidadtanto como la Ley Sarbanes-Oxley y otras regulaciones transformaron los requisitos de informes para las empresas. El Congreso también puede adoptar leyes integrales sobre la privacidad de los datos.

La regulación de la IA debería involucrar la colaboración entre la academia, la industria, los expertos en políticas y las agencias internacionales. Los expertos han comparado este enfoque con organizaciones internacionales como la Organización Europea para la Investigación Nuclear, conocida como CERN, y la Grupo Intergubernamental de Expertos sobre el Cambio Climático. Internet ha sido gestionado por organismos no gubernamentales en los que participan organizaciones sin fines de lucro, la sociedad civil, la industria y los encargados de formular políticas, como el Corporación de Internet para Nombres y Números Asignados y el Asamblea Mundial de Normalización de las Telecomunicaciones. Esos ejemplos proporcionan modelos para la industria y los formuladores de políticas de hoy.

El científico cognitivo y desarrollador de IA Gary Marcus explica la necesidad de regular la IA.

Autorización de auditores, no de empresas

Aunque Altman de OpenAI sugirió que las empresas podrían obtener una licencia para lanzar tecnologías de inteligencia artificial al público, aclaró que estaba refiriéndose a la inteligencia artificial general

, lo que significa futuros sistemas de IA potenciales con inteligencia similar a la humana que podrían representar una amenaza para la humanidad. Eso sería similar a que las empresas obtengan licencias para manejar otras tecnologías potencialmente peligrosas, como la energía nuclear. Pero la concesión de licencias podría desempeñar un papel mucho antes de que se produzca un escenario tan futurista.

Auditoría algorítmica requeriría acreditación, normas de práctica y amplia formación. Requerir responsabilidad no es solo una cuestión de otorgar licencias a las personas, sino que también requiere estándares y prácticas en toda la empresa.

Los expertos en equidad de la IA sostienen que los problemas de sesgo y equidad en la IA no pueden abordarse solo con métodos técnicos, sino que requieren prácticas de mitigación de riesgos más integrales, como adopción de juntas de revisión institucional para la IA. Las juntas de revisión institucional en el campo de la medicina ayudan a defender los derechos individuales, por ejemplo.

Los organismos académicos y las sociedades profesionales también han adoptado estándares para el uso responsable de la IA, ya sea estándares de autoría para texto generado por IA o estándares para el intercambio de datos mediado por pacientes en medicina.

El fortalecimiento de los estatutos existentes sobre seguridad, privacidad y protección del consumidor al tiempo que se introducen normas de responsabilidad algorítmica ayudaría a desmitificar los sistemas complejos de IA. También es importante reconocer que una mayor responsabilidad y transparencia de los datos puede imponer nuevas restricciones a las organizaciones.

Los estudiosos de la privacidad de datos y la ética de la IA han pedido “debido proceso tecnológico” y marcos para reconocer los daños de los procesos predictivos. El uso generalizado de la toma de decisiones habilitada por IA en campos como el empleo, los seguros y la atención médica exige requisitos de autorización y auditoría para garantizar la equidad procesal y las garantías de privacidad.

Sin embargo, exigir tales disposiciones de rendición de cuentas exige una debate robusto entre los desarrolladores de IA, los formuladores de políticas y aquellos que se ven afectados por el amplio despliegue de IA. En el ausencia de fuertes prácticas algorítmicas de rendición de cuentasel peligro es estrechas auditorías que promueven la apariencia de cumplimiento

¿Monopolios de IA?

Lo que también faltaba en el testimonio de Altman es la alcance de la inversión necesarios para entrenar modelos de IA a gran escala, ya sea GPT-4que es una de las bases de ChatGPTo generador de texto a imagen Difusión estable. Solo un puñado de empresas, como Google, Meta, Amazon y Microsoft, son responsables de desarrollo de los modelos de lenguaje más grandes del mundo.

Dada la falta de transparencia en los datos de capacitación utilizados por estas empresas, los expertos en ética de IA Timnit Gebru, Emily Bender y otros han advertido que la adopción a gran escala de tales tecnologías sin los riesgos de supervisión correspondientes amplificación del sesgo de la máquina a escala social.

También es importante reconocer que los datos de capacitación para herramientas como ChatGPT incluyen el trabajo intelectual de una gran cantidad de personas, como colaboradores de Wikipedia, blogueros y autores de libros digitalizados. Los beneficios económicos de estas herramientas, sin embargo, se acumulan solo para las corporaciones tecnológicas.

Demostrar el poder de monopolio de las empresas de tecnología puede ser difícil, ya que el caso antimonopolio del Departamento de Justicia contra microsoft demostrado. Creo que las opciones regulatorias más factibles para que el Congreso aborde los posibles daños algorítmicos de la IA pueden ser fortalecer los requisitos de divulgación para las empresas de IA y los usuarios de IA por igual, instar a la adopción integral de marcos de evaluación de riesgos de IA y exigir procesos que protejan los datos individuales. derechos y privacidad.

¿Quiere saber más sobre la IA, los chatbots y el futuro del aprendizaje automático? Consulte nuestra cobertura completa de inteligencia artificialo explore nuestras guías para Los mejores generadores de arte de IA gratuitos y Todo lo que sabemos sobre ChatGPT de OpenAI.

anjana susarlaProfesor de Sistemas de Información, Universidad del estado de michigan

Este artículo se vuelve a publicar de La conversación bajo una licencia Creative Commons. Leer el artículo original.

Leave a Reply

Your email address will not be published. Required fields are marked *