Singapur realiza las primeras pruebas de gobernanza de IA del mundo

Singapur está constantemente sumergido en la digitalización y el desarrollo tecnológico. Los nuevos avances revolucionarios se introducen o prueban con frecuencia, casi tan rápido como Apple lanza nuevos modelos de teléfonos.

Hace mucho tiempo que los participantes del mercado y las empresas comenzaron a utilizar el aprendizaje automático y la IA para beneficiar sus productos y servicios. Sin embargo, como consumidores, no somos más sabios y satisfechos con el producto final que se vende en el mercado.

A medida que nos instalamos, las agencias gubernamentales ven la necesidad, y la importancia, de que los consumidores comprendan el impacto de los sistemas de inteligencia artificial y su transparencia general.

El creciente número de productos y servicios integrados en IA ha subrayado aún más la importancia de promover la transparencia dentro de las implementaciones de IA a través de diversas tecnologías y revisiones de procesos.

En línea con esta creciente preocupación, Singapur lanzó recientemente AI Verify, el primer marco piloto y conjunto de herramientas del mundo para pruebas de gobernanza de IA.

Desarrollado por Infocomm Media Authority de Singapur (IMDA) y la Comisión de Protección de Datos Personales (PDPC), el conjunto de herramientas fue visto como un paso hacia la creación de un estándar global para la gobernanza de la IA.

Este reciente lanzamiento siguió al lanzamiento del Modelo de Marco de Gobernanza de IA (Segunda Edición) en Davos en 2020 y la Estrategia Nacional de IA en 2019.

¿Cómo funciona AI Verificar?

yo verifico
Crédito de la foto: Adobe Stock

El conjunto de herramientas en bruto inicial suena prometedor. Incluye una serie de soluciones de prueba de código abierto, incluidas las verificaciones de procesos, en un conjunto de herramientas único para una autoevaluación eficiente.

AI Verify ofrece pruebas técnicas basadas en tres principios: imparcialidad, explicabilidad y solidez.

Esencialmente una ventanilla única, el kit de herramientas proporciona a los desarrolladores de sistemas de IA una plataforma común para presentar los resultados de las pruebas y realizar una autoevaluación para satisfacer las necesidades comerciales del producto. Es un proceso sin complicaciones, y el resultado final genera un informe completo para desarrolladores y socios comerciales, que detalla las áreas que podrían afectar su rendimiento de IA.

El conjunto de herramientas está actualmente disponible como un Producto Mínimo Viable (MVP) y ofrece las características suficientes para que los primeros usuarios lo prueben y brinden comentarios para un mayor desarrollo del producto.

En última instancia, AI Verify tiene como objetivo determinar la transparencia de las implementaciones, ayudar a las organizaciones en empresas relacionadas con la IA y evaluar los productos o servicios que se presentarán al público, así como informar a los inversores de IA interesados ​​sobre sus beneficios, riesgos y limitaciones para liderar.

Encuentra la brecha tecnológica

Las características y el objetivo final de AI Verify parecen bastante simples. Sin embargo, con cada nuevo avance tecnológico, suele haber una brecha.

Potencialmente, AI Verify puede facilitar la interoperabilidad de los marcos de gobierno de IA y ayudar a las organizaciones a cerrar las brechas entre estos marcos y regulaciones. Todo suena prometedor: transparencia con solo presionar un botón, autoevaluación responsable y un paso hacia un estándar global para la gobernanza de la IA.

Sin embargo, el MVP no puede definir estándares éticos y solo puede validar las afirmaciones realizadas por los desarrolladores o propietarios de sistemas de IA sobre el enfoque, el uso y el rendimiento verificado de los sistemas de IA.

Tampoco garantiza que un sistema de IA probado dentro de su marco piloto sea completamente seguro y libre de riesgos o sesgos.

Dada esta limitación, es difícil decir cómo AI Verify beneficiará a las partes interesadas y a los actores de la industria a largo plazo. ¿Cómo se asegurarán los desarrolladores de que los datos ingresados ​​en el conjunto de herramientas antes de la autoevaluación ya sean correctos y no se basen en rumores? Cada experimento correcto merece un escrutinio estricto, y creo que AI Verify tiene un gran viaje tecnológico por delante.

Tal vez este desarrollo todo en uno encaje mejor como un control complementario además de nuestros marcos y políticas de gobernanza de IA voluntarios existentes. Se puede utilizar este conjunto de herramientas y seguir confiando en una lista de verificación para garantizar aún más la credibilidad de la evaluación.

Como dicen, “si no está roto, no lo arregles”. Trabajar en ello.”

– Berto Lance

metadatos de Google
Google y Meta se encuentran entre las empresas que han probado AI Verify / Crédito de la foto: Reuters

Desde su lanzamiento, el conjunto de herramientas ha sido probado por empresas de diferentes industrias: Google, Meta, Singapore Airlines y Microsoft, por nombrar algunas.

Los comentarios de las 10 empresas que recibieron acceso temprano al MVP ayudarán a diseñar un conjunto de herramientas de aplicación internacional para reflejar las necesidades de la industria y contribuir al desarrollo de estándares internacionales.

Los desarrolladores están en un continuo continuo para ampliar y mejorar el marco. Actualmente están trabajando con regulaciones y estándares, involucrando a líderes tecnológicos y responsables de políticas, para mapear AI Verify y establecer marcos de AI. Esto permitiría a las empresas ofrecer productos y servicios impulsados ​​por IA en los mercados globales.

Crédito de imágenes seleccionadas: Avanade

Leave a Reply

Your email address will not be published.