El monitoreo es crítico para una IA exitosa – TechCrunch


Las empresas a menudo identifican problemas de rendimiento de IA y ML después de que el daño ha sido hecho

Como el mundo se conecta más profundamente a través de dispositivos y redes de IoT, las necesidades y expectativas de los consumidores y las empresas pronto solo serán sostenibles a través de la automatización.

Reconociendo esto, la inteligencia artificial y el aprendizaje automático están siendo adoptados rápidamente por industrias críticas como las finanzas, el comercio minorista, la atención médica, el transporte y la fabricación para ayudarlos a competir en una cultura global siempre activa y bajo demanda. Sin embargo, a pesar de que la IA y el ML brindan innumerables beneficios, como aumentar la productividad al tiempo que se reducen los costos, se reducen los desperdicios, se mejora la eficiencia y se fomenta la innovación en modelos de negocios obsoletos, existe un enorme potencial de errores que provoquen resultados no deseados y sesgados y, lo que es peor, abuso por malos actores.

El mercado de tecnologías avanzadas que incluyen IA y ML continuará su crecimiento exponencial, con firma de investigación de mercado IDC proyectando que el gasto en sistemas de inteligencia artificial alcanzará los $ 98 mil millones en 2023, más de dos veces y media los $ 37.5 mil millones que se prevé gastar en 2019. Además, IDC prevé que el comercio minorista y la banca impulsarán gran parte de este gasto, ya que Las industrias invirtieron más de $ 5 mil millones en 2019.

Estos hallazgos subrayan la importancia para las empresas que están aprovechando o planean implementar tecnologías avanzadas para operaciones comerciales para comprender cómo y por qué está tomando ciertas decisiones. Además, tener una comprensión fundamental de cómo funcionan AI y ML es aún más crucial para realizar una supervisión adecuada a fin de minimizar el riesgo de resultados no deseados.

Las empresas a menudo se dan cuenta de los problemas de rendimiento de IA y ML después de que el daño ya está hecho, lo que en algunos casos ha sido noticia. Tales casos de inteligencia artificial que impulsan sesgos involuntarios incluyen la Apple Card que permite límites de crédito más bajos para las mujeres y el algoritmo de inteligencia artificial de Google para monitorear el discurso de odio en las redes sociales por ser racialmente parcial contra los afroamericanos. Y ha habido ejemplos mucho peores de IA y ML que se utilizan para difundir información errónea en línea a través de deepfakes, bots y más.

A través del monitoreo en tiempo real, las empresas tendrán visibilidad del "recuadro negro" para ver exactamente cómo funcionan sus modelos AI y ML. En otras palabras, la explicabilidad permitirá a los científicos e ingenieros de datos saber qué buscar (a.k.a. transparencia) para que puedan tomar las decisiones correctas (a.k.a. perspicacia) para mejorar sus modelos y reducir los riesgos potenciales (también conocido como generar confianza).

Pero existen desafíos operativos complejos que primero deben abordarse para lograr resultados libres de riesgos y confiables o confiables.

5 desafíos operativos clave en los modelos AI y ML

LO MÁS LEÍDO

Leave a Reply

Your email address will not be published. Required fields are marked *