Abordar los riesgos de la IA: su reputación está en juego

El riesgo tiene que ver con el contexto

El riesgo tiene que ver con el contexto. De hecho, uno de los mayores riesgos es no reconocer o comprender su Contexto: Es por eso que es necesario comenzar por ahí al evaluar el riesgo.

Esto es particularmente importante en términos de reputación. Piense, por ejemplo, en sus clientes y sus expectativas. ¿Cómo se sentirían al interactuar con un chatbot de IA? ¿Qué tan perjudicial podría ser proporcionarles información falsa o engañosa? Tal vez los inconvenientes menores para los clientes sean algo que pueda manejar, pero ¿qué pasa si tienen un impacto financiero o de salud significativo?

Incluso si implementar la IA parece tener sentido, es evidente que existen algunos riesgos de reputación posteriores que deben considerarse. Hemos pasado años hablando sobre la importancia de la experiencia del usuario y de estar centrados en el cliente: si bien la IA podría a yudarnos aquí, también podría socavar esas cosas.

Hay una pregunta similar que hacer sobre sus equipos. La IA puede tener la capacidad de impulsar la eficiencia y facilitar el trabajo de las personas, pero si se utiliza de manera incorrecta podría alterar gravemente las formas de trabajo existentes. La industria está hablando mucho sobre la experiencia de los desarrolladores recientemente (es algo sobre lo que escribí para esta publicación) y las decisiones que toman las organizaciones sobre la IA deben mejorar las experiencias de los equipos, no socavarlas.

En la última edición del Radar tecnológico de Thoughworks—una instantánea bianual de la industria del software basada en nuestras experiencias trabajando con clientes de todo el mundo— hablamos precisamente de este punto. llamamos Asistentes del equipo de IA como una de las áreas emergentes más interesantes en la ingeniería de software, pero también observamos que la atención debe centrarse en capacitar a los equipos, no a los individuos. “Deberíamos buscar formas de crear asistentes de equipo de IA para ayudar a crear el ‘equipo 10x’, en lugar de un grupo de ingenieros 10x asistidos por IA aislados”, decimos en el último informe.

No prestar atención al contexto laboral de sus equipos podría causar un daño significativo a su reputación. Algunas organizaciones optimistas podrían ver esto como parte integrante de la innovación, pero no lo es. Está mostrando a los empleados potenciales (especialmente a los altamente técnicos) que usted realmente no comprende ni se preocupa por el trabajo que realizan.

Abordar el riesgo mediante la implementación de tecnología más inteligente

Hay muchas herramientas que se pueden utilizar para ayudar a gestionar el riesgo. Thoughtworks ayudó a armar el Guía de tecnología responsableuna colección de herramientas y técnicas que las organizaciones pueden utilizar para tomar decisiones más responsables sobre la tecnología (no solo la IA).

Sin embargo, es importante señalar que la gestión de riesgos (particularmente aquellos relacionados con la reputación) requiere atención real a los detalles específicos de la implementación de la tecnología. Esto quedó particularmente claro en el trabajo que hicimos con una variedad de organizaciones de la sociedad civil india, desarrollando un chatbot de bienestar social con los que los ciudadanos puedan interactuar en sus lenguas nativas. Los riesgos aquí no eran diferentes a los discutidos anteriormente: el contexto en el que se utilizaba el chatbot (como apoyo para acceder a servicios vitales) significaba que información inexacta o “alucinada” podría impedir que las personas obtuvieran los recursos de los que dependen.

Heaven32: