Cómo poner en práctica la ética de la IA en su organización

En los últimos años, las empresas han pasado de simplemente observar las implicaciones técnicas de su tecnología a reconocer e intentar impulsar soluciones que aseguren que sus tecnologías, incluida la inteligencia artificial (IA), funcionen de manera responsable. y fuerte Encuesta de ética de IA del IBM Institute for Business Value que encuestó a 1200 ejecutivos en 22 países y 22 industrias, casi el 80 por ciento de los directores ejecutivos están listos para tomar medidas para aumentar la responsabilidad de la IA. Esto es un aumento de solo el 20 por ciento en 2018. La conciencia de la importancia de la ética de la IA también se está extendiendo claramente en la sala de juntas: el 80 por ciento de los encuestados en la encuesta de este año dijo que un ejecutivo no técnico es el principal “defensor” de la ética de la IA, hasta del 15 por ciento en 2018.

Esto es un progreso alentador. Sin embargo, queda mucho por hacer para garantizar que los beneficios de la IA beneficien a todos los humanos por igual y con éxito. Según los datos del estudio IBV, alrededor del 85 por ciento de las empresas hoy en día consideran importante tratar con la ética de la IA. Sin embargo, solo el 40 por ciento de los consumidores dicen que confían en las empresas cuando desarrollan nuevas aplicaciones de IA, la misma proporción que dijo confiar en las empresas en 2018, hace casi cuatro años.

Los beneficios de la IA continúan creciendo.

La IA tiene un potencial transformador. En 2021, el “aumento de la IA”, definido como el “modelo de asociación centrado en el ser humano de colaboración entre humanos e IA”, ha creado un valor comercial estimado de $ 2.9 billones jardinero, y ahorró un estimado de 6.200 millones de horas de productividad laboral. A medida que la inversión y la adopción continúan aumentando drásticamente, junto con el desarrollo de soluciones sin código o de bajo código que permiten a las personas personalizar su propia IA sin un amplio conocimiento técnico, la IA seguirá siendo más accesible e impactante para las masas. La IA puede aumentar las capacidades humanas en numerosas áreas, desde la investigación y el análisis hasta la realización de tareas básicas del día a día, como la gestión de nuestro calendario y nuestras finanzas.

La IA también nos permite pensar a mayor escala sobre lo que es posible. Los científicos tardaron más de 30 años en mapear manualmente este 3.100 millones de pares de bases del genoma humano, un proyecto crítico necesario para entender cómo tratar enfermedades complejas y preservar la vida humana. Ahora, al combinar la IA y la inteligencia humana, podemos optimizar y acelerar procesos similares y abordar con más éxito los desafíos más apremiantes de la actualidad.

Y ya hemos visto cómo la IA ha permitido avances importantes: el año pasado Investigadores de IBM, Oxford, Cambridge y el Laboratorio Nacional de Física demostró cómo los péptidos antimicrobianos diseñados por IA interactúan con modelos informáticos de una membrana celular, un desarrollo que podría tener implicaciones de gran alcance para el descubrimiento de fármacos.

Asegurarse de que la IA sea confiable es un acto de equilibrio, pero vale la pena.

Si bien las promesas de la IA son excelentes, también lo son las trampas de no garantizar que se pueda confiar en ella, lo que significa que es justa, explicable, transparente, sólida y respetuosa con nuestros datos e ideas. La definición de “IA no confiable” puede ser obvia para la mayoría: discriminatoria, opaca, abusada y por lo demás por debajo de las expectativas de confianza común. Aún así, la evolución de una IA confiable puede seguir siendo un desafío si se considera que a veces se requiere un acto de equilibrio pragmático: por ejemplo, entre la “explicabilidad” (la capacidad de comprender la lógica detrás de los resultados de un algoritmo de IA) y la “robustez” (la precisión de un algoritmo para llegar a un resultado.

Las organizaciones ya no pueden adoptar la IA sin abordar también estas compensaciones y otros problemas éticos. La pregunta es si los enfrentará de manera estratégica, decidida y bien considerada, o no. No será fácil. Pero hay pasos concretos que las empresas y organizaciones pueden tomar ahora para moverse en la dirección correcta.

Ponga las prácticas de ética de la IA en el contexto estratégico adecuado.

Al igual que con cualquier iniciativa de gran alcance, la implementación de la ética de la IA comienza con la determinación de la estrategia correcta para el éxito. Considere la importancia de construir una IA confiable para la estrategia y los objetivos comerciales: ¿Cuáles son los creadores de valor clave que podrían acelerarse con la IA? ¿Cómo se mide el éxito?

También es importante considerar el papel de la innovación de la IA en la estrategia y el enfoque de crecimiento de una organización: ¿es una organización una “pionera” que está constantemente ampliando las fronteras de la puesta en práctica de nuevas tecnologías, o un “sucesor rápido”? enfoques probados? Las respuestas a estas preguntas ayudarán a identificar y codificar los principios éticos clave de la IA y determinarán el equilibrio entre humanos y máquinas en una organización.

Establecer un enfoque de gobernanza para implementar la ética de la IA.

El siguiente paso es que una empresa establezca su propio marco de gobierno de ética de IA. Esto comienza con la participación de todo el espectro de perspectivas (p. ej., ejecutivos, clientes, funcionarios gubernamentales y la sociedad en general) en cuestiones como la privacidad, la solidez, la justicia, la explicabilidad y la transparencia. También significa garantizar la diversidad de identidades y perspectivas: una nueva investigación de IBM muestra que hay 5,5 veces menos mujeres en los equipos de IA que en la organización, junto con 4 veces menos personas LGBT+ y 1,7 veces menos negros, indígenas y personas de color (BIPOC) .

Establecer el marco de gobierno correcto también requiere que las organizaciones consideren identificar su propio perfil de riesgo y umbrales para los datos de IA, así como una estructura interna, políticas, procesos y, en última instancia, un sistema para monitorear interna y externamente su ética de IA.

Integrar la ética en el ciclo de vida de la IA.

Finalmente, la ética de la IA no es un proceso de establecer y olvidar. Una vez que una organización cuenta con su sistema de gobierno y mantenimiento, hay una serie de pasos adicionales a seguir. Primero, debe continuar comprometiéndose con sus partes interesadas internas y externas en el tema, recopilando, informando y revisando datos de cumplimiento. También debe impulsar y apoyar los esfuerzos de educación y diversidad para los equipos internos, y definir metodologías integradas y conjuntos de herramientas que propugnen los principios de la ética de la IA.

La IA solo se volverá una parte más de nuestra vida cotidiana: debe impulsarse de manera responsable y de una manera que garantice que los principios éticos estén en el corazón de la tecnología. Afortunadamente, el libro de jugadas para la ética de la IA se está volviendo más claro, más práctico y más tangible. Pero depende de todos nosotros, en la industria, el gobierno, la academia y la sociedad en general, marcar la diferencia.

Las opiniones expresadas aquí por los columnistas de Heaven32 son propias y no de Heaven32.

Leave a Reply

Your email address will not be published.