¿Confiarías en la IA de ChatGPT en tu trabajo?

¿Confiarías en la IA de ChatGPT en tu trabajo?

Imagen para el artículo titulado ¿Confiarías en ChatGPT en tu trabajo?

Foto: Oferta León (imágenes falsas)

Las herramientas de inteligencia artificial (IA) son cada vez más utilizado en el trabajo para aumentar la productividad, mejorar la toma de decisiones y reducir costos, incluida la automatización de tareas administrativas y el monitoreo de la seguridad.

Pero compartir su lugar de trabajo con IA plantea desafíos únicos, incluida la pregunta: ¿podemos confiar en la tecnología?

Nuestro nuevo, estudio de 17 países La participación de más de 17 000 personas revela cuánto y de qué manera confiamos en la IA en el lugar de trabajo, cómo vemos los riesgos y los beneficios, y qué se espera que se confíe en la IA.

Descubrimos que solo uno de cada dos empleados está dispuesto a confiar en la IA en el trabajo. Su actitud depende de su función, en qué país viven y para qué se utiliza la IA. Sin embargo, las personas de todo el mundo son casi unánimes en sus expectativas sobre lo que debe implementarse para que se confíe en la IA.

Nuestra encuesta global sobre IA

La IA está reconfigurando rápidamente la forma en que se realiza el trabajo y se prestan los servicios, con todos los sectores de la economía global invirtiendo en herramientas de inteligencia artificial. Dichas herramientas pueden automatizar las actividades de marketing, ayudar al personal con diversas consultas o incluso monitorear a los empleados.

Para comprender la confianza y las actitudes de las personas hacia la IA en el lugar de trabajo, encuestamos a más de 17 000 personas de 17 países: Australia, Brasil, Canadá, China, Estonia, Finlandia, Francia, Alemania, India, Israel, Japón, Países Bajos, Singapur, Sudáfrica, Sudáfrica Corea, el Reino Unido y los Estados Unidos. Estos datos, que utilizaron muestras representativas a nivel nacional, se recopilaron justo antes del lanzamiento de ChatGPT.

Los países que encuestamos son líderes en la actividad de IA dentro de sus regiones, como lo demuestra su inversión en IA y empleo específico de IA.

¿Los empleados confían en la IA en el trabajo?

Descubrimos que casi la mitad de todos los empleados (48 %) desconfían de confiar en la IA en el trabajo, por ejemplo, confiando en las decisiones y recomendaciones de la IA, o compartiendo información con las herramientas de la IA para que puedan funcionar.

Las personas tienen más fe en la capacidad de los sistemas de IA para producir resultados confiables y brindar servicios útiles, que en la seguridad y la equidad de estos sistemas, y en la medida en que defienden los derechos de privacidad.

Sin embargo, la confianza es contextual y depende del propósito de la IA. Como se muestra en la figura a continuación, la mayoría de las personas se sienten cómodas con el uso de la IA en el trabajo para aumentar y automatizar tareas y ayudar a los empleados, pero se sienten menos cómodas cuando la IA se usa para fines de recursos humanos, gestión del desempeño o monitoreo.

La IA como herramienta para la toma de decisiones

La mayoría de los empleados consideran aceptable el uso de la IA en la toma de decisiones gerenciales y, de hecho, prefieren la participación de la IA a la toma de decisiones por parte de personas exclusivas. Sin embargo, la opción preferida es que los humanos retengan más control que el sistema de IA, o al menos la misma cantidad.

¿Qué aspecto podría tener esto? Las personas mostraron el mayor apoyo para una colaboración de toma de decisiones de 75% de humanos a 25% de IA, o una división de 50%-50%. Esto indica una clara preferencia por parte de los gerentes de utilizar la IA como ayuda para la toma de decisiones, y una falta de apoyo para la toma de decisiones de IA totalmente automatizada en el trabajo. Estas decisiones podrían incluir a quién contratar y a quién ascender, o la forma en que se asignan los recursos.

Si bien casi la mitad de las personas encuestadas cree que la IA mejorará su competencia y autonomía en el trabajo, menos de uno de cada tres (29 %) cree que la IA creará más empleos de los que eliminará.

Esto refleja un temor destacado: el 77 % de las personas afirma sentirse preocupada por la pérdida del trabajo y el 73 % dice que le preocupa perder habilidades importantes debido a la IA.

Sin embargo, es más probable que los gerentes crean que la IA creará empleos y están menos preocupados por sus riesgos que otras ocupaciones. Esto refleja una tendencia más amplia de gerentes que se sienten más cómodos, confiados y que apoyan el uso de IA en el trabajo que otros grupos de empleados.

Dado que los gerentes suelen ser los impulsores de la adopción de IA en el trabajo, estas opiniones diferentes pueden causar tensiones en las organizaciones que implementan herramientas de IA.

Confía en la IA es una preocupación seria

Las generaciones más jóvenes y aquellos con educación universitaria también confían más y se sienten más cómodos con la IA, y es más probable que la usen en su trabajo. Con el tiempo, esto puede aumentar las divisiones en el empleo.

Encontramos diferencias importantes entre los países en nuestros hallazgos. Por ejemplo, las personas de los países occidentales se encuentran entre las que menos confían en el uso de la IA en el trabajo, mientras que las de las economías emergentes (China, India, Brasil y Sudáfrica) confían más y se sienten más cómodas.

Esta diferencia refleja parcialmente el hecho de que una minoría de personas en los países occidentales cree que los beneficios de la IA superan los riesgos, en contraste con la gran mayoría de las personas en las economías emergentes.

¿Cómo hacemos que la IA sea confiable?

La buena noticia es que nuestros hallazgos muestran que las personas están unidas en los principios y prácticas que esperan implementar para confiar en la IA. En promedio, el 97% de las personas informan que cada uno de estos es importante para su confianza en la IA.

Las personas dicen que confiarían más en la IA cuando se implementen herramientas de supervisión, como el monitoreo de la precisión y confiabilidad de la IA, los “códigos de conducta” de la IA, las juntas independientes de revisión ética de la IA y el cumplimiento de los estándares internacionales de IA.

Este fuerte respaldo a los principios y prácticas confiables de IA en todos los países proporciona un modelo sobre cómo las organizaciones pueden diseñar, usar y gobernar la IA de una manera que asegure la confianza.


Encole gillespie, Profesor de Gestión; Cátedra KPMG en Confianza Organizacional, la universidad de queensland; Caitlin CurtisCompañero de investigación, la universidad de queensland; Javad PgenialInvestigador asociado, la universidad de queenslandy steven lbienCompañero de investigación post-doctoral, la universidad de queensland

Este artículo se vuelve a publicar de La conversación bajo una licencia Creative Commons. Leer el artículo original.

Leave a Reply

Your email address will not be published. Required fields are marked *