Las personas a las que se les paga para capacitar a la IA están subcontratando su trabajo… a la IA

Las personas a las que se les paga para capacitar a la IA están subcontratando su trabajo… a la IA

No es de extrañar que algunos de ellos recurran a herramientas como ChatGPT para maximizar su potencial de ingresos. ¿Pero cuántos? Para averiguarlo, un equipo de investigadores del Instituto Federal Suizo de Tecnología (EPFL) contrató a 44 personas en la plataforma de trabajos temporales Amazon Mechanical Turk para resumir 16 extractos de trabajos de investigación médica. Luego, analizaron sus respuestas utilizando un modelo de IA que ellos mismos habían entrenado y que busca señales reveladoras de la salida de ChatGPT, como la falta de variedad en la elección de palabras. También extrajeron las pulsaciones de teclas de los trabajadores en un intento por averiguar si habían copiado y pegado sus respuestas, un indicador de que habían generado sus respuestas en otro lugar.

Estimaron que entre el 33% y el 46% de los trabajadores habían usado modelos de IA como ChatGPT de OpenAI. Es un porcentaje que probablemente aumente aún más a medida que ChatGPT y otros sistemas de inteligencia artificial se vuelvan más poderosos y de fácil acceso, según los autores del estudio, que se compartió en arXiv

y aún no ha sido revisado por pares.

“No creo que sea el final de las plataformas de crowdsourcing. Simplemente cambia la dinámica”, dice Robert West, profesor asistente de la EPFL, coautor del estudio.

El uso de datos generados por IA para entrenar a la IA podría introducir más errores en modelos que ya son propensos a errores. Los grandes modelos de lenguaje regularmente presentan información falsa como un hecho. Si generan resultados incorrectos que se utilizan para entrenar otros modelos de IA, los errores pueden ser absorbidos por esos modelos y amplificados con el tiempo, lo que dificulta cada vez más determinar sus orígenes, dice Ilia Shumailov, investigadora junior en informática. ciencia en la Universidad de Oxford, que no participó en el proyecto.

Peor aún, no hay una solución simple. “El problema es que, cuando usas datos artificiales, adquieres los errores de los malentendidos de los modelos y los errores estadísticos”, dice. “Debe asegurarse de que sus errores no sesguen la salida de otros modelos, y no hay una manera simple de hacerlo”.

El estudio destaca la necesidad de nuevas formas de verificar si los datos han sido producidos por humanos o IA. También destaca uno de los problemas con la tendencia de las empresas tecnológicas a depender de los trabajadores independientes para realizar el trabajo vital de ordenar los datos que se alimentan a los sistemas de IA.

“No creo que todo se derrumbe”, dice West. “Pero creo que la comunidad de IA tendrá que investigar de cerca qué tareas son más propensas a ser automatizadas y trabajar en formas de prevenir esto”.

Leave a Reply

Your email address will not be published. Required fields are marked *