GPTChat podría ser el aprendiz de brujo de Goethe del siglo XXI

GPTChat podría ser el aprendiz de brujo de Goethe del siglo XXI

¿Es la inteligencia artificial una innovación peligrosa que podría destruir a la humanidad? Mucha gente seria piensa eso. Más de 3.000 de ellos tienen firmó una carta pidiendo una moratoria de seis meses sobre los “experimentos gigantes de IA”. El escritor Yuval Noah Harari, la leyenda tecnológica Steve Wozniak y Elon Musk lo firmaron.

¿Por qué todo el alboroto ahora? La IA ha estado presente durante un tiempo en aplicaciones diarias como los sistemas de asistencia al conductor, la selección de lo que vemos en las redes sociales o el trabajo de los motores de búsqueda en Internet.

  • ‘Hoy te hacen más eficiente, mañana te despiden’

Pero hemos sido consumidores pasivos de estas aplicaciones. ChatGPT ha cambiado eso. Levantó el telón sobre la IA. Cualquier persona con una conexión a Internet puede usar la herramienta y otros generadores de imágenes y lenguaje impulsados ​​por IA. Cualquiera puede tener una idea del poder de la tecnología. es impresionante

También es aterrador. Muchos trabajadores de cuello blanco pensaron que estaban seguros en sus trabajos; sintieron que eran demasiado especializados o creativos para preocuparse. Están pensando de nuevo. Los generadores de idiomas pueden producir textos largos y complejos, a menudo con un alto nivel de calidad.

Pueden escribir poemas en cualquier estilo, escribir código de computadora o entregar cualquier tipo de información. Hoy te hacen más eficiente, mañana te hacen redundante.

De ahí la sensación de aprensión entre los más de 3000 firmantes de la carta. Y va más allá de las preocupaciones sobre una agitación masiva en el mercado laboral. Temen que tengamos la experiencia de El aprendiz de brujo de Goethe (El aprendiz de brujo).

Anima un palo de escoba, que comienza a inundar la casa, y luego pierde el control: “Espíritus que he citado, ignoran mis órdenes”.

La advertencia profética de Goethe

Como el poema de Goethe, la carta tiene un tono del Fin de los Tiempos: “¿Deberíamos arriesgarnos a perder el control de nuestra civilización?”. Goethe: “¡Prole del infierno, no eres un mortal! ¿Se hundirá toda la casa?” Y como Goethe, la carta habla de inundación: “¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad?”

Muchos han criticado la carta. Los autores están acusados ​​de hacer marketing gratuito para las empresas de IA, al exagerar el poder de la IA.

Tienen un punto sobre la repentina exageración en torno a ChatGPT. Está lejos de ser perfecto y hace algunas cosas sistemáticamente mal, por ejemplo produciendo desinformación en áreas donde solo tenía material de capacitación limitado (“dominios cerrados”).

Pero esto no es razón para relajarse, al contrario. Cuando tales modelos de lenguaje produzcan información errónea, lo harán a gran escala. ¿Por qué? Porque la industria cree que el futuro de las búsquedas en Internet se basará en modelos lingüísticos. Obtendremos respuestas autorizadas a nuestras preguntas de búsqueda, en lugar de enlaces a varias fuentes.

Cuando sale mal, saldrá mal en gran medida.

Algunas personas argumentan que estos son simplemente modelos de lenguaje que trabajan con probabilidades, que no tienen inteligencia humana que atribuya significado a las palabras y, por lo tanto, no hay nada que temer. Pero confunden el funcionamiento interno de la tecnología con sus efectos.

Al final del día, a los usuarios no les importa cómo estos modelos generan lenguaje. Lo perciben como humano y, a menudo, lo percibirán como autoritario.

Con las redes sociales hemos permitido que algunas empresas reestructuren totalmente el curso del debate público, en función de sus elecciones de lo que deberíamos leer, ver y con lo que ‘interactuar’. No hubo una evaluación de riesgos antes de que se comercializaran las redes sociales.

El lema ahora infame de Mark Zuckerberg era “muévete rápido y rompe cosas”. Y entonces, lanzó las redes sociales que podrían usarse para compartir fotos familiares, o para promover llamadas para violencia asesina contra las minorías.

Los grandes modelos lingüísticos serán mucho más influyentes de lo que han sido las redes sociales. Se están acercando a la IA de “propósito general”, capaz de hacer todo tipo de cosas, mediada por el lenguaje humano. No debemos sentarnos y ver cómo se desarrollará esto.

Afortunadamente, en la UE tenemos los inicios de alguna regulación. El problema de la desinformación de modelos como ChatGPT debe abordarse a través del código de práctica contra la desinformación. Posiblemente también se pueda abordar sobre la base de la Ley de Servicios Digitales. La Ley AI de la UE está en proceso y debería promulgarse con carácter de urgencia.

También se debe prestar más atención a las soluciones técnicas. Hay muchas ideas e iniciativas para abordar los daños de la IA, como mecanismos para autenticar contenido. Si es factible, eliminarían un problema con el contenido generado por IA: la incapacidad actual para saber si un contenido es auténtico o si fue manipulado o generado artificialmente.

Los autores de las cartas se preocupan en particular por la falta de evaluaciones de riesgos. Tienen un punto.

OpenAI, la compañía detrás de ChatGPT (ahora controlada en gran parte por Microsoft), trató de reducir los daños y, de hecho, ChatGPT evita algunas trampas obvias. No le dirá cómo hacer una bomba sucia (excepto si encuentra una forma indirecta de hacer la pregunta).

En el sitio web de ChatGPT, OpenAI tiene publicó un artículo técnico en un modelo de lenguaje de hermanos. Proporciona información importante sobre cómo se ha ajustado el modelo para reducir el daño. Sin embargo, es un documento de ingenieros de datos para ingenieros de datos. Se trata principalmente de la optimización del modelo en comparación con otros modelos.

Este análisis está muy lejos de una evaluación de riesgos sistemática que tendría que incluir muchas especializaciones diferentes y anticipar sistemáticamente los muchos casos de uso malicioso de un modelo de lenguaje y sus consecuencias no deseadas, antes de ponerlo a disposición de todos.

Si alguna vez los formuladores de políticas necesitan mostrar agilidad, ahora está en la IA. La tecnología necesita urgentemente un marco regulatorio para abordar y reducir sus riesgos y crear un entorno favorable a los negocios basado en el estado de derecho, que ofrezca igualdad de condiciones para todas las empresas.

Leave a Reply

Your email address will not be published. Required fields are marked *