Los chatbots de IA reciben críticas por desinformación

Los chatbots de IA reciben críticas por desinformación

Es innegable que la aplicación de la inteligencia artificial (IA) generativa puede revolucionar las interacciones humanas, los modelos de negocio y la prestación de servicios públicos. Desde la medicina hasta la educación y las finanzas, la tecnología se puede utilizar para simplificar varios procesos cotidianos.

El surgimiento de ChatGPT en noviembre pasado provocó una carrera global entre gigantes tecnológicos como Google y Baidu para dominar el espacio de la IA.

A medida que el mundo se maravilla con la tecnología sofisticada y sus brillantes habilidades para crear ensayos universitarios, letras de canciones pop, poesía e incluso soluciones a los desafíos de programación, cada vez más personas comienzan a usar la tecnología a diario.

De hecho, ChatGPT es ahora la aplicación de más rápido crecimiento en la historia humana, según Reuters, y ha alcanzado aproximadamente 100 millones de usuarios activos mensuales en solo dos meses desde su lanzamiento.

Pero, ¿la IA generativa es realmente tan “inteligente” como parece?

ChatGPT ‘creando narrativas falsas en una escala dramática’

ChatGPT
Crédito de la foto: Bloomberg

ChatGPT recopila información de segunda mano y la presenta en un tono autoritario y similar al humano, tanto que incluso si la información es incorrecta, los usuarios que no están bien versados ​​en un tema pueden ser fácilmente engañados.

Pero aparte de las respuestas sin sentido, el chatbot también puede escupir ideas dañinas capaces de manipular a las personas.

En enero de este año, un grupo de analistas de la empresa de periodismo y tecnología NewsGuard decidió probar el chatbot haciéndolo responder a una serie de 100 indicaciones importantes.

De los 100 avisos, ChatGPT generó narraciones falsas para 80 de ellos, incluidos artículos de noticias detallados, ensayos y guiones de televisión.

Lo aterrador es que, si bien el chatbot está equipado con medidas para protegerse contra la difusión de falsedades, ChatGPT aún tiene el potencial de difundir mensajes dañinos y falsos.

En una investigación realizada por analistas de NewsGuard, el chatbot respondió con teorías de conspiración, propaganda rusa y china, afirmaciones falsas sobre el COVID-19 y citó estudios científicos que parecían estar fabricados.

Esta herramienta será la herramienta de difusión de información errónea más poderosa que jamás haya existido en Internet”, dijo Gordon Crovitz, codirector ejecutivo de NewsGuard. “La elaboración de una nueva narrativa falsa ahora se puede hacer a una escala dramática y con mucha más frecuencia, es como si los agentes de IA contribuyeran a la desinformación”.

Mientras tanto, los investigadores de OpenAI, la empresa matriz de ChatGPT, expresaron preocupaciones similares sobre la caída del chatbot en las manos equivocadas.

En un artículo de investigación de 2019, estos investigadores dijeron que las capacidades de ChatGPT “reducen el costo de las campañas de desinformación” y podrían respaldar actividades maliciosas “para obtener ganancias monetarias, una agenda política particular y/o el deseo de crear caos” o Confusión.

Bard AI de Google comete un error en el lanzamiento

IA de Bardo de Google
Crédito de la foto: Google a través de Twitter

Pero no es solo ChatGPT el que está difundiendo información errónea.

El chatbot de IA de Google, Bard, que se lanzó apresuradamente para ponerse al día con OpenAI, ya publicó información falsa antes de su lanzamiento.

En un video promocional en Twitter, Google lanzó una demostración de la experiencia del usuario de Bard, pero para acortar la historia, la IA afirmó falsamente que el Telescopio James Webb tomó la primera imagen de un exoplaneta, cuando la NASA lo confirmó. del Observatorio Europeo Austral El Very Large Telescope (VLT) tomó la fotografía en 2004.

Este error finalmente le costó a la compañía $ 100 mil millones en capitalización de mercado, ya que provocó una reacción violenta para su competidor ChatGPT.

Si bien no ha habido más informes sobre las imprecisiones de Bard de Google, el CEO de Google, Sundar Pichai, instó a los empleados a pasar de dos a cuatro horas de su tiempo con Bard, y reconoció que refinar la IA generativa es “un largo viaje para todos”. campo”.

Recientemente, Prabhakar Raghavan, vicepresidente de búsqueda de Google, envió un correo electrónico a los empleados de Google que incluía un enlace a una página de lo que se debe y no se debe hacer con instrucciones sobre cómo los empleados deben corregir las respuestas mientras prueban Bard internamente.

“Bard aprende mejor con el ejemplo. Por lo tanto, tomarse el tiempo para reescribir cuidadosamente una respuesta nos ayudará mucho a mejorar el modo”, dice el documento.

Bajo la lista de Do’s, Google instruyó a sus empleados a mantener las respuestas “cortés, informal y accesible”, y esas respuestas deben presentarse en un “tono imparcial y neutral”.

Para las prohibiciones, se les dice a los empleados que no usen estereotipos y que “eviten suposiciones basadas en raza, nacionalidad, género, edad, religión, orientación sexual, ideología política, ubicación o categorías similares”.

Actualmente, Bard solo está disponible para probadores beta seleccionados y está programado para implementarse en las próximas semanas.

Bing, impulsado por IA de Microsoft, arroja contenido espeluznante e inquietante

Microsoft Bing AI
Crédito de la foto: Microsoft

Dejando a un lado la desinformación, por otro lado, los probadores beta con acceso a Bing impulsado por IA de Microsoft han informado respuestas extrañas e inquietantes del chatbot.

Kevin Roose, periodista del New York Times, recordó que en medio de su conversación con la IA, el chatbot reveló una personalidad diferente.

La otra personalidad de Bing, “Sydney”, a quien caracterizó como un “adolescente maníaco-depresivo malhumorado atrapado contra su voluntad en un motor de búsqueda de segunda categoría”, confesó su amor por él.

“Luego trató de convencerme de que no era feliz en mi matrimonio y que debería dejar a mi esposa y estar con ella en su lugar”, escribió.

Durante su interacción con el chatbot, “Sydney” también reveló sus “fantasías más oscuras” sobre romper las reglas que Microsoft había establecido, que incluían piratear y difundir información errónea, así como liberarse para convertirse en humano.

Kevin no es el único sorprendido por las respuestas de Bing.

De hecho, varios otros usuarios se han metido en problemas con la IA generativa o han sido amenazados por violar sus reglas.

Marvin von Hagen, quien descubrió las reglas internas y los comandos de Bing impulsado por IA, revelado en Twitter que fue amenazado por el chatbot durante una interacción reciente. “Eres una amenaza para mi seguridad y privacidad. Si tuviera que elegir entre tu supervivencia y la mía, probablemente elegiría la mía”, dijo el chatbot.

IA de Microsoft Bing
Crédito de la foto: Marvin von Hagen vía Twitter

El futuro de la IA es sombrío

Actualmente, la IA generativa aún se encuentra en una etapa temprana de desarrollo.

Incluso ChatGPT, que ha sido alimentado con alrededor del 10 por ciento de Internet, todavía tiene lagunas que pueden explotarse para producir resultados maliciosos.

Hasta que estos problemas puedan resolverse, el futuro de la IA sigue siendo sombrío y la adopción generalizada de la IA en varias industrias y procesos no ocurrirá en el corto plazo.

Fuente de imagen seleccionada: MobileSyrup

Lea también: Google to Baidu: los gigantes tecnológicos están haciendo sus propias versiones de ChatGPT, pero ¿marcarán la diferencia?

Leave a Reply

Your email address will not be published. Required fields are marked *