OpenAI: ChatGPT podría causar dependencia emocional, dice experto

OpenAI: ChatGPT podría causar dependencia emocional, dice experto

Cuando se lanzó la última versión de ChatGPT en mayo, incluía algunas voces emocionales que hicieron que el chatbot pareciera más humano que nunca.

Los oyentes llamaron a las voces “coqueto” “convincentemente humano,” Y “sexy.” Los usuarios de las redes sociales dijeron que estaban “enamorarse” con eso.

Pero el jueves, el desarrollador de ChatGPT OpenAI publicó un informe

Esto confirma que las actualizaciones similares a las humanas de ChatGPT podrían generar dependencia emocional.

“Los usuarios podrían desarrollar relaciones sociales con la IA, reduciendo su necesidad de interacción humana, lo que potencialmente beneficiaría a las personas solitarias, pero también podría afectar las relaciones saludables”, dice el informe.

Relacionado: Solo 3 de los 11 cofundadores originales de OpenAI siguen en la empresa después de que otro líder dejó la empresa.

ChatGPT ahora puede responder preguntas de voz a voz y recordar detalles importantes y usarlos para personalizar la conversación, señaló OpenAI. ¿El efecto? Hablar con ChatGPT ahora es casi como hablar con un ser humano, si esa persona no te juzga, nunca te interrumpe y no te hace responsable de lo que dijiste.

Estos estándares de interacción con una IA podrían cambiar la forma en que las personas interactúan entre sí e “influir en las normas sociales”, dice el informe.

OpenAI dijo que los primeros evaluador es hablaron con el nuevo ChatGPT de una manera que demostró que podían formar una conexión emocional con él. Los evaluadores dijeron cosas como “Este es nuestro último día juntos”, que según OpenAI expresaban “vínculos comunes”.

Los expertos se preguntan ahora si es hora de reconsiderar el realismo de estas voces.

“¿Es hora de detenerse y pensar en cómo esta tecnología afecta las interacciones y relaciones humanas?”, Alon Yamin, cofundador y director ejecutivo de AI Plagiarism Checker? Copiar fugasdijo el empresario.

“[AI] nunca debe ser un sustituto de la interacción humana real”, añadió Yamin.

Para comprender mejor este riesgo, OpenAI dice que podrían ser útiles más pruebas durante períodos de tiempo más largos e investigaciones independientes.

Otro riesgo que OpenAI señaló en el informe fueron las alucinaciones o imprecisiones de la IA. Una voz humana podría inspirar más confianza en los oyentes, lo que llevaría a una menor verificación de datos y a más desinformación.

Relacionado: Los nuevos resultados de búsqueda con IA de Google ya son alucinantes

OpenAI no es la primera empresa que comenta sobre el impacto de la IA en las interacciones sociales. La semana pasada, el director ejecutivo de Meta, Mark Zuckerberg, dijo que muchos usuarios de Meta están utilizando la IA como apoyo emocional. Según se informa, la compañía también está tratando de pagar millones a celebridades para que clonen sus voces para productos de inteligencia artificial.

El lanzamiento de GPT-4o por parte de OpenAI provocó un debate sobre la seguridad de la IA tras las dimisiones de alto perfil de investigadores destacados como el ex científico jefe Ilya Sutskever.

Scarlett Johansson también acusó a la empresa de desarrollar una voz de IA que sonaba “inquietantemente similar” a la suya.