Tu novia AI es un espectáculo de terror sobre recolección de datos

Tu novia AI es un espectáculo de terror sobre recolección de datos

¿Solitario el día de San Valentín? La IA puede ayudar. Al menos, eso es lo que le dirán varias empresas que venden chatbots “románticos”. Pero a medida que se desarrolla su historia de amor con los robots, hay una compensación que tal vez no se dé cuenta de que está haciendo. Según un nuevo estudio del proyecto *Privacidad no incluida de Mozilla, Novias y novios de IA recopilan información sorprendentemente personal y casi todos venden o comparten los datos que recopilan.

“Para ser totalmente franco, las novias y los novios de IA no son tus amigos”, dijo Misha Rykov, investigadora de Mozilla, en un comunicado de prensa. “Aunque se comercializan como algo que mejorará su salud mental y su bienestar, se especializan en generar dependencia, soledad y toxicidad, al mismo tiempo que le extraen la mayor cantidad de datos posible”.

Mozilla profundizó 11 chatbots románticos con IA diferentes, incluidas aplicaciones populares como Replika, Chai, Romantic AI, EVA AI Chat Bot & Soulmate y CrushOn.AI. Todos y cada uno de ellos obtuvieron la etiqueta Privacidad no incluida, lo que coloca a estos chatbots entre las peores categorías de productos que Mozilla haya revisado jamás. Las aplicaciones mencionadas en esta historia no respondieron de inmediato a las solicitudes de comentarios.

Ya has escuchado historias sobre problemas de datos antes, pero según Mozilla, las novias de IA violan tu privacidad de “nuevas formas inquietantes”. Por ejemplo, CrushOn.AI recopila detalles que incluyen información sobre salud sexual, uso de medicamentos y atención de afirmación de género. El 90% de las aplicaciones pueden vender o compartir datos del usuario para anuncios dirigidos y otros fines, y más de la mitad no le permitirán eliminar los datos que recopilan. La seguridad también fue un problema. Sólo una aplicación, Genesia AI Friend & Partner, cumplió con los estándares mínimos de seguridad de Mozilla.

Uno de los hallazgos más sorprendentes se produjo cuando Mozilla contó los rastreadores en estas aplicaciones, pequeños fragmentos de código que recopilan datos y los comparten con otras empresas con fines publicitarios y otros fines. Mozilla descubrió que las aplicaciones de IA para novias usaban un promedio de 2,663 rastreadores por minuto, aunque ese número fue aumentado por Romantic AI, que llamó a la friolera de 24,354 rastreadores en solo un minuto de uso de la aplicación.

El problema de la privacidad es aún más preocupante porque las aplicaciones te alientan activamente a compartir detalles que son mucho más personales que el tipo de cosas que podrías ingresar en una aplicación típica. EVA AI Chat Bot & Soulmate empuja a los usuarios a “compartir todos sus secretos y deseos” y solicita específicamente fotos y grabaciones de voz. Vale la pena señalar que EVA fue el único chatbot que no fue criticado por cómo usa esos datos, aunque la aplicación tenía problemas de seguridad.

Dejando a un lado los problemas de datos, las aplicaciones también hicieron algunas afirmaciones cuestionables sobre para qué sirven. EVA AI Chat Bot & Soulmate se anuncia a sí mismo como “un proveedor de software y contenido desarrollado para mejorar su estado de ánimo y bienestar”. La IA romántica dice que está “aquí para mantener su SALUD MENTAL”. Sin embargo, cuando lees los términos y servicios de la empresa, hacen todo lo posible para distanciarse de sus propias afirmaciones. Las políticas de Romantic AI, por ejemplo, dicen que “no es un proveedor de servicios médicos o de atención médica ni proporciona atención médica, servicios de salud mental u otros servicios profesionales”.

Probablemente sea un terreno legal importante a cubrir, dado el historial de estas aplicaciones. Según se informa, Replika alentó el intento de un hombre de asesinar a la reina de inglaterra. Un chatbot Chai supuestamente animó a un usuario a suicidarse.

Leave a Reply

Your email address will not be published. Required fields are marked *