Microsoft obtuvo una patente para convertirlo en un chatbot

Ilustración para el artículo titulado Microsoft obtuvo una patente para convertirlo en un chatbot

Foto: Stan Honda (imágenes falsas)

¿Qué pasa si la medida más significativa de las labores de su vida no tiene nada que ver con sus experiencias vividas sino simplemente con la generación involuntaria de un clon digital realista de usted mismo, un espécimen de hombre antiguo para la diversión de la gente del año 4500 mucho después de su partida? esta espiral mortal? Esta es la pregunta menos aterradora que plantea una patente de Microsoft concedida recientemente para un chatbot individual.

Notado por primera vez por El independiente, La Oficina de Patentes y Marcas Registradas de los Estados Unidos confirmó a Gizmodo por correo electrónico que Microsoft aún no está autorizado a fabricar, usar o vender la tecnología, solo para evitar que otros lo hagan. La solicitud de patente se presentó en 2017, pero se aprobó el mes pasado.

Chatbot hipotético Usted (imaginado en detalle aquí) recibiría capacitación sobre “datos sociales”, que incluyen publicaciones públicas, mensajes privados, grabaciones de voz y videos. Podría tomar forma 2D o 3D. Podría ser una “entidad pasada o presente”; un “amigo, un familiar, un conocido, [ah!] una celebridad, un personaje de ficción, una figura histórica ”y, siniestramente,“ una entidad aleatoria ”. (El último, podríamos adivinar, podría ser una versión hablada de la biblioteca de retratos fotorrealista generada por máquina ThisPersonDoesNotExist.) La tecnología podría permitirle grabarse a sí mismo en una “determinada fase de la vida” para comunicarse con su joven en el futuro.

Personalmente disfruto el hecho de que mi chatbot sería inútil gracias a mi vocabulario de texto limitado (“Dios mío” “Dios mío” “Dios mío, jajajaja”), pero las mentes de Microsoft lo consideraron. El chatbot puede formar opiniones que usted no tiene y responder preguntas que nunca le han hecho. O, en palabras de Microsoft, “se pueden usar uno o más almacenes de datos conversacionales y / o API para responder al diálogo del usuario y / o preguntas para las cuales los datos sociales no proporcionan datos”. Los comentarios de relleno se pueden adivinar a través de datos de fuentes colectivas de personas con intereses y opiniones alineados o información demográfica como género, educación, estado civil y nivel de ingresos. Podría imaginarse su opinión sobre un tema basado en “percepciones de eventos basadas en la multitud”. “Datos psicográficos” está en la lista.

En resumen, estamos ante el monstruo del aprendizaje automático de Frankenstein, que revive a los muertos a través de la recolección de datos altamente personales y sin control.

“Eso es escalofriante”, Jennifer Rothman, profesora de derecho de la Universidad de Pensilvania y autora de El derecho a la publicidad: la privacidad reinventada para un mundo público le dijo a Gizmodo por correo electrónico. Si te tranquiliza, un proyecto así suena como una agonía legal. Ella predijo que dicha tecnología podría generar disputas sobre el derecho a la privacidad, el derecho a la publicidad, la difamación, el agravio por luz falsa, la infracción de marca registrada, la infracción de derechos de autor y el respaldo falso “por nombrar sólo algunos”, dijo. (Arnold Schwarzenegger ha trazado el territorio con esta cabeza.)

Ella continuó:

También podría violar las leyes de privacidad biométrica en estados, como Illinois, que las tienen. Suponiendo que la recopilación y el uso de los datos estén autorizados y las personas opten afirmativamente por la creación de un chatbot a su propia imagen, la tecnología aún genera preocupaciones si dichos chatbots no están claramente demarcados como imitadores. También se puede imaginar una serie de abusos de la tecnología similares a los que vemos con el uso de la tecnología deepfake, probablemente no lo que Microsoft planearía, pero sin embargo, se puede anticipar. Los chatbots convincentes pero no autorizados podrían crear problemas de seguridad nacional si un chatbot, por ejemplo, supuestamente habla en nombre del presidente. Y uno puede imaginar que los chatbots de celebridades no autorizados podrían proliferar de maneras que podrían ser explotadoras sexual o comercialmente.

Rothman señaló que si bien tenemos marionetas realistas (deepfakes, por ejemplo), esta patente es la primera que ha visto que combina dicha tecnología con datos recopilados a través de las redes sociales. Hay algunas formas en que Microsoft podría mitigar las preocupaciones con distintos grados de realismo y descargos de responsabilidad claros. Encarnar como Clippy el clip, dijo, podría ayudar.

No está claro qué nivel de consentimiento se requeriría para recopilar suficientes datos incluso para la cera digital más grumosa, y Microsoft no compartió las pautas del acuerdo de usuario potencial. Pero las leyes adicionales probables que rigen la recopilación de datos (la Ley de Privacidad del Consumidor de California, el Reglamento General de Protección de Datos de la UE) podrían arruinar las creaciones de chatbots. Por otro lado, Clearview AI, que notoriamente proporciona software de reconocimiento facial a las fuerzas del orden y empresas privadas, actualmente está litigando su derecho a monetizar su repositorio de miles de millones de avatares extraído de los perfiles de redes sociales públicas sin el consentimiento de los usuarios.

Lori Andrews, abogada que ha ayudado a informar las pautas para el uso de biotecnologías, imaginaba un ejército de gemelos malvados rebeldes. “Si me postulara para un cargo, el chatbot podría decir algo racista como si fuera yo y arruinar mis perspectivas de elección”, dijo. “El chatbot podría obtener acceso a varias cuentas financieras o restablecer mis contraseñas (en función de la información conglomerada, como el nombre de una mascota o el apellido de soltera de la madre, a los que a menudo se puede acceder desde las redes sociales). Una persona podría ser engañada o incluso perjudicada si su terapeuta se tomaba unas vacaciones de dos semanas, pero un chatbot que imitaba al terapeuta continuó brindando y facturando los servicios sin que el paciente supiera el cambio “.

Con suerte, este futuro nunca llega a suceder, y Microsoft ha reconocido que la tecnología es espeluznante. Cuando se le pidió un comentario, un portavoz le indicó a Gizmodo que un tweet de Tim O’Brien, director general de programas de inteligencia artificial de Microsoft. “Estoy investigando esto: la fecha de solicitud (abril de 2017) es anterior a las revisiones de ética de IA que hacemos hoy (me siento en el panel), y no tengo conocimiento de ningún plan para construir / enviar (y sí, es perturbador ) “.

.

Leave a Reply

Your email address will not be published. Required fields are marked *