Google finalmente está tomando medidas para frenar los deepfakes no consensuados

Google finalmente está tomando medidas para frenar los deepfakes no consensuados

Dos años después, esas mejoras de productividad no se han materializado en su mayor parte. Y hemos visto que ha sucedido algo peculiar y ligeramente inesperado: las personas han comenzado a establecer relaciones con los sistemas de IA. Hablamos con ellos, les decimos por favor y gracias, y hemos comenzado a invitar a las IA a nuestras vidas como amigos, amantes, mentores, terapeutas y maestros.

Estamos presenciando un gigantesco experimento en el mundo real, y todavía no se sabe con certeza qué impacto tendrán estos compañeros de IA en nosotros individualmente o en la sociedad en su conjunto, sostienen Robert Mahari, candidato a doctorado en el Media Lab del . y la Facultad de Derecho de Harvard, y Pat Pataranutaporn, investigador del Media Lab del .. Dicen que tenemos que prepararnos para una “inteligencia adictiva”, o compañeros de IA que tienen patrones oscuros incorporados para engancharnos. Puedes leer su artículo aquí. Analizan cómo la regulación inteligente puede ayudarnos a prevenir algunos de los riesgos asociados con los chatbots de IA que se meten en lo más profundo de nuestras cabezas.

La idea de que formaremos vínculos con compañeros de IA ya no es solo hipotética. Es probable que los chatbots con voces aún más emotivas, como GPT-4o de OpenAI, nos atraigan aún más. Prueba de seguridadOpenAI observó que los usuarios utilizaban un lenguaje que indicaba que habían formado conexiones con modelos de IA, como “Este es nuestro último día juntos”. La propia empresa admite que la dependencia emocional es un riesgo que podría verse acentuado por su nuevo chatbot con voz.

Ya hay evidencia de que nos estamos conectando a un nivel más profundo con la IA, incluso cuando se limita a intercambios de texto. Mahari fue parte de un grupo de investigadores que analizaron Un millón de registros de interacción de ChatGPTy reveló que el segundo uso más popular de la IA es el juego de roles sexuales. Aparte de eso, el caso de uso abrumadoramente más popular para el chatbot fue la composición creativa. A la g ente también le gustaba usarlo para generar ideas y planificar, pedir explicaciones e información general sobre cosas.

Este tipo de tareas creativas y divertidas son excelentes formas de utilizar los chatbots de IA. Los modelos de lenguaje de IA funcionan prediciendo la siguiente palabra probable en una oración. Son mentirosos seguros y a menudo presentan falsedades y hechos e inventan cosas o alucinan. Esto importa menos cuando inventar cosas es en realidad el objetivo principal. En junio, mi colega Rhiannon Williams escribió sobre cómo los comediantes encontraron que los modelos de lenguaje de IA eran útiles para generar un primer “borrador de vómito” de su material, al que luego podían agregar su propio ingenio humano para hacerlo divertido.

Pero estos casos de uso no son necesariamente productivos en el sentido financiero. Estoy bastante seguro de que los smutbots no eran lo que los inversores tenían en mente cuando invirtieron miles de millones de dólares en empresas de IA y, combinado con el hecho de que todavía no tenemos una aplicación revolucionaria para IA, no es de extrañar que Wall Street se sienta mucho menos optimista al respecto últimamente.

Los casos de uso que quería Los chatbots, que son “productivos” y, por lo tanto, han sido los más publicitados, han tenido menos éxito en la adopción de la IA. La alucinación comienza a convertirse en un problema en algunos de estos casos de uso, como la generación de código, las noticias y la búsqueda en línea, donde importa mucho hacer las cosas bien. Algunos de los fracasos más vergonzosos de los chatbots han ocurrido cuando las personas han comenzado a confiar demasiado en los chatbots de IA o los han considerado fuentes de información factual. A principios de este año, por ejemplo, la función de descripción general de la IA de Google, que resume los resultados de búsqueda en línea, sugería que las personas comieran piedras y agregaran pegamento a la pizza.

Y ese es el problema con el bombo publicitario sobre la IA: genera expectativas demasiado altas y nos deja decepcionados y desilusionados cuando las promesas, literalmente increíbles, no se hacen realidad. También nos engaña haciéndonos creer que la IA es una tecnología lo suficientemente madura como para generar cambios instantáneos. En realidad, podrían pasar años hasta que veamos sus verdaderos beneficios.