El Congreso podría realmente hacer algo respecto a la IA, gracias a Taylor Swift

El Congreso podría realmente hacer algo respecto a la IA, gracias a Taylor Swift

Bienvenido a AI This Week, el análisis profundo semanal de Gizmodo sobre lo que ha estado sucediendo en la inteligencia artificial.

Preocupaciones sobre la pornografía basada en IA o, más comúnmente, “porno falso”—no son nuevos. Durante años, innumerables mujeres y niñas han sido sometidas a una avalancha de imágenes pornográficas no consensuadas que son fáciles de distribuir en línea pero bastante difíciles de eliminar. Más destacado, porno deepfake de celebridades ha sido una fuente constante de controversia, que con frecuencia ha atraído atención pero poca tracción legislativa. Ahora, el Congreso finalmente puede hacer algo al respecto gracias a las imágenes sucias generadas por computadora de la estrella pop más famosa del mundo.

Sí, ha sido una historia que ha sido difícil evitar: Hace un par de semanas, Imágenes pornográficas de Taylor Swift generadas por IA se distribuyeron ampliamente en X (anteriormente Twitter). Desde entonces, la base de fans de Swift ha estado alborotada y ha surgido una conversación nacional sobre el conocido tema de la computadora sobre qué hacer con este problema tan familiar.

Ahora, se ha introducido legislación para combatir el problema. La Ley de Interrupción de Imágenes Falsificadas Explícitas y Ediciones No Consensuales (DEFIANCE) fue introducida como legislación bipartidista por los senadores Dick Durbin (D-Ill.), Josh Hawley (R-Mo) y Lindsey Graham (RS.C. ). Si se promulga, el proyecto de ley permitiría a las víctimas de pornografía deepfake demandar a personas que distribuyeran “falsificaciones digitales” de ellos que fueran de naturaleza sexual. La ley propuesta básicamente abriría la puerta a litigios de alto perfil por parte de celebridades femeninas cuyas imágenes se utilizan en casos como el que involucra a Swift. Obviamente, otras mujeres y víctimas también podrían demandar, pero las más ricas y famosas tendrían los recursos para llevar a cabo ese litigio.

El proyecto de ley define la “falsificación digital” como “una representación visual creada mediante el uso de software, aprendizaje automático, inteligencia artificial o cualquier otro medio tecnológico o generado por computadora para parecer falsamente auténtico”.

“Este mes, imágenes falsas y sexualmente explícitas de Taylor Swift que fueron generados por inteligencia artificial se extendieron por las plataformas de redes sociales. Aunque las imágenes pueden ser falsas, el daño a las víctimas por la distribución de ‘deepfakes’ sexualmente explícitos es muy real”, dijo el senador Durbin, en comunicado de prensa

asociado a la factura. El comunicado de prensa también señala que “el volumen de contenido ‘deepfake’ disponible en línea está aumentando exponencialmente a medida que la tecnología utilizada para crearlo se vuelve más accesible al público”.

Como se señaló anteriormente, la pornografía AI o Deepfake ha sido un problema constante durante bastante tiempo, pero los avances en la IA en los últimos años han hecho que la generación de pornografía realista (aunque un poco extraña) mucho, mucho más fácil. La llegada de generadores de imágenes gratuitos y accesibles, como DALL-E de OpenAI y otros de su tipo, significa que prácticamente cualquiera puede crear la imagen que quiera (o, al menos, puede crear la mejor aproximación de un algoritmo a lo que quiera). con solo hacer clic en un botón. Esto ha causado una serie de problemas en cascada, incluido un explosión aparente de material de abuso infantil generado por computadora que los gobiernos y los reguladores de contenidos no parecen saber cómo combatir.

La conversación sobre la regulación de los deepfakes se ha abordado una y otra vez, aunque el Congreso ha presentado o abandonado repetidamente esfuerzos serios para implementar alguna política nueva.

Sin embargo, hay pocas formas de saber si este esfuerzo en particular tendrá éxito, como Amanda Hoover de Wired. recientemente señalósi Taylor Swift no puede derrotar al porno deepfake, nadie podrá.

Pregunta del día: ¿Puede el nuevo robot de Meta limpiar tu asqueroso dormitorio?

OK-Robot: Inicio 10

Actualmente hay una carrera en Silicon Valley para ver quién puede crear el robot más viable comercialmente. Si bien la mayoría de las empresas parecen estar preocupadas por Creando un ingenioso robot “humanoide”

Eso recuerda a los espectadores a C3PO, Meta puede estar ganando la carrera para crear un robot auténticamente funcional que pueda hacer cosas por ti. Esta semana, investigadores conectados a la compañía dieron a conocer su OK-Robot, que parece un soporte de lámpara conectado a un Roomba. Si bien el dispositivo puede parecer tonto, el sistema de inteligencia artificial que impulsa la máquina es un asunto serio. En varios videos de YouTube, se puede ver al robot recorriendo una habitación desordenada y recogiendo y reubicando varios objetos. Los investigadores dicen que el robot utiliza “modelos de visión y lenguaje (VLM) para la detección de objetos, primitivas de navegación para el movimiento y primitivas de agarre para la manipulación de objetos”. En otras palabras, esta cosa puede ver cosas, agarrarlas y moverse en un espacio físico con bastante competencia. Además, el robot hace esto en entornos en los que nunca antes había estado, lo cual es una hazaña impresionante para un robot, ya que la mayoría de ellos sólo pueden realizar tareas en entornos altamente controlados.

Otros titulares de esta semana:

  • Las empresas de IA acaban de perder un montón de valor de sus acciones. La capitalización de mercado de varias grandes empresas de inteligencia artificial se desplomó esta semana después de que sus informes de ganancias trimestrales mostraran que habían generado ingresos significativamente menores de lo que esperaban los inversores. La empresa matriz de Google, Alphabet, Microsoft y el fabricante de chips AMD presenciaron una venta masiva el martes. Reuters Informes queEn total, las empresas perdieron 190 mil millones de dólares en capitalización de mercado. En serio, ¡ay! Eso es mucho.
  • La FCC podría criminalizar las llamadas automáticas generadas por IA. La IA ha permitido que el fraude en línea se generalice, acelerando las estafas en línea que ya eran molestas pero que, gracias a las nuevas formas de automatización, ahora son peores que nunca. La semana pasada, el presidente Joe Biden fue objeto de una llamada automática generada por IA y, como resultado, la Comisión Federal de Comunicaciones ahora quiere prohibir legalmente tales llamadas. “La clonación de voz e imágenes generadas por IA ya están sembrando confusión al engañar a los consumidores haciéndoles pensar que las estafas y los fraudes son legítimos”, dijo Jessica Rosenworcel, presidenta de la FCC, en una declaración enviado a NBC.
  • Amazon presenta un asistente de compras con inteligencia artificial. La empresa de comercio electrónico más grande del mundo ha lanzado un chatbot entrenado con inteligencia artificial, denominado “Rufus”, que está diseñado para ayudarlo a comprar cosas de manera más eficiente. Rufus es descrito como un “Asistente de compras experto capacitado en el catálogo de productos de Amazon y en información de toda la web para responder las preguntas de los clientes sobre necesidades de compra, productos y comparaciones”. Si bien me siento tentado a burlarme de esto, debo admitir: comprar puede ser difícil. A menudo parece que se requiere una cantidad ridícula de investigación solo para realizar las compras más simples. Sólo el tiempo dirá si Rufus realmente puede ahorrarle tiempo al usuario ocasional de la web o si “alucinará” algún consejo espantoso que empeorará aún más su viaje de comercio electrónico. Si este último resulta ser el caso, voto por presionar a Amazon para que cambie el nombre del robot a “Doofus”.

Leave a Reply

Your email address will not be published. Required fields are marked *