Sora de OpenAI nos acerca un paso gigantesco hacia el abismo de la IA

Sora de OpenAI nos acerca un paso gigantesco hacia el abismo de la IA

Es difícil escribir sobre sora sin sentir que tu mente se derrite. Pero después de OpenAI Anuncio sorpresa de inteligencia artificial. Ayer por la tarde, tuvimos nuestra mejor evidencia hasta el momento de lo que una industria tecnológica aún no regulada y sin consecuencias quiere venderle: un conjunto de productos de IA de caja negra, hambrientos de energía, capaces de producir medios fotorrealistas que traspasan los límites de la legalidad, la privacidad y la privacidad. realidad objetiva.

A menos que exista una regulación decisiva, reflexiva y exhaustiva, el panorama en línea bien podría volverse prácticamente irreconocible y, de algún modo, incluso menos confiable que nunca. Una vez que el comprensible factor “sorpresa” de los mamuts lanudos hiperrealistas y los paisajes oceánicos artísticos en papel desaparece, el nuevo proyecto de distorsión del CEO Sam Altman sigue siendo preocupante.

El concepto detrás de Sora (cielo en japonés) no es nada particularmente nuevo: aparentemente es un programa de inteligencia artificial capaz de generar videos de alta definición basándose únicamente en las entradas de texto descriptivo del usuario. En pocas palabras: según se informa, Sora combina el modelo de difusión de texto a imagen que impulsa DALL-E con un sistema de red neuronal conocido como transformador. Aunque generalmente se usa para analizar secuencias de datos masivas, como texto, OpenAI supuestamente adaptó la tecnología del transformador para manejar cuadros de video de manera similar.

“Aparentemente”, “supuestamente”, “supuestamente”. Todas estas advertencias son necesarias al describir a Sora, porque como Revisión de tecnología del MIT Como explica, OpenAI solo concedió acceso a los clips de ejemplo de ayer después de que los medios de comunicación acordaron esperar hasta el anuncio oficial de la compañía para “buscar la opinión de expertos externos”. E incluso cuando OpenAI hizo Para obtener una vista previa de su experimento más reciente, lo hicieron sin publicar un informe técnico o una demostración de backend del modelo que “realmente funciona”.

Esto significa que, en el futuro imaginable, ni un solo organismo regulador externo, funcionario electo, organismo de control de la industria o reportero de tecnología de baja categoría lo sabrá. cómo Sora está renderizando los medios más asombrosos jamás producidos por IA. qué datos que la compañía de Altman recopiló para entrenar su nuevo programa, y cómo mucho Se requiere energía para alimentar estas representaciones de video de un minuto. Estás a merced de lo que OpenAI decide compartir con el público: una empresa cuyo director ejecutivo advirtió repetidamente que el riesgo de extinción de la IA es a la par de la guerra nuclearpero que sólo a hombres como él se les pueden confiar los fondos y recursos para evitar que esto suceda.

La velocidad a la que llegamos hasta aquí es tan vertiginosa como los propios vídeos. Nuevo Atlas ofreció ayer un resumen sólido de la situación: los clips de muestra de OpenAI de ninguna manera son perfectos, pero en solo nueve meses, hemos pasado del “terror cómico” de AI Will Smith comiendo espaguetis, hasta videos casi fotorrealistas de alta definición que muestran calles abarrotadas de ciudades, animales extintos y personajes imaginarios de fantasía infantil. ¿Cómo será una tecnología similar dentro de nueve meses, en vísperas de una de las elecciones presidenciales estadounidenses más importantes de la historia moderna?

Una vez que superas las impresiones del truco de salón de Sora, es difícil ignorar las preocupantes implicaciones. Claro, los videos son maravillas tecnológicas. Claro, Sora podría producir resultados innovadores, divertidos e incluso útiles. Pero, ¿y si alguien lo usara para ceder, bueno, cualquier cosa ¿Aparte de “innovador”, “divertido” o “útil”? Los humanos son mucho más ingeniosos que cualquier programa de IA generativa. Hasta ahora, liberar estas cosas sólo ha requerido algo de dedicación, paciencia y el deseo de manipular la tecnología para obtener ganancias de mala fe.

Empresas como OpenAI prometen que actualmente están desarrollando protocolos de seguridad y estándares industriales para evitar que los malos actores exploten nuestro nuevo mundo tecnológico, un territorio inexplorado en el que continúan atacando imprudentemente con proyectos como Sora. Y, sin embargo, han fracasado estrepitosamente a la hora de implementar incluso las salvaguardias más básicas: los deepfakes abusan de los cuerpos humanos, los distritos escolares utilizan ChatGPT para acceder a las prohibiciones fascistas de libros y la línea entre la realidad y la ficción continúa difuminándose.

[Related: Generative AI could face its biggest legal tests in 2024.]

OpenAI dice que no hay planes inmediatos para la publicación pública de Sora y que están realizando pruebas del equipo rojo para “evaluar áreas críticas en busca de daños o riesgos”. Pero salvo cualquier tipo de rechazo regulatorio, es posible que OpenAI desate a Sora lo antes posible.

“Sora sirve como base para modelos que pueden comprender y simular el mundo real, una capacidad que creemos será un hito importante para lograr [Artificial General Intelligence]”, dijo OpenAI en el anuncio de ayer, una vez más refiriéndose explícitamente al objetivo de la compañía de crear una IA que sea prácticamente indistinguible de los humanos.

Sora, un modelo para comprender y simular el mundo real, al menos lo que queda de él.

Leave a Reply

Your email address will not be published. Required fields are marked *