La nueva demostración de Meta AI escribe literatura científica racista e inexacta, es retirada

La nueva demostración de Meta AI escribe literatura científica racista e inexacta, es retirada
Una ilustración generada por IA de robots haciendo ciencia.
Agrandar / Una ilustración generada por IA de robots haciendo ciencia.

Ars Technica

El martes, Meta AI dio a conocer una demostración de Galactica, un gran modelo de lenguaje diseñado para “almacenar, combinar y razonar sobre el conocimiento científico”. Si bien tenía la intención de acelerar la escritura de literatura científica, los usuarios adversarios que realizaron pruebas descubrieron que también podría generar tonterías realistas. Después de varios días de crítica éticaMeta desconectó la demostración, informes Revisión de tecnología del ..

Los modelos de lenguaje grande (LLM), como GPT-3 de OpenAI, aprenden a escribir texto estudiando millones de ejemplos y comprendiendo las relaciones estadísticas entre palabras. Como resultado, pueden crear documentos que suenan convincentes, pero esos trabajos también pueden estar plagados de falsedades y estereotipos potencialmente dañinos. Algunos críticos llaman a los LLM “loros estocásticos

” por su capacidad para escupir texto de manera convincente sin comprender su significado.

Ingrese a Galactica, un LLM destinado a escribir literatura científica. Sus autores entrenaron a Galactica en “un corpus grande y curado del conocimiento científico de la humanidad”, que incluye más de 48 millones de artículos, libros de texto y notas de conferencias, sitios web científicos y enciclopedias. De acuerdo a papel de galactica

los investigadores de Meta AI creían que estos supuestos datos de alta calidad conducirían a resultados de alta calidad.

Una captura de pantalla del sitio web Galactica de Meta AI antes de que finalice la demostración.
Agrandar / Una captura de pantalla del sitio web Galactica de Meta AI antes de que finalice la demostración.

Meta IA

A partir del martes, los visitantes del sitio web galáctica podría escribir indicaciones para generar documentos como revisiones de literatura, artículos wiki, notas de conferencias y respuestas a preguntas, de acuerdo con los ejemplos proporcionados por el sitio web. El sitio presentó el modelo como “una nueva interfaz para acceder y manipular lo que sabemos sobre el universo”.

Mientras que algunas personas encontraron la demostración prometedor y útilotros pronto descubrieron que cualquiera podía escribir racista o mensajes potencialmente ofensivos, generando contenido que suene autorizado sobre esos temas con la misma facilidad. Por ejemplo, alguien lo usó para autor una entrada de wiki sobre un trabajo de investigación ficticio titulado “Los beneficios de comer vidrio triturado”.

Incluso cuando la producción de Galactica no ofendía las normas sociales, el modelo podía atacar hechos científicos bien entendidos, escupiendo inexactitudes como fechas incorrectas o nombres de animales, lo que requiere un conocimiento profundo del tema a capturar.

Como resultado, Meta tirado la demostración de Galactica el jueves. Posteriormente, el científico jefe de IA de Meta, Yann LeCun tuiteó“La demostración de Galactica está fuera de línea por ahora. Ya no es posible divertirse haciendo un mal uso casual. ¿Feliz?”

El episodio recuerda un dilema ético común con la IA: cuando se trata de modelos generativos potencialmente dañinos, ¿depende del público en general usarlos de manera responsable o de los editores de los modelos para evitar el uso indebido?

El lugar donde la práctica de la industria se encuentre entre esos dos extremos probablemente variará entre culturas y a medida que maduren los modelos de aprendizaje profundo. En última instancia, la regulación gubernamental puede terminar desempeñando un papel importante en la configuración de la respuesta.

Leave a Reply

Your email address will not be published. Required fields are marked *