Sam Altman de OpenAI dice que no hay chat GPT-5 de qué preocuparse… todavía

Sam Altman de OpenAI dice que no hay chat GPT-5 de qué preocuparse… todavía

Sam Altman ha aplastado rumores de que OpenAI ya está trabajando en ChatGPT-5, solo un mes después de la lanzamiento de la compañía de su GPT-4. Actualmente, no hay GPT-5 en entrenamiento, dijo Altman mientras hablando virtualmente en un evento en el Instituto Tecnológico de Massachusetts.

El entrevistador Lex Fridman, investigador de IA en el MIT, le preguntó a Altman qué pensaba sobre el recientemente publicado y ampliamente difundido carta abierta exigiendo una pausa de IA. En respuesta, el fundador de OpenAI compartió algunas de sus críticas. “Una versión anterior de la carta afirmaba que OpenAI está entr enando GPT-5 en este momento. No lo somos, y no lo haremos por algún tiempo”, señaló Altman. “Entonces, en ese sentido, [the letter] fue un poco tonto.

Pero, GPT-5 o no, es probable que la declaración de Altman no sea particularmente tranquilizadora para las críticas de AI, como se señaló por primera vez en un informe de el borde. El fundador tecnológico siguió con su anuncio de “no GPT-5” al aclarar de inmediato que se están trabajando mejoras y actualizaciones para GPT-4. Hay formas de aumentar la capacidad de una tecnología más allá de lanzar una versión oficial de mayor número.

“Estamos haciendo otras cosas además de GPT-4 que creo que tienen todo tipo de problemas de seguridad que son importantes de abordar y que quedaron totalmente fuera de la carta”, dijo Altman, en esencia, admitiendo que OpenAI está enviando ajustes de productos que puede no estar totalmente optimizado

por el bien de la humanidad o la seguridad del usuario. Por ejemplo, a fines de marzo, la compañía lanzó un complemento para GPT-4 que permite su gran modelo de lenguaje navega por Internet, lo que podría conducir a aún más privacidad de datos y manipulación del usuario preocupaciones.

Altman hizo un escaso esfuerzo por calmar los temores de la IA. Dijo que OpenAI pasó más de seis meses entrenando GPT-4 antes de su lanzamiento público. También señaló que “tomarse el tiempo para estudiar realmente la seguridad del modelo… eso es importante”.

“A medida que las capacidades se vuelven más y más serias, la barra de seguridad debe aumentar”, agregó Altman. “Creo que moverse con precaución y un rigor cada vez mayor en cuestiones de seguridad es realmente importante. La carta, no creo que sea la forma óptima de abordarla”.

Sin embargo, probablemente deberías tomar La priorización de seguridad del CEO de OpenAI afirma con cierto escepticismo. Incluso en la entrevista del MIT del jueves, no todo lo que empresario controvertido dicho sonaba cierto.

Cuando se le preguntó si OpenAI seguirá siendo transparente en el futuro, Altman dijo que “ciertamente planeamos seguir haciéndolo”. Excepto que la pregunta en sí misma es engañosa. OpenAI, que una vez fue una organización sin fines de lucro verdaderamente de código abierto, se ha convertido en una corporación con fines de lucro cada vez más cerrada. GPT-4, especialmente, es una caja negra. La compañía no ha publicado ninguna información sobre los datos de capacitación en los que se ajustó su chatbot más reciente. Tampoco ha compartido ninguna información sobre la arquitectura, la construcción u otro funcionamiento interno real de GPT-4.

“Dado el panorama competitivo y las implicaciones de seguridad de los modelos a gran escala como GPT-4, este informe no contiene más detalles sobre la arquitectura (incluido el tamaño del modelo), el hardware, el cálculo de entrenamiento, la construcción de conjuntos de datos, el método de entrenamiento o similar”. OpenAI escribió en el informe tecnico que la compañía publicó junto con el lanzamiento de GPT-4.

Altman también estaba seguro de darse una salida. Las cosas que dice, bueno, puede que no esté seguro de que sean correctas:

Creo que muchas otras empresas no quieren decir algo hasta que estén seguros de que es correcto. Pero creo que esta tecnología nos va a impactar tanto a todos, que creemos que involucrar a todos en la discusión, poner estos sistemas en el mundo, por muy imperfectos que sean en su estado actual, para que las personas puedan experimentarlos, pensar en ellos, comprender las ventajas y desventajas; Vale la pena el intercambio, aunque tendemos a avergonzarnos en público y tenemos que cambiar de opinión con frecuencia con nuevos datos.

Puede creer que los chatbots de IA son El principio del fin de la raza humana. O puede pensar que todos esto de la llamada “inteligencia artificial” está sobrevalorado. Independientemente de su posición en la convocatoria de un Sin embargo, la moratoria de IA de seis meses, la respuesta de Altman a la carta abierta es, en última instancia, algo así como una no respuesta.

Leave a Reply

Your email address will not be published. Required fields are marked *