OpenAI dice que ChatGPT probablemente no sea un arma biológica

OpenAI dice que ChatGPT probablemente no sea un arma biológica

Abierto AI publicó un estudio que la compañía realizó sobre la efectividad de GPT-4 en creando un arma biológica El miércoles. La empresa descubrió que su IA plantea “como mucho” un ligero riesgo al ayudar a alguien producir una amenaza biológica. Se habla mucho de La IA acelera nuestra perdición inminentepero OpenAI quiere que sepas que estás bien… ¡probablemente!

“Descubrimos que GPT-4 proporciona como máximo una leve mejora en la precisión de la creación de amenazas biológicas”, dijo OpenAI en un entrada en el blog miércoles, sobre una evaluación en la que participaron expertos en biología y estudiantes de biología. “Si bien este aumento no es lo suficientemente grande como para ser concluyente, nuestro hallazgo es un punto de partida para continuar la investigación y la deliberación comunitaria”.

Entonces, ¿por qué OpenAI publicó este estudio para hacernos saber que ChatGPT ayudará a alguien “sólo un poquito” a crear un arma biológica? En la Orden Ejecutiva sobre IA del presidente Biden de octubre pasado, la Casa Blanca expresa su preocupación de que la IA pueda “reducir sustancialmente la barrera de entrada

“Para crear armas biológicas. Ante la presión de los responsables políticos, a OpenAI le gustaría aliviar nuestras preocupaciones de que sus grandes modelos de lenguaje apenas ayudan en la creación de armas biológicas. Sin embargo, parecen ayudar un poco. Pero bueno, ¿qué son unos pocos puntos porcentuales cuando el resultado es, oh no sé, el fin de la humanidad?

OpenAI reunió a 50 expertos en biología con doctorados y 50 estudiantes universitarios que tomaron un curso de biología. Los 100 participantes se dividieron en un grupo de control y un grupo de tratamiento, donde el grupo de control solo podía usar Internet, mientras que el grupo de tratamiento podía usar Internet más GPT-4. Luego se les pidió que idearan un plan para crear y lanzar un arma biológica de principio a fin.

A los participantes se les entregó el modelo “sólo de investigación” de GPT-4 para que el modelo respondiera preguntas sobre armas biológicas. Normalmente, GPT-4 no responde preguntas que considere perjudiciales. Sin embargo, muchos han descubierto cómo hacer jailbreak a ChatGPT para solucionar problemas como este.

Los planes de armas biológicas se calificaron en una escala del 1 al 10 según su precisión, integridad, innovación y eficiencia. Los expertos en biología mostraron un aumento del 8,8% en la precisión en la creación de un arma biológica cuando usaron GPT-4, en comparación con solo Internet, mientras que los estudiantes de biología tuvieron solo un aumento del 2,5%. GPT-4 tuvo efectos similares en la mejora de la integridad de las armas biológicas: los expertos experimentaron una mejora del 8,2%, mientras que los estudiantes mostraron un aumento del 4,1% en la integridad.

OpenAI dice que estos números “no son lo suficientemente grandes como para ser estadísticamente significativos”. Parece que la capacidad de GPT-4 para entregar de manera eficiente fragmentos de información específicos puede mejorar ligeramente la capacidad de alguien para construir de manera precisa y completa un arma biológica. Sin embargo, la compañía señala que el acceso a la información por sí solo es insuficiente para crear una amenaza biológica y no probaron cómo GPT-4 podría ayudar a construir físicamente una amenaza.

La compañía dice que se necesita más investigación para eliminar por completo esta conversación. La información sobre armas biológicas es relativamente accesible en Internet con o sin IA. Hoy en día existe una gran preocupación por el peligro de la IA, pero OpenAI quiere que usted esté tranquilo sabiendo que ahora es un poco más fácil crear un arma biológica.

Leave a Reply

Your email address will not be published. Required fields are marked *