El desarrollo de la IA se detuvo

El desarrollo de la IA se detuvo

Descargo de responsabilidad: las opiniones expresadas en esta historia pertenecen únicamente al autor a menos que se indique lo contrario.

Desde el lanzamiento de ChatGPT en noviembre pasado, el desarrollo de la inteligencia artificial (IA) se ha acelerado. Los gigantes tecnológicos de todo el mundo (Google, Microsoft y ByteDance, por nombrar algunos) han invertido mucho en programas impulsados ​​por IA, como chatbots y algoritmos de descubrimiento de contenido.

Hoy, ChatGPT es conocida como la aplicación de más rápido crecimiento de todos los tiempos con 100 millones de usuarios activos a partir de enero de 2023. En marzo, OpenAI, la compañía detrás de ChatGPT, lanzó la próxima versión de su chatbot, GPT-4, que ha demostrado ser mucho más pulido que cualquiera de sus predecesores.

GPT-4 puede interpretar no solo texto sino también entrada visual. Puede describir imágenes, interpretar gráficos, resolver problemas complejos y citar fuentes con precisión. Según OpenAI, es un 40 por ciento más probable que proporcione respuestas fácticas que su iteración anterior.

El uso de GPT-4 va más allá de los límites de la industria. La aplicación de aprendizaje de idiomas Duolingo utiliza la tecnología para llevar conversaciones similares a las de los humanos a sus usuarios. En finanzas, empresas como Morgan Stanley y Stripe han utilizado GPT-4 para organizar datos y ayudar con la detección de fraudes.

Las empresas emergentes como Groundup.ai van aún más allá y contratan a personas que usan ChatGPT principalmente para respaldar los objetivos comerciales.

Con todas estas capacidades, desde la creación de aplicaciones hasta la redacción de casos judiciales, GPT-4 supera los límites de la tecnología de IA. Pero a pesar de lo prometedores que son estos desarrollos, muchos han expresado su preocupación por el ritmo al que están surgiendo.

Una pausa de seis meses en el desarrollo de IA

En marzo de este año, el Future of Life Institute publicó una carta abierta en la que pedía la detención de todos los experimentos de IA más potentes que GPT-4. La carta argumenta que los sistemas de IA con inteligencia similar a la humana podrían plantear graves riesgos para la sociedad y la humanidad.

Con los desarrolladores avanzando en esta tecnología a una velocidad vertiginosa, hay pocas posibilidades de contingencia si las cosas se salen de control. Los sistemas de IA potentes pueden ser difíciles de entender o controlar, y no hay garantía de que su impacto sea positivo.

chatgpt
ChatGPT ha superado el millón de usuarios en los primeros cinco días de su lanzamiento / Captura de pantalla de ChatGPT

La carta aboga por que los laboratorios e investigadores de IA se unan y desarrollen protocolos de seguridad comunes supervisados ​​por expertos independientes.

Con más de 50,000 firmas recolectadas, ha sido respaldado por figuras tecnológicas líderes, incluido el CEO de SpaceX, Elon Musk, y el cofundador de Apple, Steve Wozniak. Los fundadores de Skype, Ripple y Pinterest también se encuentran entre los firmantes.

¿Es suficiente el autocontrol?

La carta del Future of Life Institute cita un artículo de OpenAI del CEO Sam Altman, que habla sobre la inteligencia artificial general (AGI), definida como IA que generalmente es más inteligente que los humanos.

Altman reconoce los riesgos que plantea AGI y la necesidad de una transición gradual que dé a los legisladores e instituciones tiempo suficiente para promulgar regulaciones.

Continúa explicando que a medida que los sistemas de OpenAI se acercan a la clasificación AGI, la empresa toma precauciones y considera incluso los escenarios más extremos, como: B. Una amenaza para la civilización y la existencia humana de la IA. Si bien tales ideas pueden parecer descabelladas, OpenAI reconoce los argumentos que se han presentado para respaldarlas.

sam altman openai
Crédito de la foto: Business Insider/OpenAI

Un AGI superinteligente desalineado podría causar graves daños al mundo; un régimen autocrático con una ventaja de superinteligencia crucial podría hacer lo mismo.

– Sam Altman, director ejecutivo de OpenAI

Dicho esto, no todas las empresas pueden tener los mismos estándares de autorregulación. Con miles de millones por hacer en lo que se conoce como la “carrera armamentista” de la IA, hay mucho por hacer siendo despiadado.

Esta lección también se puede encontrar en la historia reciente al observar la rápida aparición de las criptomonedas. La reciente caída del mercado, desencadenada por eventos como la caída de LUNA/UST y el colapso de FTX, podría haberse evitado con una mejor supervisión por parte de los responsables políticos.

Por lo tanto, la necesidad de una intervención regulatoria en IA es cada día más clara.

Nuevas amenazas de IA

Si bien el dominio del mundo de la IA aún no es un problema apremiante, todavía hay preocupaciones que deben abordarse. Un desafío particular es el del sesgo inherente.

ChatGPT está capacitado en bases de datos existentes y se sabe que refleja sus sesgos. Estos a menudo pueden tomar la forma de comentarios despectivos.

Altman reconoció esta desventaja y afirmó que OpenAI está trabajando en un chatbot más objetivo.

Este es un gran muro para escalar, y tal vez uno imposible. Por ejemplo, considere un aviso que le pida a ChatGPT que escriba una broma. OpenAI puede evitar bromas sobre ciertos temas y permitir otros. Su chatbot ahora reflejaría un conjunto de valores morales que consideran aceptables. Para bien o para mal, no sería del todo objetivo.

Para evitar esto realmente, es posible que OpenAI deba evitar que ChatGPT escriba chistes, así como historias y poemas. También se cuestionaría la capacidad de GPT-4 para describir imágenes. Esto eliminaría algunas de las características clave que diferencian a estos bots de IA de los motores de búsqueda tradicionales.

Para que un software de IA tenga una inteligencia verdaderamente humana, una brújula moral podría ser un requisito previo. Esto se aplica no solo a los chatbots, sino también a otras aplicaciones de IA. Tomemos, por ejemplo, los automóviles que se conducen solos: para tener vehículos completamente autónomos, tendrían que adoptar una postura moral sobre dilemas como el problema del trolebús.

Dejando a un lado el sesgo, las herramientas de IA podrían usarse para difundir información errónea, a través de videos falsos, imitación de audio, y violar las leyes de derechos de autor y propiedad intelectual.

Ya sea texto, imágenes o video, distinguir el contenido producido por IA del creado por humanos ya se ha convertido en un desafío. Las regulaciones y las precauciones de seguridad aún no se han puesto al día, lo que nuevamente indica la necesidad de moderar la innovación en esta área.

Crédito de la imagen seleccionada: Wikimedia/OpenAI

Leave a Reply

Your email address will not be published. Required fields are marked *