El fatalismo de la IA no nos ayudará a lidiar con sus riesgos reales

Imagen del artículo titulado El fatalismo de la IA no nos ayudará a lidiar con sus riesgos reales

Ilustración: niño de los 80 (Shutterstock)

En los últimos meses, la inteligencia artificial (IA) ha entrado en la conversación mundial como resultado de la adopción generalizada de herramientas generativas basadas en IA, como chatbots y programas de generación automática de imágenes. Destacados científicos y tecnólogos de IA han expresado su preocupación por la riesgos existenciales hipotéticos que plantean estos desarrollos.

Después de haber trabajado en IA durante décadas, este aumento de popularidad y el sensacionalismo que siguió nos tomaron por sorpresa. Nuestro objetivo con este artículo no es antagonizar, sino equilibrar la percepción pública que parece dominada desproporcionadamente por temores a amenazas existenciales especulativas relacionadas con la IA.

No es nuestro lugar decir que uno no puede, o no debe, preocuparse por los riesgos más exóticos. como miembros de la Laboratorio Europeo de Aprendizaje y Sistemas Inteligentes (ELLIS), una organización anclada en la investigación centrada en el aprendizaje automático, creemos que es nuestro lugar poner estos riesgos en perspectiva, particularmente en el contexto de las organizaciones gubernamentales que contemplan acciones regulatorias con aportes de empresas tecnológicas.

¿Qué es la IA?

La IA es una disciplina dentro de la informática o la ingeniería que tomó forma en la década de 1950. Su aspiración es construir sistemas computacionales inteligentes, tomando como referencia la inteligencia humana. Así como la inteligencia humana es compleja y diversa, existen muchas áreas dentro de la inteligencia artificial que tienen como objetivo emular aspectos de la inteligencia humana, desde la percepción hasta el razonamiento, la planificación y la toma de decisiones.

Según el nivel de competencia, los sistemas de IA se pueden dividir en tres niveles:

  • IA estrecha o débil, que se refiere a los sistemas de IA que pueden realizar tareas específicas o resolver problemas particulares, hoy en día a menudo con un nivel de rendimiento superior al de los humanos. Todos los sistemas de IA de hoy son IA limitada. Los ejemplos incluyen chatbots como chatGPTasistentes de voz como Siri y Alexa, sistemas de reconocimiento de imágenes y algoritmos de recomendación.
  • IA general o fuerte, que se refiere a los sistemas de IA que exhiben un nivel de inteligencia similar al de los humanos, incluida la capacidad de comprender, aprender y aplicar conocimientos en una amplia gama de tareas e incorporar conceptos como conciencia. La IA general es en gran medida hipotética y no se ha logrado hasta la fecha.
  • Gran IA, que se refiere a sistemas de IA con una inteligencia superior a la inteligencia humana en todas las tareas. Por definición, no podemos entender este tipo de inteligencia de la misma manera que una hormiga no puede entender nuestra inteligencia. Super AI es un concepto aún más especulativo que la IA general.

La IA se puede aplicar a cualquier campo, desde la educación hasta el transporte, la atención médica, el derecho o la fabricación. Por lo tanto, está cambiando profundamente todos los aspectos de la sociedad. Incluso en su forma de “IA estrecha”, tiene un potencial significativo para generar un crecimiento económico sostenible y ayudarnos hacer frente a los desafíos más apremiantes del siglo XXI, como el cambio climático, las pandemias y la desigualdad.

Retos que plantean los sistemas de IA actuales

La adopción de sistemas de toma de decisiones basados ​​en IA durante la última década en una amplia gama de dominios, desde las redes sociales hasta el mercado laboral, también plantea importantes riesgos y desafíos sociales que deben comprenderse y abordarse.

La reciente aparición de modelos generativos de transformadores preentrenados (GPT) grandes y altamente capaces exacerba muchos de los desafíos existentes y crea otros nuevos que merecen una atención cuidadosa. La escala y la velocidad sin precedentes con las que cientos de millones de personas en todo el mundo han adoptado estas herramientas está ejerciendo una mayor presión sobre nuestros sistemas sociales y regulatorios.

Hay algunos desafíos de importancia crítica que deberían ser nuestra prioridad:

  • El manipulación del comportamiento humano por algoritmos de IA con consecuencias sociales potencialmente devastadoras en la difusión de información falsa, la formación de opiniones públicas y los resultados de los procesos democráticos.
  • algorítmico prejuicios y discriminacion que no solo perpetúan sino que exacerban los estereotipos, los patrones de discriminación o incluso la opresión.
  • La falta de transparencia tanto en los modelos como en sus usos.
  • La violación de la privacidad y el uso de cantidades masivas de datos de entrenamiento sin el consentimiento o compensación de sus creadores.
  • El explotación de los trabajadores anotando, capacitando y corrigiendo sistemas de IA, muchos de los cuales se encuentran en países en desarrollo con salarios exiguos.
  • El huella de carbono masiva de los grandes centros de datos y redes neuronales que se necesitan para construir estos sistemas de IA.
  • La falta de veracidad en los sistemas de IA generativa que inventan contenidos verosímiles (imágenes, textos, audios, vídeos…) sin correspondencia con el mundo real.
  • La fragilidad de estos grandes modelos que pueden cometer errores y ser engañados.
  • El desplazamiento de trabajos y profesiones.
  • La concentración de poder en manos de un oligopolio de los que controlan los sistemas de IA actuales.

¿Es realmente la IA un riesgo existencial para la humanidad?

Desafortunadamente, en lugar de centrarse en estos riesgos tangibles, la conversación pública, sobre todo las cartas abiertas recientes, se ha centrado principalmente en los riesgos existenciales hipotéticos de la IA.

Un riesgo existencial se refiere a un evento o escenario potencial que representa una amenaza para la existencia continua de la humanidad con consecuencias que podrían dañar o destruir irreversiblemente la civilización humana y, por lo tanto, conducir a la extinción de nuestra especie. Un evento catastrófico global (como el impacto de un asteroide o una pandemia), la destrucción de un planeta habitable (debido al cambio climático, la deforestación o el agotamiento de recursos críticos como el agua y el aire limpio) o una guerra nuclear mundial son ejemplos de riesgos existenciales. .

Nuestro mundo ciertamente enfrenta una serie de riesgos, y los desarrollos futuros son difíciles de predecir. Ante esta incertidumbre, debemos priorizar nuestros esfuerzos. La posibilidad remota de una superinteligencia descontrolada debe verse en contexto, y esto incluye el contexto de 3.600 millones de personas en el mundo que son altamente vulnerable debido al cambio climático; los aproximadamente mil millones de personas que viven con menos de 1 dólar estadounidense al día; o los 2 mil millones de personas que son afectado por el conflicto. Estos son seres humanos reales cuyas vidas están en grave peligro hoy en día, un peligro que ciertamente no es causado por la súper IA.

Centrarse en un riesgo existencial hipotético desvía nuestra atención de los graves desafíos documentados que plantea la IA en la actualidad, no abarca las diferentes perspectivas de la comunidad investigadora en general y contribuye al pánico innecesario en la población.

La sociedad seguramente se beneficiaría al incluir la diversidad, la complejidad y los matices necesarios de estos problemas, y al diseñar soluciones prácticas concretas y coordinadas para abordar los desafíos actuales de la IA, que incluyen regulación. Abordar estos desafíos requiere la colaboración y la participación de los sectores más afectados de la sociedad junto con la experiencia técnica y de gobernanza necesaria. Es hora de actuar ahora con ambición y sabiduría, y en cooperación.


¿Quiere saber más sobre la IA, los chatbots y el futuro del aprendizaje automático? Consulte nuestra cobertura completa de inteligencia artificialo explore nuestras guías para Los mejores generadores de arte de IA gratuitos y Todo lo que sabemos sobre ChatGPT de OpenAI.

Los autores de este artículo son miembros de la junta del Laboratorio Europeo de Aprendizaje y Sistemas Inteligentes (ELLIS).

Nuria ÓliverDirectora de la Fundación ELLIS Alicante y profesora honoraria de la Universidad de Alicante, Universidad de Alicante; Bernhard Schoelkopf, Instituto Max Planck de Sistemas Inteligentes; Florencia d’Alché-BucProfesor, Telecom París – Instituto Mines-Telecom; Nada LavračPhD, Consejero de Investigación en el Departamento de Tecnologías del Conocimiento, Instituto Jožef Stefan y Profesor, Universidad de Nova Gorica; Nicolò Cesa-BianchiProfesor, Universidad de Milán; Sepp Hochreiter, Universidad Johannes Kepler de Linzy serge belongieProfesor, Universidad de Copenhague

Este artículo se vuelve a publicar de La conversación bajo una licencia Creative Commons. Leer el artículo original.

Leave a Reply

Your email address will not be published. Required fields are marked *