No cometamos con la IA los mismos errores que cometimos con las redes sociales

No cometamos con la IA los mismos errores que cometimos con las redes sociales

La razón de estos resultados es estructural. Los efectos de red de las plataformas tecnológicas empujan a unas pocas empresas a convertirse en dominantes, y el bloqueo garantiza su dominio continuo. Los incentivos en el sector tecnológico son tan espectaculares y deslumbrantemente poderosos que han permitido a seis megacorporaciones (Amazon, Apple, Google, Meta, matriz de Facebook, Microsoft y Nvidia) controlar una billones de dólares cada uno de valor de mercado, o más. Estas empresas utilizan su riqueza para bloquear cualquier legislación significativa que pueda restringir su poder. Y ellos a veces confabularse unos con otros para engordar aún más.

Es evidente que este ciclo está empezando a repetirse en la IA. No busque más, el modelo de la industria OpenAI, cuya oferta líder, ChatGPT, continúa

establecer marcas de aceptación y uso. Un año después del lanzamiento del producto, la valoración de OpenAI había se disparó a unos 90 mil millones de dólares.

OpenAI alguna vez pareció una alternativa “abierta” a las megacorporaciones: un proveedor común de servicios de IA con una misión sin fines de lucro de orientación social. Pero el despido y recontratación de Sam Altman debacle a finales de 2023, y el papel central de Microsoft en la restauración de Altman al puesto de director ejecutivo, simplemente ilustró cómo la financiación de riesgo de las filas familiares de la élite tecnológica impregna y controla la IA corporativa. En enero de 2024, OpenAI dio un gran paso hacia la monetización de esta base de usuarios al presentando

su Tienda GPT, donde un cliente de OpenAI puede cobrar a otro por el uso de sus versiones personalizadas del software OpenAI; OpenAI, por supuesto, recauda ingresos de ambas partes. Esto pone en marcha el mismo ciclo sobre el que advierte Doctorow.

En medio de esta espiral de explotación, se presta poca o ninguna atención a las externalidades que afectan al público en general: personas que ni siquiera utilizan las plataformas. Incluso después de que la sociedad haya luchado con sus efectos nocivos durante años, las redes sociales monopólicas prácticamente no tienen incentivos para controlar el impacto ambiental de sus productos, la tendencia a difundir información errónea o los efectos perniciosos sobre la salud mental. Y el gobierno prácticamente no ha aplicado ninguna regulación para esos fines.

Del mismo modo, existen pocas o ninguna barrera para limitar el posible impacto negativo de la IA. Reconocimiento facial

software que constituye perfiles raciales, opiniones públicas simuladas potenciado por chatbots, vídeos falsos en anuncios políticos, todo esto persiste en un área legal gris. Incluso los infractores claros de la ley de publicidad de campaña podrían, algunos piensanquedarán libres de culpa si simplemente lo hacen con IA.

Mitigar los riesgos

Los riesgos que la IA plantea para la sociedad son sorprendentemente familiares, pero hay una gran diferencia: aún no es demasiado tarde. Esta vez, sabemos que todo llegará. Recién salida de nuestra experiencia con los daños causados ​​por las redes sociales, tenemos todas las advertencias que deberíamos necesitar para evitar los mismos errores.

El mayor error que cometimos con las redes sociales fue dejarlas como un espacio no regulado. Incluso ahora, después de todos los estudios y revelaciones de los efectos negativos de las redes sociales en los niños y la salud mental, después de Cambridge Analytica, después de la exposición de la intervención rusa en nuestra política, después de todo lo demás: las redes sociales en los EE. UU. siguen siendo en gran medida no reguladas “arma de destrucción masiva.” El Congreso recibirá millones de dólares en contribuciones de las Big Tech, y los legisladores incluso invertir millones de sus propios dólares con esas empresas, pero aprobar leyes que limiten o penalicen su comportamiento parece ser un puente demasiado lejos.

No podemos darnos el lujo de hacer lo mismo con la IA, porque hay mucho en juego. El daño que pueden causar las redes sociales proviene de cómo afectan nuestra comunicación. La IA nos afectará de la misma manera y de muchas más. Si la trayectoria de las Big Tech es una señal, las herramientas de IA estarán cada vez más involucradas en cómo aprendemos y cómo expresamos nuestros pensamientos. Pero estas herramientas también influirán en cómo programamos nuestras actividades diarias, cómo diseñamos productos, cómo redactamos leyes e incluso cómo diagnosticamos enfermedades. El papel expansivo de estas tecnologías en nuestra vida diaria brinda a las corporaciones con fines de lucro oportunidades para ejercer control sobre más aspectos de la sociedad, y eso nos expone a los riesgos que surgen de sus incentivos y decisiones.

Leave a Reply

Your email address will not be published. Required fields are marked *