ChatGPT, Google Bard y AI Biz tienen un problema de ‘free rider’

Imagen del artículo titulado La IA tiene un problema de 'viajero gratuito'

Foto: fizkes (Shutterstock)

El 22 de marzo de 2023, miles de investigadores y líderes tecnológicos, incluidos Elon Musk y el cofundador de Apple, Steve Wozniak, publicaron un carta abierta llamando a frenar la carrera de la int eligencia artificial. Específicamente, la carta recomendaba que los laboratorios detuvieran el entrenamiento para tecnologías más fuertes que GPT-4 de OpenAI, el generación más sofisticada

de los sistemas de inteligencia artificial generadores de lenguaje actuales, durante al menos seis meses.

Haciendo sonar la alarma riesgos que plantea la IA no es nada nuevo: los académicos han emitido advertencias sobre los riesgos de máquinas superinteligentes desde hace décadas. Todavía no hay consenso sobre la probabilidad de crear inteligencia general artificialsistemas autónomos de IA que coinciden o exceder a los humanos en la mayoría de las tareas económicamente valiosas. Sin embargo, está claro que los sistemas de IA actuales ya plantean muchos peligros, desde el sesgo racial en tecnología de reconocimiento facial a la creciente amenaza de desinformación y estudiante haciendo trampa.

Si bien la carta pide que la industria y los formuladores de políticas cooperen, actualmente no existe un mecanismo para hacer cumplir tal pausa. Como un filósofo que estudia la ética de la tecnologíahe notado que la investigación de IA ejemplifica el “problema del polizón.” Yo diría que esto debería guiar la forma en que las sociedades responden a sus riesgos, y que las buenas intenciones no serán suficientes.

montando gratis

El parasitismo es una consecuencia común de lo que los filósofos llaman “problemas de acción colectiva”. Estas son situaciones en las que, como grupo, todos se beneficiarían de una acción particular, pero como individuos, cada miembro beneficiarse de no hacerlo.

Tales problemas involucran más comúnmente bienes públicos. Por ejemplo, supongamos que los habitantes de una ciudad tienen un interés colectivo en financiar un sistema de metro, lo que requeriría que cada uno de ellos pague una pequeña cantidad a través de impuestos o tarifas. Todos se beneficiarían, pero lo mejor para cada individuo es ahorrar dinero y evitar pagar su parte justa. Después de todo, aún podrán disfrutar del metro si la mayoría de las personas pagan.

De ahí el problema del “viajero gratis”: algunas personas no contribuirán con su parte justa, pero aun así obtendrán un “viaje gratis”, literalmente, en el caso del metro. Sin embargo, si todos los individuos no pagaran, nadie se beneficiaría.

Los filósofos tienden a argumentar que no es ético “pasear gratis””, ya que los usuarios gratuitos no pueden corresponder a otros que pagan su parte justa. Muchos filósofos también argumentan que los oportunistas fallan en sus responsabilidades como parte de el contrato social

, los principios cooperativos acordados colectivamente que rigen una sociedad. En otras palabras, no cumplen con su deber de ser miembros contribuyentes de la sociedad.

¿Pulsar pausa o seguir adelante?

Al igual que el metro, la IA es un bien público, dado su potencial para completar tareas de manera mucho más eficiente que los operadores humanos: todo, desde diagnosticando pacientes mediante el análisis de datos médicos para hacerse cargo trabajos de alto riesgo en el ejército o mejorar la seguridad minera.

Pero tanto sus beneficios como sus peligros afectarán a todos, incluso a las personas que no usan IA personalmente. Para reducir el riesgo de la IA, todo el mundo tiene interés en que la investigación de la industria se lleve a cabo de forma cuidadosa, segura y con la debida supervisión y transparencia. Por ejemplo, la desinformación y las noticias falsas ya representan serias amenazas para las democracias, pero la IA tiene el potencial de exacerbar el problema difundiendo “noticias falsas” más rápido y de manera más efectiva que las personas.

Sin embargo, incluso si algunas empresas de tecnología detuvieran voluntariamente sus experimentos, otras empresas tendrían un interés monetario en continuar con su propia investigación de IA, lo que les permitiría salir adelante en la carrera armamentista de IA. Es más, pausar voluntariamente los experimentos de IA permitiría a otras empresas aprovechar los beneficios de un desarrollo de IA más seguro y transparente, junto con el resto de la sociedad.

Sam Altman, CEO de OpenAI, ha reconocido que la empresa tiene miedo de los riesgos

que plantea su sistema de chatbot, ChatGPT. “Tenemos que tener cuidado aquí”, dijo en una entrevista con ABC News, mencionando el potencial de la IA para producir información errónea. “Creo que la gente debería estar feliz de que estemos un poco asustados por esto”.

En una carta publicada el 5 de abril de 2023, OpenAI dijo que la compañía cree que los poderosos sistemas de IA necesita regulación para garantizar evaluaciones de seguridad exhaustivas y que “comprometería activamente con los gobiernos sobre la mejor forma que podría adoptar dicha regulación”. Sin embargo, OpenAI continúa con la despliegue gradual de GPT-4, y el resto de la industria también continúa desarrollando y entrenando IA avanzadas.

Maduro para la regulación

Décadas de investigación en ciencias sociales sobre problemas de acción colectiva ha demostrado que cuando la confianza y la buena voluntad son insuficientes para evitar los free riders, la regulación suele ser la única alternativa. El cumplimiento voluntario es el factor clave que crea escenarios de oportunistas, y acción del gobierno es a veces la manera de cortarlo de raíz.

Más, tales regulaciones deben ser exigibles. Después de todo, es poco probable que los posibles pasajeros del metro paguen la tarifa a menos que haya una amenaza de castigo.

Tomemos uno de los problemas más dramáticos del free-rider en el mundo actual: cambio climático. Como planeta, todos tenemos un gran interés en mantener un entorno habitable. Sin embargo, en un sistema que permite a los pasajeros gratuitos, los incentivos para que cualquier país siga realmente pautas más ecológicas son escasos.

El Acuerdo de París, que actualmente es el acuerdo mundial más amplio sobre el cambio climático, es voluntario y las Naciones Unidas no tienen ningún recurso para hacerlo cumplir. Incluso si la Unión Europea y China limitaran voluntariamente sus emisiones, por ejemplo, Estados Unidos e India podrían “viajar gratis” en la reducción de dióxido de carbono sin dejar de emitir.

Reto global

De manera similar, el problema del pasajero gratuito fundamenta los argumentos para regular el desarrollo de la IA. De hecho, cambio climático es un paralelo particularmente cercano, ya que ni los riesgos que plantea la IA ni las emisiones de gases de efecto invernadero están restringidos al país de origen de un programa.

Además, la carrera para desarrollar una IA más avanzada es internacional. Incluso si los EE. UU. introdujeran una regulación federal de la investigación y el desarrollo de la IA, China y Japón podrían viajar libremente y continuar con sus propias leyes nacionales. programas de IA.

La regulación y el cumplimiento efectivos de la IA requerirían una acción colectiva y cooperación global, al igual que con el cambio climático. En los EE.UU, aplicación estricta requeriría la supervisión federal de la investigación y la capacidad de imponer fuertes multas o cerrar experimentos de IA que no cumplan con los requisitos para garantizar un desarrollo responsable, ya sea a través de juntas de supervisión regulatoria, protecciones para denunciantes o, en casos extremos, cierres de laboratorio o investigación y cargos penales.

Sin embargo, sin la aplicación de la ley, habrá oportunistas, y los oportunistas significan que la amenaza de la IA no disminuirá en el corto plazo.

¿Quiere saber más sobre la IA, los chatbots y el futuro del aprendizaje automático? Consulte nuestra cobertura completa de inteligencia artificialo explore nuestras guías para Los mejores generadores de arte de IA gratuitos y Todo lo que sabemos sobre ChatGPT de OpenAI.

Tim Juvshik es profesor asistente visitante de Filosofía en la Universidad de Clemson. Este artículo se vuelve a publicar de La conversación bajo una licencia Creative Commons. Leer el artículo original.

Leave a Reply

Your email address will not be published. Required fields are marked *