La industria tecnológica no puede ponerse de acuerdo sobre qué significa IA de código abierto. Eso es un problema.

La industria tecnológica no puede ponerse de acuerdo sobre qué significa IA de código abierto.  Eso es un problema.

En última instancia, la comunidad necesita decidir qué está tratando de lograr, dice Zacchiroli: “¿Se está simplemente siguiendo hacia dónde se dirige el mercado para que no coopten esencialmente el término ‘IA de código abierto’, o se está tratando de ¿Hacer que el mercado sea más abierto y brinde más libertades a los usuarios?

¿Cuál es el punto del código abierto?

De todos modos, es discutible hasta qué punto cualquier definición de IA de código abierto nivelará el campo de juego, dice Sarah Myers West, codirectora ejecutiva del AI Now Institute. Ella fue coautora un papel

publicado en agosto de 2023 que expone la falta de apertura en muchos proyectos de IA de código abierto. Pero también destacó que las grandes cantidades de datos y potencia informática necesarias para entrenar IA de vanguardia crean barreras estructurales más profundas para los actores más pequeños, sin importar cuán abiertos sean los modelos.

Myers West cree que también hay una falta de claridad sobre lo que la gente espera lograr al hacer que la IA sea de código abierto. “¿Es la seguridad, es la capacidad de realizar investigaciones académicas, es el intento de fomentar una mayor competencia?” ella pregunta. “Necesitamos ser mucho más precisos acerca de cuál es el objetivo y luego cómo la apertura de un sistema cambia la búsqueda de ese objetivo”.

La OSI parece dispuesta a evitar esas conversaciones. El borrador de la definición menciona la autonomía y la transparencia como beneficios clave, pero Maffulli objetó cuando se le presionó para que explicara por qué la OSI valora esos conceptos. El documento también contiene una sección denominada “cuestiones fuera de alcance” que deja claro que la definición no entrará en cuestiones relacionadas con la IA “ética, confiable o responsable”.

Maffulli dice que históricamente la comunidad de código abierto se ha centrado en permitir el intercambio de software sin fricciones y ha evitado empantanarse en debates sobre para qué debería usarse ese software. “No es nuestro trabajo”, dice.

Pero esas preguntas no pueden descartarse, dice Warso, por mucho que la gente lo haya intentado a lo largo de décadas. La idea de que la tecnología es neutral y que temas como la ética están “fuera de alcance” es un mito, añade. Ella sospecha que es un mito que debe mantenerse para evitar que se fracture la coalición flexible de la comunidad de código abierto. “Creo que la gente se da cuenta de que no es real [the myth]pero necesitamos esto para avanzar”, afirma Warso.

Más allá de la OSI, otros han adoptado un enfoque diferente. En 2022, un grupo de investigadores introdujo Licencias de IA responsables (RAIL), que son similares a las licencias de código abierto pero incluyen cláusulas que pueden restringir casos de uso específicos. El objetivo, afirma Danish Contractor, un investigador de IA que cocreó la licencia, es permitir que los desarrolladores impidan que su trabajo se utilice para cosas que consideran inapropiadas o poco éticas.

“Como investigador, odiaría que mis materiales se utilizaran de forma perjudicial”, afirma. Y no está solo: un análisis reciente Él y sus colegas llevaron a cabo en la popular plataforma de alojamiento de modelos de la startup de inteligencia artificial Hugging Face y descubrieron que el 28% de los modelos usan RAIL.

Leave a Reply

Your email address will not be published. Required fields are marked *