Ya es hora de una mayor transparencia de la IA

Ya es hora de una mayor transparencia de la IA

Pero lo que realmente me llama la atención es hasta qué punto Meta está abriendo sus puertas. Permitirá que la comunidad de IA en general descargue el modelo y lo modifique. Esto podría ayudar a que sea más seguro y más eficiente. Y crucialmente, podría demostrar los beneficios de la transparencia sobre el secreto cuando se trata del funcionamiento interno de los modelos de IA. Esto no podría ser más oportuno, o más importante.

Las empresas de tecnología se apresuran a lanzar sus modelos de IA en la naturaleza, y estamos viendo IA generativa integrada en más y más productos. Pero los modelos más potentes que existen, como el GPT-4 de OpenAI, están fuertemente protegidos por sus creadores. Los desarrolladores e investigadores pagan para obtener acceso limitado a dichos modelos a través de un sitio web y no conocen los detalles de su funcionamiento interno.

Esta opacidad podría generar problemas en el futuro, como se destaca en un nuevo artículo no revisado por pares eso causó cierto revuelo la semana pasada. Investigadores de la Universidad de Stanford y UC Berkeley descubrieron que GPT-3.5 y GPT-4 se desempeñaron peor en la resolución de problemas matemáticos, la respuesta a preguntas delicadas, la generación de código y el razonamiento visual que un par de meses antes.

La falta de transparencia de estos modelos hace que sea difícil decir exactamente por qué podría ser eso, pero independientemente, los resultados deben tomarse con pinzas, Arvind Narayanan, profesor de informática de Princeton. escribe en su valoración. Es más probable que sean causados ​​​​por “peculiaridades de la evaluación de los autores” que por evidencia de que OpenAI empeoró los modelos. Piensa que los investigadores no tuvieron en cuenta que OpenAI ha ajustado los modelos para que funcionen mejor, y eso ha causado involuntariamente que algunas técnicas de aviso dejen de funcionar como lo hacían en el pasado.

Esto tiene algunas implicaciones serias. Las empresas que han creado y optimizado sus productos para que funcionen con una determinada iteración de los modelos de OpenAI podrían verlos “al 100%” de repente fallar y romperse, dice Sasha Luccioni, investigadora de IA en la startup Hugging Face. Cuando OpenAI ajusta sus modelos de esta manera, los productos que se han creado utilizando indicaciones muy específicas, por ejemplo, pueden dejar de funcionar de la forma en que lo hacían antes. Los modelos cerrados carecen de responsabilidad, agrega. “Si tienes un producto y cambias algo en él, se supone que debes decírselo a tus clientes”.

Un modelo abierto como LLaMA 2 al menos dejará claro cómo la compañía ha diseñado el modelo y qué técnicas de entrenamiento ha utilizado. A diferencia de OpenAI, Meta compartió la receta completa de LLaMA 2, incluidos detalles sobre cómo se entrenó, qué hardware se usó, cómo se anotaron los datos y qué técnicas se usaron para mitigar el daño. Las personas que investigan y crean productos sobre el modelo saben exactamente en qué están trabajando, dice Luccioni.

“Una vez que tiene acceso al modelo, puede hacer todo tipo de experimentos para asegurarse de obtener un mejor rendimiento o menos sesgo, o lo que sea que esté buscando”, dice.

En última instancia, el debate abierto frente a cerrado en torno a la IA se reduce a quién toma las decisiones. Con modelos abiertos, los usuarios tienen más poder y control. Con modelos cerrados, estás a merced de su creador.

Tener una gran empresa como Meta lanzando un modelo de IA tan abierto y transparente se siente como un posible punto de inflexión en la fiebre del oro generativa de IA.

Leave a Reply

Your email address will not be published. Required fields are marked *