
El crecimiento exponencial genera 1 millón de modelos de IA en Hugging Face

El jueves, la plataforma de alojamiento de IA Hugging Face superado 1 millón de listados de modelos de IA por primera vez, lo que marca un hito en el campo del aprendizaje automático en rápida expansión. Un modelo de IA es un programa informático (que a menudo utiliza una red neuronal) entrenado con datos para realizar tareas específicas o hacer predicciones. La plataforma, que comenzó como una aplicación de chatbot en 2016 antes de convertirse en un centro de código abierto para modelos de IA en 2020, ahora alberga una amplia gama de herramientas para desarrolladores e investigadores.
El campo del aprendizaje automático representa un mundo mucho más grande que los grandes modelos de lenguaje (LLM) como los que impulsan ChatGPT. En una publicación en X, el director ejecutivo de Hugging Face, Clément Delangue escribió sobre cómo su empresa alberga muchos modelos de IA de alto perfil, como “Llama, Gemma, Phi, Flux, Mistral, Starcoder, Qwen, Stable diffusion, Grok, Whisper, Olmo, Command, Zephyr, OpenELM, Jamba, Yi”, pero también “999.984 más”.
La razón, dice Delangue, se debe a la personalización. “Al contrario de la falacia de ‘un modelo para gobernarlos a todos'”, escribió, “los modelos más pequeños, especializados, optimizados y personalizados para su caso de uso, su dominio, su idioma, su hardware y, en general, sus limitaciones, son mejores. De hecho, , algo de lo que pocas personas se dan cuenta es que hay casi tantos modelos en Hugging Face que son privados solo para una organización, para que las empresas creen IA de forma privada, específicamente para sus casos de uso”.
La transformación de Hugging Face en una importante plataforma de IA sigue el ritmo acelerado de la investigación y el desarrollo de la IA en toda la industria tecnológica. En tan solo unos años, la cantidad de modelos alojados en el sitio ha crecido dramáticamente junto con el interés en el campo. En X, ingeniero de producto de Hugging Face, Caleb Fahlgren publicó un gráfico de modelos creados cada mes en la plataforma (y un enlace a otros gráficos), diciendo: “Los modelos van exponencialmente mes tras mes y septiembre ni siquiera ha terminado todavía”.
El poder del ajuste
Como lo insinuó Delangue anteriormente, la gran cantidad de modelos en la plataforma se debe a la naturaleza colaborativa de la plataforma y la práctica de ajustar los modelos existentes para tareas específicas. El ajuste fino significa tomar un modelo existente y darle entrenamiento adicional para agregar nuevos conceptos a su red neuronal y alterar la forma en que produce resultados. Desarrolladores e investigadores de todo el mundo aportan sus resultados, dando lugar a un gran ecosistema.