O campo de aprendizado de máquina representa um mundo muito maior do que apenas grandes modelos de linguagem (LLMs) como o tipo que alimenta o ChatGPT. Em uma postagem no X, o CEO da Hugging Face, Clément Delangue, escreveu sobre como sua empresa hospeda muitos modelos de IA de alto perfil, como “Llama, Gemma, Phi, Flux, Mistral, Starcoder, Qwen, Stable diffusion, Grok, Whisper, Olmo, Command, Zephyr, OpenELM, Jamba, Yi,” mas também “999.984 outros.”
A razão para isso, segundo Delangue, vem da personalização. “Contrariamente à falácia do ‘1 modelo para governar todos’,” ele escreveu, “modelos menores especializados, personalizados e otimizados para o seu caso de uso, seu domínio, seu idioma, seu hardware e geralmente suas restrições são melhores. De fato, algo que poucas pessoas percebem é que existem quase tantos modelos na Hugging Face que são privados apenas para uma organização – para empresas construírem IA de forma privada, especificamente para seus casos de uso.”
Redação Confraria Tech.
Referências:
Exponential growth brews 1 million AI models on Hugging Face