Todo mundo está assistindo LLMs dominarem os holofotes. Mas aumente um pouco mais o zoom e algo mais está se formando. Os SLMs (Small Language Models) são mais leves, rápidos e acessíveis. Para IA agêntica e sistemas descentralizados, eles podem ser mais adequados. Aqui está o porquê 🧵
2/ LLMs são apenas "grandes". Trilhões de parâmetros, generalistas poderosos e caros para executar. Eles funcionam muito bem para tarefas amplas e abertas. Mas eles são centralizados, opacos e difíceis de personalizar. Os SLMs são compactos, transparentes e flexíveis. Você pode ajustá-los e executá-los em seus termos.
3/ SLMs brilham em ambientes do mundo real: Eles são eficientes, rápidos para responder e não precisam de infraestrutura pesada. Perfeito para dispositivos de borda e casos de uso sensíveis à privacidade. Com ferramentas como destilação, poda e raciocínio em tempo de teste, eles oferecem um desempenho sério por uma fração do custo.
4/ Novas pesquisas comprovam isso. O Instituto Alan Turing executou um modelo de parâmetro 3B em um laptop. Com o ajuste inteligente, quase igualou os modelos de fronteira em tarefas de raciocínio de saúde. Essa onda está crescendo: Phi, Nemotron-H, Qwen3, Mu, SmolLLM, todos empurrando os SLMs para o mainstream.
5/ Mais detalhes desta pesquisa:
6/ Acreditamos na construção de IA aberta, local e descentralizada. Os SLMs tornam isso possível. Eles não são apenas alternativas leves, eles são a base para sistemas agenciais modulares e escaláveis. Pequeno não é um compromisso. Pequeno é uma escolha de design poderosa.
7/ Leia nosso blog completo sobre este tópico 👇
1,71K