Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Todo mundo está assistindo LLMs dominarem os holofotes.
Mas aumente um pouco mais o zoom e algo mais está se formando.
Os SLMs (Small Language Models) são mais leves, rápidos e acessíveis.
Para IA agêntica e sistemas descentralizados, eles podem ser mais adequados.
Aqui está o porquê 🧵

2/ LLMs são apenas "grandes".
Trilhões de parâmetros, generalistas poderosos e caros para executar.
Eles funcionam muito bem para tarefas amplas e abertas. Mas eles são centralizados, opacos e difíceis de personalizar.
Os SLMs são compactos, transparentes e flexíveis. Você pode ajustá-los e executá-los em seus termos.
3/ SLMs brilham em ambientes do mundo real:
Eles são eficientes, rápidos para responder e não precisam de infraestrutura pesada. Perfeito para dispositivos de borda e casos de uso sensíveis à privacidade.
Com ferramentas como destilação, poda e raciocínio em tempo de teste, eles oferecem um desempenho sério por uma fração do custo.
4/ Novas pesquisas comprovam isso.
O Instituto Alan Turing executou um modelo de parâmetro 3B em um laptop. Com o ajuste inteligente, quase igualou os modelos de fronteira em tarefas de raciocínio de saúde.
Essa onda está crescendo: Phi, Nemotron-H, Qwen3, Mu, SmolLLM, todos empurrando os SLMs para o mainstream.

5/ Mais detalhes desta pesquisa:
6/ Acreditamos na construção de IA aberta, local e descentralizada.
Os SLMs tornam isso possível. Eles não são apenas alternativas leves, eles são a base para sistemas agenciais modulares e escaláveis.
Pequeno não é um compromisso.
Pequeno é uma escolha de design poderosa.
7/ Leia nosso blog completo sobre este tópico 👇
1,71K
Melhores
Classificação
Favoritos