Trendande ämnen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Alla tittar på LLM:er som dominerar rampljuset.
Men zooma in lite närmare, och något annat är på gång.
Små språkmodeller (SLM) är lättare, snabbare och mer tillgängliga.
För agentisk AI och decentraliserade system kan de passa bättre.
Här är varför 🧵

2/ LLM:er är bara "stora".
Biljoner parametrar, kraftfulla generalister och dyra i drift.
De fungerar utmärkt för breda, öppna uppgifter. Men de är centraliserade, ogenomskinliga och svåra att anpassa.
SLM:er är kompakta, transparenta och flexibla. Du kan finjustera och köra dem på dina villkor.
3/ SLM:er glänser i verkliga miljöer:
De är effektiva, snabba att reagera och behöver inte tung infrastruktur. Perfekt för gränsenheter och sekretesskänsliga användningsfall.
Med verktyg som destillation, beskärning och resonemang vid testtid levererar de seriös prestanda till en bråkdel av kostnaden.
4/ Ny forskning bevisar det.
Alan Turing-institutet körde en 3B-parametermodell på en bärbar dator. Med smart inställning matchade den nästan gränsmodeller på hälsoresonemangsuppgifter.
Denna våg växer: Phi, Nemotron-H, Qwen3, Mu, SmolLLM, som alla driver SLM till mainstream.

5/ Mer information om denna forskning:
6/ Vi tror på att bygga AI som är öppen, lokal och decentraliserad.
SLM gör det möjligt. De är inte bara lätta alternativ, de är grunden för skalbara, modulära agentsystem.
Liten är ingen kompromiss.
Liten är ett kraftfullt designval.
7/ Läs hela vår blogg om detta ämne 👇
1,41K
Topp
Rankning
Favoriter