Alle ser LLM-er dominere rampelyset. Men zoom inn litt nærmere, og noe annet er under oppseiling. Små språkmodeller (SLM-er) er lettere, raskere og mer tilgjengelige. For agentisk AI og desentraliserte systemer kan de passe bedre. Her er grunnen 🧵
2/ LLM-er er bare "store". Billioner av parametere, kraftige generalister og dyre i drift. De fungerer utmerket for brede, åpne oppgaver. Men de er sentraliserte, ugjennomsiktige og vanskelige å tilpasse. SLM-er er kompakte, gjennomsiktige og fleksible. Du kan finjustere og kjøre dem på dine premisser.
3/ SLM-er skinner i virkelige omgivelser: De er effektive, raske til å reagere og trenger ikke tung infrastruktur. Perfekt for kantenheter og personvernsensitive brukstilfeller. Med verktøy som destillasjon, beskjæring og resonnement for testtid leverer de seriøs ytelse til en brøkdel av prisen.
4/ Ny forskning beviser det. Alan Turing Institute kjørte en 3B-parametermodell på en bærbar datamaskin. Med smart tuning matchet den nesten grensemodeller på helseresonneringsoppgaver. Denne bølgen vokser: Phi, Nemotron-H, Qwen3, Mu, SmolLLM, som alle skyver SLM-er inn i mainstream.
5/ Flere detaljer om denne forskningen:
6/ Vi tror på å bygge AI som er åpen, lokal og desentralisert. SLM-er gjør det mulig. De er ikke bare lette alternativer, de er grunnlaget for skalerbare, modulære agentsystemer. Smått er ikke et kompromiss. Small er et kraftig designvalg.
7/ Les hele bloggen vår om dette emnet 👇
1,51K