Mọi người đang theo dõi các Mô hình Ngôn ngữ Lớn (LLMs) chiếm lĩnh ánh đèn sân khấu. Nhưng hãy zoom vào một chút gần hơn, và có điều gì đó khác đang hình thành. Các Mô hình Ngôn ngữ Nhỏ (SLMs) nhẹ hơn, nhanh hơn và dễ tiếp cận hơn. Đối với AI có khả năng tự hành động và các hệ thống phi tập trung, chúng có thể là sự lựa chọn tốt hơn. Đây là lý do tại sao 🧵
2/ LLMs chỉ là "lớn". Hàng triệu triệu tham số, những người tổng quát mạnh mẽ và tốn kém để vận hành. Chúng hoạt động rất tốt cho các nhiệm vụ rộng rãi, mở. Nhưng chúng thì tập trung, không minh bạch và khó tùy chỉnh. SLMs thì nhỏ gọn, minh bạch và linh hoạt. Bạn có thể tinh chỉnh và vận hành chúng theo cách của bạn.
3/ SLMs tỏa sáng trong các tình huống thực tế: Chúng hiệu quả, phản ứng nhanh và không cần hạ tầng nặng nề. Hoàn hảo cho các thiết bị biên và các trường hợp nhạy cảm về quyền riêng tư. Với các công cụ như chưng cất, cắt tỉa và lý luận trong thời gian thử nghiệm, chúng mang lại hiệu suất đáng kể với chi phí chỉ bằng một phần.
4/ Nghiên cứu mới chứng minh điều đó. Viện Alan Turing đã chạy một mô hình 3B tham số trên một chiếc laptop. Với việc tinh chỉnh thông minh, nó gần như đạt được hiệu suất tương đương với các mô hình tiên tiến trong các nhiệm vụ lý luận về sức khỏe. Làn sóng này đang phát triển: Phi, Nemotron-H, Qwen3, Mu, SmolLLM, tất cả đều đưa SLM vào dòng chính.
5/ Thông tin chi tiết hơn về nghiên cứu này:
6/ Chúng tôi tin vào việc xây dựng AI mở, địa phương và phi tập trung. SLMs làm điều đó trở nên khả thi. Chúng không chỉ là những lựa chọn nhẹ nhàng, mà còn là nền tảng cho các hệ thống tác nhân có thể mở rộng và mô-đun. Nhỏ không phải là một sự thỏa hiệp. Nhỏ là một lựa chọn thiết kế mạnh mẽ.
7/ Đọc blog đầy đủ của chúng tôi về chủ đề này 👇
1,71K