Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Năm 2025 là năm của các tác nhân, và khả năng chính của các tác nhân là gọi công cụ.
Khi sử dụng Claude Code, tôi có thể yêu cầu AI lọc qua một bản tin, tìm tất cả các liên kết đến các công ty khởi nghiệp, xác minh chúng tồn tại trong CRM của chúng tôi, chỉ với một lệnh duy nhất. Điều này có thể liên quan đến việc gọi hai hoặc ba công cụ khác nhau.
Nhưng đây là vấn đề: việc sử dụng một mô hình nền tảng lớn cho việc này là tốn kém, thường bị giới hạn về tốc độ, và quá mạnh cho một nhiệm vụ lựa chọn.
Cách tốt nhất để xây dựng một hệ thống tác nhân với việc gọi công cụ là gì?
Câu trả lời nằm ở các mô hình hành động nhỏ. NVIDIA đã phát hành một tài liệu thuyết phục lập luận rằng "Các mô hình ngôn ngữ nhỏ (SLMs) đủ mạnh, tự nhiên phù hợp hơn, và cần thiết hơn về mặt kinh tế cho nhiều lần gọi trong các hệ thống tác nhân."
Tôi đã thử nghiệm các mô hình địa phương khác nhau để xác thực một bài tập giảm chi phí. Tôi bắt đầu với mô hình Qwen3:30b, hoạt động nhưng có thể khá chậm vì nó là một mô hình lớn, mặc dù chỉ có 3 tỷ trong số 30 tỷ tham số đó hoạt động tại bất kỳ thời điểm nào.
Tài liệu của NVIDIA khuyến nghị mô hình Salesforce xLAM – một kiến trúc khác được gọi là mô hình hành động lớn được thiết kế đặc biệt cho việc lựa chọn công cụ.
Vì vậy, tôi đã thực hiện một bài kiểm tra của riêng mình, mỗi mô hình gọi một công cụ để liệt kê các nhiệm vụ Asana của tôi.
Kết quả thật ấn tượng: xLAM hoàn thành nhiệm vụ trong 2.61 giây với tỷ lệ thành công 100%, trong khi Qwen mất 9.82 giây với tỷ lệ thành công 92% – gần gấp bốn lần thời gian.
Thí nghiệm này cho thấy sự gia tăng tốc độ, nhưng có một sự đánh đổi: bao nhiêu trí tuệ nên nằm trong mô hình so với trong chính các công cụ. Điều này bị giới hạn.
Với các mô hình lớn hơn như Qwen, các công cụ có thể đơn giản hơn vì mô hình có khả năng chịu lỗi tốt hơn và có thể làm việc xung quanh các giao diện được thiết kế kém. Mô hình bù đắp cho các hạn chế của công cụ thông qua lý luận brute-force.
Với các mô hình nhỏ hơn, mô hình có ít khả năng phục hồi từ sai lầm, vì vậy các công cụ phải mạnh mẽ hơn và logic lựa chọn phải chính xác hơn. Điều này có thể có vẻ như một hạn chế, nhưng thực sự là một tính năng.
Ràng buộc này loại bỏ tỷ lệ lỗi tích lũy của các công cụ chuỗi LLM. Khi các mô hình lớn thực hiện các cuộc gọi công cụ tuần tự, lỗi tích lũy theo cấp số nhân.
Các mô hình hành động nhỏ buộc thiết kế hệ thống tốt hơn, giữ lại những gì tốt nhất của LLM và kết hợp nó với các mô hình chuyên biệt.
Kiến trúc này hiệu quả hơn, nhanh hơn và dễ dự đoán hơn.


5,32K
Hàng đầu
Thứ hạng
Yêu thích