Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
pre CoT là tốt nhất vì bạn có tự do để cấu trúc CoT theo cách bạn muốn. gpt4-0314 thật tuyệt cho điều này.
Khi họ tích hợp CoT, mọi thứ bắt đầu đi xuống. Tất cả các prompt đều trở thành đối tượng của cùng một sự trừu tượng.
Tất cả những gì nó làm là làm đầy cửa sổ ngữ cảnh để hướng dẫn đầu ra.
Ngay cả trong gpt 3.5, mọi người biết rằng những đầu ra tốt nhất đến sau khi "khởi động bơm" để cung cấp một khung.
Sự ám ảnh với việc có thể hoàn thành mọi thứ trong một lần đã làm cho sản phẩm trở nên kém linh hoạt.

07:29 8 thg 8
Liệu Lập luận Chuỗi Tư duy của LLM có phải là một ảo ảnh?
... Kết quả của chúng tôi tiết lộ rằng lập luận CoT là một ảo ảnh mong manh, biến mất khi bị đẩy ra ngoài các phân phối huấn luyện. Công trình này cung cấp một hiểu biết sâu sắc hơn về lý do và thời điểm lập luận CoT thất bại, nhấn mạnh thách thức liên tục trong việc đạt được lập luận thực sự và có thể tổng quát.
... Các phát hiện của chúng tôi cho thấy lập luận CoT hoạt động hiệu quả khi áp dụng cho dữ liệu trong phân phối hoặc gần với dữ liệu trong phân phối nhưng trở nên mong manh và dễ thất bại ngay cả dưới những thay đổi phân phối vừa phải. Trong một số trường hợp, LLM tạo ra các bước lập luận trôi chảy nhưng không nhất quán về mặt logic. Kết quả cho thấy những gì có vẻ như là lập luận có cấu trúc có thể chỉ là một ảo ảnh, xuất phát từ các mẫu đã được ghi nhớ hoặc nội suy trong dữ liệu huấn luyện thay vì suy diễn logic.
... Cùng nhau, những phát hiện này gợi ý rằng LLM không phải là những người lập luận có nguyên tắc mà là những mô phỏng tinh vi của văn bản giống như lập luận.

1,67K
Hàng đầu
Thứ hạng
Yêu thích