înainte de CoT era cel mai bun pentru că aveai libertatea de a structura CoT așa cum doreai. GPT4-0314 a fost minunat pentru asta. Odată ce au copt în CoT, lucrurile au început să meargă în jos. Toate solicitările au devenit supuse acelorași abstracții. Tot ce face este să inunde fereastra de context pentru a ghida ieșirile. Chiar și în gpt 3.5, oamenii știau că cele mai bune ieșiri veneau după "amorsarea pompei" pentru a oferi un cadru. Obsesia de a putea face totul dintr-o singură lovitură a făcut ca produsul să fie mai puțin maleabil.
steve hsu
steve hsu8 aug., 07:29
Este raționamentul în lanț de gândire al LLM-urilor un miraj? ... Rezultatele noastre arată că raționamentul CoT este un miraj fragil care dispare atunci când este împins dincolo de distribuțiile de antrenament. Această lucrare oferă o înțelegere mai profundă a motivului și a momentului în care raționamentul CoT eșuează, subliniind provocarea continuă de a obține un raționament autentic și generalizabil. ... Descoperirile noastre arată că raționamentul CoT funcționează eficient atunci când este aplicat în distribuție sau în apropiere date în distribuție, dar devine fragilă și predispusă la eșec chiar și în condiții de schimbări moderate de distribuție. În unele cazuri, LLM-urile generează pași de raționament fluenți, dar inconsecvenți din punct de vedere logic. Rezultatele sugerează că ceea ce pare a fi un raționament structurat poate fi un miraj, care apare din modele memorate sau interpolate în datele de antrenament, mai degrabă decât din inferență logică. ... Împreună, aceste descoperiri sugerează că LLM-urile nu sunt raționamente principiale, ci mai degrabă simulatoare sofisticate de text asemănător raționamentului.
1,73K