Cred că GPT-5 ar trebui să fie doar o mică actualizare în termene scurte. EPOCH susține că GPT-5 nu se bazează pe o extindere a modelului de bază. Să presupunem că acest lucru este adevărat. Ce spune asta despre pre-instruire? Opțiunea 1: scalarea pre-antrenament s-a lovit de un zid (sau cel puțin a redus masiv câștigurile). Opțiunea 2: Este nevoie doar de mai mult timp pentru a obține următorul pas de extindere înainte de antrenament. Nu există nicio limită fundamentală; doar că nu ne-am dat seama încă. Opțiunea 3: Fără zid de pre-antrenament, doar economie de bază. Majoritatea sarcinilor pentru care oamenii folosesc modelele în acest moment ar putea să nu necesite modele de bază mai mari, așa că concentrarea pe utilizare este mai importantă. Ce este necesar pentru AGI? Opțiunea 1: Sunt necesare mai multe îmbunătățiri ale modelului de bază. Opțiunea 2: RL este tot ce aveți nevoie. Modelele de bază actuale se vor scala până la capăt dacă aruncăm suficient RL în ele. Termenele par afectate doar dacă este nevoie de un perete înainte de antrenament și de mai multe îmbunătățiri. În toate celelalte lumi, nu există actualizări majore. Personal cred că GPT-5 ar trebui să fie o mică actualizare către linii temporale mai lente, dar majoritatea credințelor mele despre cronologia scurtă provin oricum din scalarea RL.
5,86K