GPT-5 は、短いタイムラインに対しては小さなアップデートにすぎないと思います。 EPOCHは、GPT-5はベースモデルのスケールアップに基づいていないと主張しています。これが本当だと仮定しましょう。 これは事前トレーニングについて何を言っていますか? オプション1:トレーニング前のスケーリングが壁にぶつかった(または少なくともゲインが大幅に減少した)。 オプション 2: 次のトレーニング前のスケールアップ ステップを正しく行うまでに時間がかかるだけです。根本的な制限はありません。私たちはまだそれを理解していません。 オプション 3: 事前トレーニングの壁はなく、基本的な経済学のみ。現在、モデルを使用しているほとんどのタスクは、より大きな基本モデルを必要としない可能性があるため、ユーザビリティに重点を置くことがより重要です。 AGIには何が必要ですか? オプション 1: ベース モデルのさらなる改善が必要です。 オプション2:必要なのはRLだけです。現在の基本モデルは、十分なRLを投入すれば、完全に拡張されます。 タイムラインは、事前トレーニングの壁とさらなる改善が必要な場合にのみ影響を受けるようです。他のすべての世界では、大きなアップデートはありません。 個人的には、GPT-5 は遅いタイムラインに向けた小さなアップデートであるべきだと考えていますが、いずれにせよ、私の短いタイムラインの信念のほとんどは RL スケーリングから来ています。
5.61K