数年が経った今、AI の安全性に関する懸念は経験的に妥当であるように思えますが (コーディング モデルにおける報酬ハッキングなど)、OpenAI の「デプロイ、反復、学習」アプローチはこれまでのところ問題なく機能していました。モデルは良くなり、いくつかのものが壊れ、進むにつれてガードレールが構築されます...
これが壊れるのは、次の場合です。 1) 別のアクターが、これらのガードレールなしで結果的な設定に強力なモデルを展開します 2) モデルの改善が速すぎて、OODAループが追いつくことができません(例:シンギュラリティシナリオ)
これが壊れる場所: 1) 別のアクターが、これらのガードレールなしで結果的な設定に強力なモデルを展開します。2) モデルの改善が速すぎて、OODA ループが追いつくことができません (例: シンギュラリティ シナリオ)
これが壊れる場所: 1) 別のアクターが、これらのガードレールを設置せずに、結果的な設定に強力なモデルを展開します 又は 2) モデルの改善が速すぎて、OODAループが追いつくことができません(例:シンギュラリティシナリオ)
200