AGI に関する非常に多くのフレームと長期的な予測は、世界、経済、権力、ガバナンス、知性、技術拡散 (それ以下) の高度に還元的なモデルの素朴な外挿にすぎません。しかし、アライメントは、好みの抽出と指示に従うという単なる技術的な問題ではなく、自動化は必然的に権限剥奪につながるわけではありません。どちらも、制度設計とガバナンスの社会技術的課題でもあります。 これは継続的なプロセスであり、完全な決定論的破滅論者または加速主義者のどちらかに対する非常に多くの見解が、エージェンシー、政治、制度を些細な/不便なものとして、またはトレードオフに適応して対処できないものとして片付けているのは残念です。これは、状況が常にバラ色であるという意味ではなく、予言において不確実性と主体性をもっと比較検討する必要があるということです。