Tant de cadres et de prévisions à long terme sur l'AGI finissent par être des extrapolations naïves de modèles très réducteurs du monde, de l'économie, du pouvoir, de la gouvernance, de l'intelligence et de la diffusion technologique (rien de moins). Mais l'alignement n'est pas seulement un problème technique d'extraction de préférences et de suivi d'instructions, et l'automatisation ne conduit pas inévitablement à un désavantage ; les deux sont également un défi socio-technique de conception institutionnelle et de gouvernance. C'est un processus continu et il est décevant que tant de points de vue, que ce soit du côté des doomers déterministes ou des accélérationnistes, rejettent simplement l'agence, la politique et les institutions comme triviales/inconvénients, ou incapables de s'adapter et de gérer les compromis. Cela ne signifie pas que le tableau est toujours rose, mais que vous devriez peser l'incertitude et l'agence davantage dans vos prophéties.