Muchos marcos y predicciones a más largo plazo sobre AGI terminan siendo extrapolaciones ingenuas de modelos altamente reductivos del mundo, la economía, el poder, la gobernanza, la inteligencia y la difusión tecnológica (nada menos). Pero la alineación no es solo un problema técnico de extracción de preferencias y seguimiento de instrucciones, y la automatización no conduce inevitablemente a la pérdida de poder; Ambos son también un desafío sociotécnico de diseño institucional y gobernanza. Este es un proceso continuo y es decepcionante que tantos puntos de vista, ya sea en el doomer determinista completo o en los lados aceleracionistas, simplemente descarten la agencia, la política y las instituciones como triviales/inconvenientes, o incapaces de adaptarse y lidiar con las compensaciones. Esto no significa que el panorama sea siempre color de rosa, sino que debes sopesar más la incertidumbre y el albedrío en tus profecías.