Tantos quadros e previsões de longo prazo sobre a AGI acabam sendo extrapolações ingênuas de modelos altamente redutores do mundo, economia, poder, governança, inteligência e difusão tecnológica (nada menos). Mas o alinhamento não é apenas um problema técnico de extração de preferências e acompanhamento de instruções, e a automação não leva inevitavelmente ao desempoderamento; ambos também são um desafio sociotécnico de desenho institucional e governança. Este é um processo contínuo e é decepcionante que tantas visões sobre o doomer determinista completo ou os lados aceleracionistas simplesmente descartem a agência, a política e as instituições como triviais / inconvenientes, ou incapazes de se adaptar e lidar com trade-offs. Isso não significa que o quadro seja sempre cor-de-rosa, mas que você deve pesar mais a incerteza e o arbítrio em suas profecias.