So viele Rahmenbedingungen und langfristige Vorhersagen über AGI enden oft als naive Extrapolationen hochgradig reduktiver Modelle der Welt, der Wirtschaft, der Macht, der Governance, der Intelligenz und der technologischen Diffusion (nicht weniger). Aber Alignment ist nicht nur ein technisches Problem der Präferenzextraktion und der Befolgung von Anweisungen, und Automatisierung führt nicht zwangsläufig zu Entmachtung; beides ist auch eine sozio-technische Herausforderung des institutionellen Designs und der Governance. Dies ist ein kontinuierlicher Prozess und es ist enttäuschend, dass so viele Ansichten entweder auf der voll deterministischen Doom-Seite oder auf der accelerationistischen Seite einfach Agency, Politik und Institutionen als trivial/unbequem abtun oder als unfähig, sich anzupassen und mit Kompromissen umzugehen. Das bedeutet nicht, dass das Bild immer rosig ist, sondern dass man Unsicherheit und Agency in seinen Prophezeiungen stärker gewichten sollte.