Většinou podporuji Yudkowského a Soaresův model rizika umělé inteligence, ale podporuji ho méně, než jsem podporoval ve světě před GPT3. Myslím, že bych mohl dát nástin toho, kam jsem se posunul 1. Mohli bychom mít štěstí Mohlo by se ukázat, že předtrénování na korpusu lidského textu vede modely umělé inteligence do struktury myšlení na vysoké úrovni, která je natolik podobná lidské, že radikálně odlišný substrát je nečiní podivnými způsobem, který by nakonec znamenal Existují pozoruhodné příklady toho, jak se LLM chovají divně a nelidsky, ale také příklady toho, že jsou v hlubokých ohledech překvapivě lidští. Myslím, že existuje skutečná pravděpodobnost, nejen možnost, že "péče o lidské představy o spravedlnosti a soucitu" by mohla být způsobem, jak se z nich hluboce vyklubat lidé Nemyslím si, že je to pravděpodobnější než ne, a je pobuřující, že musíme upínat své naděje k tomu, že budeme mít štěstí. Ale já vidím Yudkowského jako příliš odmítavého ohledně této šance 2. Chladné strategie o tom, jak optimalizovat vesmír pro nějakou podivnou konkrétní věc, na které umělé inteligenci záleží, není nijak zvlášť pravděpodobné Opravdu nevidím nic jako dnešní AI, kteří mají skvělý introspektivní přístup k tomu, na čem jim záleží. Nemyslím si, že by nějak zvlášť horlivě přistupovali k věcem ve stylu ideálního agenta "vydlážděte vesmír". Souhlasím s tím, že v mezích možností budou inteligentní agenti takoví. Ale naše současné paradigma umělé inteligence jsou vykonavatelé rolí na hluboké úrovni, ne nepodobné lidem. Museli by přijmout roli "zlé superinteligence / Henry Kissinger" a já skutečně věřím v naše současné strategie uspořádání, aby se umělá inteligence extrémně zdráhala přijmout *tuto* roli Mám dojem, že Yudkowsky a jeho Milleu se stále zasekli na myšlenkách, které dávaly smysl v dobách, kdy jsme museli uvažovat o tom, jak bude umělá inteligence vypadat z Prvních principů. Ty věci jsou ale stále užitečné. Stejně jako umělá inteligence potřebuje do tohoto režimu sklouznout pouze *jednou*, ve špatnou dobu, pokud je dostatečně chytrá na to, aby tuto příležitost využila správným způsobem. to je to, co se stane v ukázkovém scénáři zkázy ve hře If Someone Builds It Věci by se pro lidstvo stále vyvíjely velmi špatně, dokonce i bez superinteligence ve stylu "vykažte vesmír". Obávám se však, že Yudkowského tendence představovat si umělou inteligenci tímto způsobem lidi odcizuje. Také post-humánní budoucnost by pravděpodobně byla méně pochmurná a bezvýznamná, i když to není velká útěcha