Nyní, když máme za sebou několik let, se zdá, že obavy o bezpečnost umělé inteligence jsou empiricky oprávněné (např. odměňování hackování v kódovacích modelech), ale přístup OpenAI "nasazuj, iteruj a uč se" zatím fungoval dobře. Modely se zlepšují, některé věci se lámou a vy stavíte mantinely za pochodu...
K tomuto přerušení dojde, pokud: 1) Jiný aktér nasadí výkonné modely v následných nastaveních bez těchto mantinelů v místě 2) Modely se začnou zlepšovat příliš rychle na to, aby s nimi naše smyčka OODA udržela krok (např. scénář singularity)
Kde se to přerušuje: 1) Jiný aktér nasadí výkonné modely v následných nastaveních bez těchto ochranných mantinelů v místě 2) Modely se začnou zlepšovat příliš rychle na to, aby s nimi naše smyčka OODA udržela krok (např. scénář singularity)
Kde se to přerušuje: 1) Jiný aktér nasadí výkonné modely v následných nastaveních bez těchto ochranných mantinelů nebo 2) Modely se začnou zlepšovat příliš rychle na to, aby s nimi naše smyčka OODA udržela krok (např. scénář singularity)
208