Тепер, коли минуло кілька років, здається, що занепокоєння щодо безпеки штучного інтелекту емпірично обґрунтовані (наприклад, хакерство винагородою в моделях кодування), але підхід OpenAI «розгортай, ітеруй і навчайся» досі працював добре. Моделі стають кращими, деякі речі ламаються, і ви будуєте огорожі на ходу...
Де це порушується, так це якщо: 1) Інший актор розгортає потужні моделі в послідовних умовах без цих огороджень у блідості 2) Моделі починають вдосконалюватися занадто швидко, щоб наш цикл OODA встигав (наприклад, сценарій сингулярності)
Де це порушується: 1) Інший актор розгортає потужні моделі в послідовних умовах без цих захисних огорож у palce 2) Моделі починають вдосконалюватися занадто швидко, щоб наш цикл OODA встигав (наприклад, сценарій сингулярності)
Де це порушується: 1) Інший актор розгортає потужні моделі в послідовних умовах без цих огорож на місці або 2) Моделі починають вдосконалюватися занадто швидко, щоб наш цикл OODA встигав (наприклад, сценарій сингулярності)
203