Sekarang setelah beberapa tahun, tampaknya masalah keamanan AI valid secara empiris (misalnya peretasan hadiah dalam model pengkodean), tetapi pendekatan OpenAI 'deploy iterate and learn' bekerja dengan baik sejauh ini. Modelnya menjadi lebih baik, beberapa hal rusak, dan Anda membangun pagar pembatas saat Anda pergi...
Di mana ini memutus adalah jika: 1) Aktor lain menyebarkan model yang kuat dalam pengaturan konsekuensial tanpa pagar pembatas ini di palce 2) Model mulai meningkat terlalu cepat agar loop OODA kami dapat mengimbangi (misalnya skenario singularitas)
Di mana ini rusak: 1) Aktor lain menyebarkan model yang kuat dalam pengaturan konsekuensial tanpa pagar pembatas ini di palce 2) Model mulai meningkat terlalu cepat agar loop OODA kami dapat mengimbangi (misalnya skenario singularitas)
Di mana ini rusak: 1) Aktor lain menyebarkan model yang kuat dalam pengaturan konsekuensial tanpa pagar pembatas ini di tempatnya atau 2) Model mulai meningkat terlalu cepat agar loop OODA kami dapat mengimbangi (misalnya skenario singularitas)
227