現在已經過去了幾年,人工智慧安全問題似乎在經驗上是有效的(例如編碼模型中的獎勵駭客攻擊),但 OpenAI 的“部署反覆運算和學習”方法到目前為止效果很好。模型變得更好,有些東西壞了,你邊走邊築起護欄......
這裡的問題在於: 1) 另一個行為者在沒有這些防護措施的情況下,在重要的環境中部署強大的模型 2) 這些模型的改進速度過快,以至於我們的OODA循環無法跟上(例如,奇點情境)
這裡的問題在於: 1) 另一個參與者在重要的環境中部署強大的模型,而沒有這些防護措施 2) 模型的改進速度過快,超出了我們的 OODA 循環的跟進能力(例如,奇點情境)
這裡的問題在於: 1) 另一個參與者在重要的環境中部署強大的模型,而沒有這些防護措施 或 2) 模型的改進速度過快,超出了我們的OODA循環的跟進能力(例如,奇點情境)
212