Acum, după câțiva ani, se pare că preocupările legate de siguranța AI sunt valabile empiric (de exemplu, hacking-ul de recompensă în modelele de codare), dar abordarea OpenAI "implementează, itera și învață" a funcționat bine până acum. Modelele devin mai bune, unele lucruri se rup și construiești balustrade pe măsură ce mergi...
Unde se întrerupe acest lucru este dacă: 1) Un alt actor implementează modele puternice în setări consecvente fără aceste balustrade în palce 2) Modelele încep să se îmbunătățească prea repede pentru ca bucla noastră OODA să țină pasul (de exemplu, scenariul de singularitate)
Unde se rupe: 1) Un alt actor implementează modele puternice în setări consecvente fără aceste balustrade în palce 2) Modelele încep să se îmbunătățească prea repede pentru ca bucla noastră OODA să țină pasul (de exemplu, scenariul de singularitate)
Unde se rupe: 1) Un alt actor implementează modele puternice în setări importante fără aceste balustrade sau 2) Modelele încep să se îmbunătățească prea repede pentru ca bucla noastră OODA să țină pasul (de exemplu, scenariul de singularitate)
237