Nå som vi er noen år inne, ser det ut til at AI-sikkerhetsbekymringer er empirisk gyldige (f.eks. belønningshacking i kodingsmodeller), men OpenAI "distribuer iterer og lær"-tilnærmingen fungerte bra så langt. Modellene blir bedre, noen ting går i stykker, og du bygger rekkverk mens du går...
Der dette brytes er hvis: 1) En annen aktør bruker kraftige modeller i konsekvenssettinger uten disse rekkverkene i palce 2) Modellene begynner å forbedre seg for raskt til at OODA-sløyfen vår kan holde tritt (f.eks. singularitetsscenario)
Hvor dette bryter: 1) En annen aktør distribuerer kraftige modeller i konsekvensinnstillinger uten disse rekkverkene i palce 2) Modellene begynner å forbedre seg for raskt til at OODA-sløyfen vår kan holde tritt (f.eks. singularitetsscenario)
Hvor dette bryter: 1) En annen aktør distribuerer kraftige modeller i konsekvensinnstillinger uten disse rekkverkene på plass eller 2) Modellene begynner å forbedre seg for raskt til at OODA-sløyfen vår kan holde tritt (f.eks. singularitetsscenario)
229