Teraz, po kilku latach, wydaje się, że obawy dotyczące bezpieczeństwa sztucznej inteligencji są empirycznie uzasadnione (np. hakowanie z nagrodami w modelach kodowania), ale podejście OpenAI "wdrażaj, iteruj i ucz się" działało dobrze do tej pory. Modele stają się coraz lepsze, niektóre rzeczy się psują, a ty budujesz barierki w miarę upływu czasu...
Gdzie to się psuje, to jeśli: 1) Inny aktor wdraża potężne modele w istotnych ustawieniach bez tych zabezpieczeń w miejscu 2) Modele zaczynają się poprawiać zbyt szybko, aby nasza pętla OODA mogła nadążyć (np. scenariusz osobliwości)
Gdzie to się psuje: 1) Inny aktor wdraża potężne modele w istotnych ustawieniach bez tych zabezpieczeń w miejscu 2) Modele zaczynają się poprawiać zbyt szybko, aby nasza pętla OODA mogła nadążyć (np. scenariusz osobliwości)
Gdzie to się łamie: 1) Inny aktor wdraża potężne modele w istotnych ustawieniach bez tych zabezpieczeń w miejscu lub 2) Modele zaczynają się poprawiać zbyt szybko, aby nasza pętla OODA mogła nadążyć (np. scenariusz osobliwości)
235