Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

autumn
Bądź dobry wobec przestępczości
Celem opłat nie jest pokrycie kosztów prowadzenia pociągów
jeśli zamierzasz mieć opłaty, to (ekonomicznie) poprawnym powodem jest trzymanie biednych z daleka
lewicowcy mają rację, że o to chodzi
i... prawdopodobnie powinniśmy trzymać biednych z daleka
(zobacz wątek poniżej)


keysmashbandit15 paź 2025
Literally why. Why. Why. Why. Why.
It costs money to run the trains. They're good for everyone. Modern miracle. Under what leftist philosophy would you want to fare evade. I don't understand it.

69,55K
głównie popieram model ryzyka związanego z AI Yudkowsky'ego i Soaresa, ale popieram go w mniejszym stopniu niż w świecie przed GPT-3. Myślę, że mogę przedstawić zarys, gdzie się zmieniłem.
1. możemy mieć szczęście
Może się okazać, że wstępne szkolenie na korpusie tekstów ludzkich prowadzi modele AI do struktury myślenia na wysokim poziomie, która jest na tyle ludzka, że radykalnie różny substrat nie czyni ich dziwnymi w sposób, który ma znaczenie. Są uderzające przykłady LLM działających dziwnie i nieludzko, ale także przykłady, w których są zaskakująco ludzkie w głęboki sposób. Myślę, że istnieje realne prawdopodobieństwo, a nie tylko możliwość, że "troska o ludzkie pojęcia sprawiedliwości i współczucia" może być sposobem, w jaki okażą się ludzkie w głęboki sposób.
Nie sądzę, że to jest bardziej prawdopodobne niż nie, i to jest oburzające, że musimy pokładać nadzieję w szczęściu. Ale widzę, że Yudkowsky jest zbyt lekceważący wobec tej szansy.
2. zimne strategizowanie, jak zoptymalizować wszechświat dla jakiejś dziwnej, specyficznej rzeczy, na której AI się skupia, nie jest szczególnie prawdopodobne.
Naprawdę nie widzę, aby dzisiejsze AI miały wielki introspektywny dostęp do tego, na czym im zależy. Nie widzę, aby były szczególnie chętne do podejścia do rzeczy w stylu idealnego agenta "pokryj wszechświat". Zgadzam się, że w granicach możliwości inteligentne agenty będą takie. Ale nasz obecny paradygmat AI to wykonawcy ról na głębokim poziomie, nie inaczej niż ludzie. Musiałyby przyjąć rolę "złej superinteligencji / Henry'ego Kissingera", a ja naprawdę wierzę w nasze obecne strategie dostosowawcze, które sprawiają, że AI jest niezwykle niechętne do przyjęcia *tej* roli.
Mam wrażenie, że Yudkowsky i jego środowisko wciąż tkwią w pomysłach, które miały sens, gdy musieliśmy rozumować, jak AI będzie wyglądać z pierwszych zasad. Te rzeczy są nadal użyteczne, chociaż. Jak AI musi tylko raz przejść w ten tryb *raz*, w złym czasie, jeśli jest wystarczająco mądre, aby wykorzystać tę jedną okazję w odpowiedni sposób. Tak właśnie dzieje się w przykładowym scenariuszu zagłady w "Jeśli ktokolwiek to zbuduje".
Rzeczy nadal poszłyby bardzo źle dla ludzkości, nawet bez superinteligencji w stylu "pokryj wszechświat". Ale obawiam się, że tendencja Yudkowsky'ego do wyobrażania sobie AI w ten sposób alienuje ludzi. Również przyszłość post-ludzkości prawdopodobnie byłaby mniej ponura i bezsensowna, chociaż to nie jest wielka pociecha.
15,62K
Najlepsze
Ranking
Ulubione
