Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Misha Laskin
Współzałożyciel, CEO w @reflection_ai. Poprzednia: Badania @DeepMind. Zespół Gemini RL.
Coś wielkiego wydarzy się jutro. To niektórzy z najbardziej utalentowanych badaczy, jakich znam.

Deepak Pathak28 lip 2025
Szczęśliwy, że mogę pracować z niesamowitym zespołem @SkildAI. Zobaczcie zapowiedź dziesięcioletnich wkładów naszego zespołu przed Skild AI.
Bądźcie czujni na premierę jutro!
2,42K
Użytkownik Misha Laskin udostępnił ponownie
Byłem jednym z 16 deweloperów w tym badaniu. Chciałem podzielić się moimi opiniami na temat przyczyn i strategii łagodzenia spowolnienia deweloperów.
Powiem jako haczyk "dlaczego miałbym cię słuchać?", że doświadczyłem -38% przyspieszenia AI w moich przypisanych zadaniach. Uważam, że przejrzystość pomaga społeczności.

1,96M
Największym pytaniem w badaniach nad RL zawsze było - w jakim środowisku trenujesz?
Kiedyś były to gry wideo (Atari) i planszowe (Go / Chess).
Ale teraz, gdy RL współpracuje z LLM, liczy się tylko jedno środowisko. I to jest Twój produkt.

Kevin Lu10 lip 2025
Dlaczego powinieneś przestać pracować nad badaniami RL i zamiast tego zająć się produktem //
Technologią, która zapoczątkowała wielką zmianę w skali sztucznej inteligencji, jest internet, a nie transformatory
Myślę, że powszechnie wiadomo, że dane są najważniejszą rzeczą w sztucznej inteligencji, a także, że naukowcy i tak nie chcą nad nimi pracować. ... Co to znaczy pracować na danych (w sposób skalowalny)?
Internet był bogatym źródłem obfitych danych, które były różnorodne, zapewniały naturalny program nauczania, reprezentowały kompetencje, na których ludziom naprawdę zależy, i były ekonomicznie opłacalną technologią do wdrożenia na dużą skalę -- stały się idealnym uzupełnieniem prognoz na poziomie kolejnym i były pierwotną zupą, której mogła wystartować sztuczna inteligencja.
Bez transformatorów można by wystartować na wiele podejść, prawdopodobnie moglibyśmy mieć CNN lub modele przestrzeni stanów na poziomie GPT-4.5. Ale od czasu GPT-4 nie nastąpiła radykalna poprawa w modelach podstawowych. Modele rozumowania świetnie sprawdzają się w wąskich dziedzinach, ale nie tak ogromnym skokiem, jak GPT-4 w marcu 2023 roku (ponad 2 lata temu...)
Mamy coś wspaniałego z uczeniem się przez wzmacnianie, ale głęboko boję się, że powtórzymy błędy z przeszłości (RL z lat 2015-2020) i przeprowadzimy badania nad RL, które nie mają znaczenia.
W sposób, w jaki internet był podwójnym nadzorowanym treningiem wstępnym, jaka będzie dwójność RL, która doprowadzi do ogromnego postępu, takiego jak GPT-1 -> GPT-4? Myślę, że wygląda to na wspólne projektowanie badań i produktów.

10,98K
Użytkownik Misha Laskin udostępnił ponownie
Łatwo jest dostosować małe modele za pomocą RL, aby przewyższały modele bazowe w zadaniach pionowych.
Udostępniamy na otwartym źródle Osmosis-Apply-1.7B: mały model, który lepiej łączy kod (podobnie jak natychmiastowe zastosowanie Cursor) niż modele bazowe.
Linki do pobrania i wypróbowania modelu poniżej!
111,47K
Najlepsze
Ranking
Ulubione
Trendy onchain
Trendy na X
Niedawne największe finansowanie
Najbardziej godne uwagi