Om du läser en sak den här veckan, skulle du föreslå följande AI-rapport: "Från datagjuterier till världsmodeller" Den väver samman datagjuterier, kontextteknik, RL-miljöer, världsmodeller och mer till en lättillgänglig, men ändå omfattande uppsats om den nuvarande kanten av AI. 👇
Hela artikeln: 🧵under: 1) Från Grok 4-utgåvan är det tydligt att vi inte har träffat "en vägg" i beräkningsutgifter. Källa: @xai
2) Data verkar i allt högre grad vara den korta stången i tältet. Källa: @EpochAIResearch
3) Det mesta av dessa utgifter går till att generera datauppsättningar av hög kvalitet för efterträning, vilket snabbt närmar sig 50 % av beräkningsbudgetarna
4) Detta har lett till en ökad efterfrågan på "datagjuterier" som @scale_AI @HelloSurgeAI @mercor_ai med flera, som hjälper till att hitta den nödvändiga expertisen och skapar datapipelines som är nödvändiga för RL i icke-verifierbara domäner.
5) Vilket kan bidra till att ge bränsle åt allt mer kapabla resonemangsmodeller, helt klart skalningsparadigmet du jour per @ArtificialAnlys
6) Och ändå är modeller inte längre begränsade av IQ utan av kontext. Prompt engineering har lämnat över stafettpinnen till "Context Engineering" - ett växande område som optimerar informationsnyttolaster till LLM:er.
7) Utrymmet är extremt dynamiskt men innebär i allmänhet skalning av kontext över 2 vektorer: 1. Kontextlängd: de beräkningsmässiga och arkitektoniska utmaningarna med att bearbeta ultralånga sekvenser 2. Multimodal: skala kontext bortom text till verkligt multimodala miljöer.
8) Det kanske ultimata uttrycket för kontext är att skapa "RL-miljöer" som perfekt efterliknar uppgifter som RL kan köras på. Även om data är begränsade idag, tror @MechanizeWork att vi är på väg mot en "GPT-3-liknande" böjning med massivt skalad RL
9) Att skapa dessa miljöer är dock ganska arbetsintensivt och verkar inte särskilt "bitter-lektionspiller". @_kevinlu undrar om det finns ett sätt att utnyttja internet för efterträning som gjordes för förträning?
10) Även om det är en intressant tanke, har mycket av internet fångats av ett fåtal stora ekosystem som är vertikalt integrerade och snabbt genomför RL över sina ingredienser för ännu snabbare RL (d.v.s. alfa utvecklas från @GoogleDeepMind )
11) Det är oklart om dessa stora företag ser olika RL-miljöer som nödvändiga eller bara ett tillfälligt stopp på väg till fullständiga "världsmodeller", komplett med digitala tvillingar av nästan alla fenomen Genie 3 från Google är verkligen en nick i denna riktning:
Google DeepMind
Google DeepMind5 aug. 22:03
Tänk om du inte bara kunde titta på en genererad video, utan också utforska den? 🌐 Genie 3 är vår banbrytande världsmodell som skapar interaktiva, spelbara miljöer från en enda textmeddelande. Från fotorealistiska landskap till fantasivärldar är möjligheterna oändliga. 🧵
12) Vilket väcker frågan: är vertikalt integrerade metoder för att bygga syntetisk intelligens med snabbare RL-återkopplingsslingor avsedda att rusa framåt och fånga marknaden eller kan modulära system av latent beräkning, data och talang konkurrera med effektiv orkestrering?
11,86K