Se leggi una cosa questa settimana, ti consiglio il rapporto AI qui sotto: "Da Data Foundries a World Models" Intreccia data foundries, ingegneria del contesto, ambienti RL, modelli del mondo e altro in un saggio accessibile, ma completo, sul confine attuale dell'AI.👇(0/12)
Articolo completo: 🧵qui sotto: 1) Dalla release di Grok 4, è chiaro che non abbiamo raggiunto "un muro" nella spesa per il calcolo. Fonte: @xai
2) Sempre più spesso, i dati sembrano essere il palo corto nella tenda. Fonte: @EpochAIResearch
3) La maggior parte di questa spesa è destinata a generare set di dati di alta qualità per il post-addestramento, che si avvicina rapidamente al 50% dei budget di calcolo.
4) Questo ha portato a un'inflessione nella domanda per le "fonderie di dati" come @scale_AI @HelloSurgeAI @mercor_ai e altre che aiutano a reperire le competenze necessarie e a creare pipeline di dati essenziali per il RL in domini non verificabili...
5) Quale può aiutare a alimentare modelli di ragionamento sempre più capaci, chiaramente il paradigma di scaling del giorno per @ArtificialAnlys
6) Eppure, i modelli non sono più vincolati dal QI ma dal contesto. L'ingegneria dei prompt ha passato il testimone all'"Ingegneria del Contesto" - un campo in espansione che ottimizza i carichi informativi per i LLM.
7) Lo spazio è estremamente dinamico ma generalmente comporta la scalabilità del contesto su 2 vettori: 1. Lunghezza del contesto: le sfide computazionali e architettoniche di elaborare sequenze ultra-lunghe 2. Multimodale: scalare il contesto oltre il testo per ambienti veramente multimodali.
8) Forse l'espressione definitiva del contesto ing. è creare "ambienti RL" che imitano perfettamente i compiti su cui può essere eseguito il RL. Sebbene oggi i dati siano limitati, @MechanizeWork crede che stiamo andando verso un'inflessione "simile a GPT-3" con RL su scala massiccia.
9) Tuttavia, creare questi ambienti è piuttosto laborioso e non sembra molto "bitter-lesson-pilled". @_kevinlu si chiede se ci sia un modo per sfruttare internet per il post-addestramento come è stato fatto per il pre-addestramento?
10) Sebbene sia un pensiero interessante, gran parte di Internet è stata catturata da pochi grandi ecosistemi che sono verticalmente integrati e stanno rapidamente conducendo RL attraverso i loro ingredienti per un RL ancora più veloce (ossia alpha evolve da @GoogleDeepMind)
11) Non è chiaro se queste grandi aziende considerino gli ambienti RL disparati come essenziali o solo una tappa temporanea verso modelli "del mondo" completi, con gemelli digitali di quasi ogni fenomeno. Genie 3 di Google è sicuramente un segnale in questa direzione:
Google DeepMind
Google DeepMind5 ago, 22:03
E se potessi non solo guardare un video generato, ma esplorarlo anche? 🌐 Genie 3 è il nostro modello di mondo innovativo che crea ambienti interattivi e giocabili a partire da un singolo prompt testuale. Da paesaggi fotorealistici a regni fantastici, le possibilità sono infinite. 🧵
12) Questo solleva la domanda: gli approcci verticalmente integrati per costruire intelligenza sintetica con loop di feedback RL più veloci sono destinati a progredire rapidamente e catturare il mercato o i sistemi modulari di calcolo latente, dati e talenti possono competere con un'efficace orchestrazione?
11,88K