Se você leu uma coisa esta semana, sugira o relatório de IA abaixo: "De fundições de dados a modelos de mundo" Ele entrelaça fundições de dados, engenharia de contexto, ambientes RL, modelos de mundo e muito mais em um ensaio acessível, mas abrangente, sobre a borda atual da IA. 👇
Artigo completo: 🧵abaixo: 1) Desde o lançamento do Grok 4, está claro que não atingimos "uma parede" nos gastos com computação. Fonte: @xai
2) Cada vez mais, os dados parecem ser o poste curto na tenda. Fonte: @EpochAIResearch
3) A maior parte desses gastos vai para a geração de conjuntos de dados de alta qualidade para pós-treinamento, que está se aproximando rapidamente de 50% dos orçamentos de computação
4) Isso levou a uma inflexão na demanda por "fundidores de dados" como @scale_AI @HelloSurgeAI @mercor_ai e mais que ajudam a obter a experiência necessária e criar pipelines de dados essenciais para RL em domínios não verificáveis...
5) O que pode ajudar a alimentar modelos de raciocínio cada vez mais capazes, claramente o paradigma de escala do dia por @ArtificialAnlys
6) E, no entanto, os modelos não são mais limitados pelo QI, mas pelo contexto. A engenharia rápida passou o bastão para a "Engenharia de Contexto" - um campo florescente que otimiza cargas úteis de informações para LLMs.
7) O espaço é extremamente dinâmico, mas geralmente envolve o dimensionamento do contexto em 2 vetores: 1. Comprimento do contexto: os desafios computacionais e arquitetônicos do processamento de sequências ultralongas 2. Multimodal: dimensionar o contexto além do texto para ambientes verdadeiramente multimodais.
8) Talvez a expressão máxima do contexto eng. é criar "ambientes RL" que imitam perfeitamente as tarefas nas quais o RL pode ser executado. Embora os dados sejam restritos hoje, @MechanizeWork acredita que estamos caminhando para uma inflexão "GPT-3" com RL em grande escala
9) No entanto, criar esses ambientes é bastante trabalhoso e não parece muito "amargo". @_kevinlu está se perguntando se existe uma maneira de aproveitar a internet para o pós-treinamento, como foi feito para o pré-treinamento?
10) Embora seja um pensamento interessante, grande parte da internet foi capturada por alguns grandes ecossistemas que são integrados verticalmente e conduzem rapidamente RL em seus ingredientes para RL ainda mais rápido (ou seja, alfa evolui de @GoogleDeepMind)
11) Não está claro se essas grandes empresas veem ambientes díspares de RL como essenciais ou apenas uma parada temporária a caminho de "modelos de mundo" completos, completos com gêmeos digitais de quase todos os fenômenos Genie 3 do Google é certamente um aceno nessa direção:
Google DeepMind
Google DeepMind5 de ago., 22:03
E se você pudesse não apenas assistir a um vídeo gerado, mas também explorá-lo? 🌐 Genie 3 é o nosso modelo de mundo inovador que cria ambientes interativos e jogáveis a partir de um único prompt de texto. De paisagens fotorrealistas a reinos de fantasia, as possibilidades são infinitas. 🧵
12) O que levanta a questão: as abordagens verticalmente integradas para a construção de inteligência sintética com ciclos de feedback RL mais rápidos estão destinadas a acelerar e capturar o mercado ou os sistemas modulares de computação, dados e talentos latentes podem competir com a orquestração eficaz?
11,84K