Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Se você leu uma coisa esta semana, sugira o relatório de IA abaixo:
"De fundições de dados a modelos de mundo"
Ele entrelaça fundições de dados, engenharia de contexto, ambientes RL, modelos de mundo e muito mais em um ensaio acessível, mas abrangente, sobre a borda atual da IA. 👇
Artigo completo:
🧵abaixo:
1) Desde o lançamento do Grok 4, está claro que não atingimos "uma parede" nos gastos com computação.
Fonte: @xai

2) Cada vez mais, os dados parecem ser o poste curto na tenda.
Fonte: @EpochAIResearch

3) A maior parte desses gastos vai para a geração de conjuntos de dados de alta qualidade para pós-treinamento, que está se aproximando rapidamente de 50% dos orçamentos de computação

4) Isso levou a uma inflexão na demanda por "fundidores de dados" como @scale_AI @HelloSurgeAI @mercor_ai e mais que ajudam a obter a experiência necessária e criar pipelines de dados essenciais para RL em domínios não verificáveis...

5) O que pode ajudar a alimentar modelos de raciocínio cada vez mais capazes, claramente o paradigma de escala do dia por @ArtificialAnlys

6) E, no entanto, os modelos não são mais limitados pelo QI, mas pelo contexto. A engenharia rápida passou o bastão para a "Engenharia de Contexto" - um campo florescente que otimiza cargas úteis de informações para LLMs.

7) O espaço é extremamente dinâmico, mas geralmente envolve o dimensionamento do contexto em 2 vetores:
1. Comprimento do contexto: os desafios computacionais e arquitetônicos do processamento de sequências ultralongas
2. Multimodal: dimensionar o contexto além do texto para ambientes verdadeiramente multimodais.

8) Talvez a expressão máxima do contexto eng. é criar "ambientes RL" que imitam perfeitamente as tarefas nas quais o RL pode ser executado.
Embora os dados sejam restritos hoje, @MechanizeWork acredita que estamos caminhando para uma inflexão "GPT-3" com RL em grande escala

9) No entanto, criar esses ambientes é bastante trabalhoso e não parece muito "amargo".
@_kevinlu está se perguntando se existe uma maneira de aproveitar a internet para o pós-treinamento, como foi feito para o pré-treinamento?

10) Embora seja um pensamento interessante, grande parte da internet foi capturada por alguns grandes ecossistemas que são integrados verticalmente e conduzem rapidamente RL em seus ingredientes para RL ainda mais rápido
(ou seja, alfa evolui de @GoogleDeepMind)

11) Não está claro se essas grandes empresas veem ambientes díspares de RL como essenciais ou apenas uma parada temporária a caminho de "modelos de mundo" completos, completos com gêmeos digitais de quase todos os fenômenos
Genie 3 do Google é certamente um aceno nessa direção:

5 de ago., 22:03
E se você pudesse não apenas assistir a um vídeo gerado, mas também explorá-lo? 🌐
Genie 3 é o nosso modelo de mundo inovador que cria ambientes interativos e jogáveis a partir de um único prompt de texto.
De paisagens fotorrealistas a reinos de fantasia, as possibilidades são infinitas. 🧵
12) O que levanta a questão: as abordagens verticalmente integradas para a construção de inteligência sintética com ciclos de feedback RL mais rápidos estão destinadas a acelerar e capturar o mercado ou os sistemas modulares de computação, dados e talentos latentes podem competir com a orquestração eficaz?

11,84K
Melhores
Classificação
Favoritos