Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tomasz Tunguz
O GPT-5 atinge 94,6% de precisão no AIME 2025, sugerindo um raciocínio matemático quase humano.
No entanto, peça para consultar seu banco de dados e as taxas de sucesso despencam para os adolescentes.
Os benchmarks do Spider 2.0 revelam uma lacuna enorme nos recursos de IA. O Spider 2.0 é um benchmark abrangente de texto para SQL que testa a capacidade dos modelos de IA de gerar consultas SQL precisas a partir de perguntas de linguagem natural em bancos de dados do mundo real.
Embora os grandes modelos de linguagem tenham conquistado o trabalho de conhecimento em matemática, codificação e raciocínio, a conversão de texto em SQL permanece teimosamente difícil.
Os três benchmarks do Spider 2.0 testam consultas de banco de dados do mundo real em diferentes ambientes. O Spider 2.0-Snow usa bancos de dados Snowflake com 547 exemplos de teste, com pico de 59,05% de precisão.
O Spider 2.0-Lite abrange BigQuery, Snowflake e SQLite com outros 547 exemplos, atingindo apenas 37,84%. O Spider 2.0-DBT testa a geração de código em relação ao DuckDB com 68 exemplos, chegando a 39,71%.
Essa lacuna de desempenho não é por falta de tentativa. Desde novembro de 2024, 56 inscrições de 12 famílias de modelos competiram nesses benchmarks.
Claude, OpenAI, DeepSeek e outros empurraram seus modelos contra esses testes. O progresso tem sido constante, de cerca de 2% para cerca de 60%, nos últimos nove meses.
O quebra-cabeça se aprofunda quando você considera as restrições do SQL. O SQL tem um vocabulário limitado em comparação com o inglês, que tem 600.000 palavras, ou linguagens de programação que têm sintaxes e bibliotecas muito mais amplas para conhecer. Além disso, há muito SQL por aí para treinar.
Na verdade, isso deve ser mais fácil do que as tarefas de raciocínio aberto, onde os modelos agora se destacam.
No entanto, mesmo a geração perfeita de SQL não resolveria o verdadeiro desafio dos negócios. Cada empresa define "receita" de maneira diferente.
O marketing mede o custo de aquisição do cliente por gastos de campanha, as vendas calculam usando os custos do executivo de contas e as finanças incluem despesas de funcionários totalmente carregadas. Essas diferenças semânticas criam confusão que a precisão técnica não pode resolver.
Os resultados do Spider 2.0 apontam para uma verdade fundamental sobre o trabalho com dados. A proficiência técnica na sintaxe SQL é apenas o ponto de entrada.
O verdadeiro desafio está no contexto dos negócios. Entender o que os dados significam, como diferentes equipes definem métricas e quando os casos extremos são importantes. Como escrevi em Cultivadores Semânticos, a ponte entre dados brutos e significado de negócios requer julgamento humano que a IA atual não pode replicar.

8,81K
O GPT-5 atinge 94,6% de precisão no AIME 2025, sugerindo um raciocínio matemático quase humano.
No entanto, peça para consultar seu banco de dados e as taxas de sucesso despencam para os adolescentes.
Os benchmarks do Spider 2.0 revelam uma lacuna enorme nos recursos de IA. O Spider 2.0 é um benchmark abrangente de conversão de texto em SQL que testa a capacidade dos modelos de IA de gerar consultas SQL precisas a partir de perguntas de linguagem natural em bancos de dados do mundo real.
Embora os grandes modelos de linguagem tenham conquistado o trabalho de conhecimento em matemática, codificação e raciocínio, a conversão de texto em SQL permanece teimosamente difícil.
Os três benchmarks do Spider 2.0 testam consultas de banco de dados do mundo real em diferentes ambientes. O Spider 2.0-Snow usa bancos de dados Snowflake com 547 exemplos de teste, com pico de 59,05% de precisão.
O Spider 2.0-Lite abrange BigQuery, Snowflake e SQLite com outros 547 exemplos, atingindo apenas 37,84%. O Spider 2.0-DBT testa a geração de código em relação ao DuckDB com 68 exemplos, chegando a 39,71%.
Essa lacuna de desempenho não é por falta de tentativa. Desde novembro de 2024, 56 inscrições de 12 famílias de modelos competiram nesses benchmarks.
Claude, OpenAI, DeepSeek e outros empurraram seus modelos contra esses testes. O progresso tem sido constante, de cerca de 2% para cerca de 60%, nos últimos nove meses.
O quebra-cabeça se aprofunda quando você considera as restrições do SQL. O SQL tem um vocabulário limitado em comparação com o inglês, que tem 600.000 palavras, ou linguagens de programação que têm sintaxes e bibliotecas muito mais amplas para conhecer. Além disso, há muito SQL por aí para treinar.
Na verdade, isso deve ser mais fácil do que as tarefas de raciocínio aberto, onde os modelos agora se destacam.
No entanto, mesmo a geração perfeita de SQL não resolveria o verdadeiro desafio dos negócios. Cada empresa define "receita" de maneira diferente.
O marketing mede o custo de aquisição do cliente por gastos de campanha, as vendas calculam usando os custos do executivo de contas e as finanças incluem despesas de funcionários totalmente carregadas. Essas diferenças semânticas criam confusão que a precisão técnica não pode resolver.
Os resultados do Spider 2.0 apontam para uma verdade fundamental sobre o trabalho com dados. A proficiência técnica na sintaxe SQL é apenas o ponto de entrada.
O verdadeiro desafio está no contexto dos negócios. Entender o que os dados significam, como diferentes equipes definem métricas e quando os casos extremos são importantes. Como escrevi em Cultivadores Semânticos, a ponte entre dados brutos e significado de negócios requer julgamento humano que a IA atual não pode replicar.

3,95K
A Perplexity AI acaba de fazer uma oferta não solicitada de US$ 34,5 bilhões pelo navegador Chrome do Google, tentando capitalizar a decisão antitruste pendente que poderia forçar o Google a alienar seu negócio de navegadores.
Comparar a economia do Chrome com o acordo existente do Google com o Safari revela por que US$ 34,5 bilhões subvalorizam o navegador.
O Google paga à Apple de US$ 18 a US$ 20 bilhões anualmente para continuar sendo o mecanismo de pesquisa padrão do Safari¹, atendendo a aproximadamente 850 milhões de usuários². Isso se traduz em US$ 21 por usuário por ano.
A oferta do Perplexity avalia o Chrome em US$ 32 bilhões, o que equivale a US$ 9 por usuário por ano para seus 3,5 bilhões de usuários³.
Se os usuários do Chrome obtivessem os mesmos termos do acordo Google/Apple Safari, o potencial de receita anual do navegador excederia US$ 73 bilhões.
Esses dados são baseados em estimativas públicas, mas são uma aproximação.
Isso pressupõe que o Google pagaria a um novo proprietário do Chrome uma taxa escalonada semelhante pelo posicionamento de pesquisa padrão. Dado um múltiplo de capitalização de mercado / receita de 5x a 6x, o Chrome vale algo entre US$ 172 bilhões e US$ 630 bilhões, muito longe da oferta de US$ 34,5 bilhões.
O Chrome domina o mercado com 65% de participação⁴, em comparação com os 18% do Safari. Um desinvestimento lançaria o mercado de anúncios de pesquisa em convulsão. O valor de manter os orçamentos dos anunciantes é difícil de exagerar para a capitalização de mercado e a posição do Google no ecossistema de anúncios.
Se forçado a vender o Chrome, o Google enfrentaria uma escolha existencial. Pague o que for preciso para permanecer o mecanismo de busca padrão ou veja os concorrentes transformarem seu canal de distribuição mais valioso em um porrete contra ele.
Quanto vale isso? Um prêmio significativo para um simples múltiplo de receita.
¹ Bloomberg: Pagamentos do Google à Apple atingiram US$ 20 bilhões em 2022 (
² ZipDo: estatísticas essenciais do Apple Safari em 2024 (
³ Backlinko: Participação no mercado de navegadores da Web em 2025 (
⁴ Statcounter: Participação no mercado de navegadores em todo o mundo (

7,98K
Em 1999, as pontocom foram valorizadas em termos de tráfego. As métricas de IPO giravam em torno dos olhos.
Então o Google lançou o AdWords, um modelo de anúncio baseado em cliques, e construiu um negócio de US$ 273 bilhões em 2024.
Mas tudo isso pode estar prestes a mudar: o estudo de julho de 2025 da Pew Research revela que os usuários clicam em apenas 8% dos resultados de pesquisa com resumos de IA, contra 15% sem - uma redução de 47%. Apenas 1% clica nos resumos de IA.
Os dados da Cloudflare mostram que as plataformas de IA rastreiam o conteúdo muito mais do que encaminham o tráfego de volta: a Anthropic rastreia 32.400 páginas para cada 1 referência, enquanto os mecanismos de pesquisa tradicionais verificam o conteúdo apenas algumas vezes por visitante enviado.
A despesa de veicular conteúdo para os rastreadores de IA pode não ser enorme se for principalmente texto.
O ponto maior é que os sistemas de IA desintermediam o relacionamento entre usuário e editor. Os usuários preferem respostas agregadas de IA a clicar em sites para encontrar suas respostas.
É lógico que a maioria dos sites deva esperar menos tráfego. Como seu site e sua empresa lidarão com isso?
Fontes:
- Pew Research Center - Athena Chapekis, 22 de julho de 2025 (
- Cloudflare: O rastreamento antes da queda das referências (
- Cloudflare Radar: AI Insights - Proporção de rastreamento para referência (
- Podcast: A mudança de valor do conteúdo na era da IA (

9,69K
GPT-5 lançado ontem. 94,6% no AIME 2025. 74,9% na bancada SWE.
À medida que nos aproximamos dos limites superiores desses benchmarks, eles morrem.
O que torna o GPT-5 e a próxima geração de modelos revolucionários não é o conhecimento deles. É saber como agir. Para GPT-5, isso acontece em dois níveis. Primeiro, decidir qual modelo usar. Mas segundo, e mais importante, por meio da chamada de ferramentas.
Vivemos em uma era em que os LLMs dominam a recuperação e remontagem do conhecimento. A pesquisa e a codificação do consumidor, as aplicações matadoras iniciais, são fundamentalmente desafios de recuperação de conhecimento. Ambos organizam as informações existentes de novas maneiras.
Subimos essas colinas e, como resultado, a competição está mais intensa do que nunca. Os modelos da Anthropic, OpenAI e Google estão convergindo para recursos semelhantes. Os modelos chineses e as alternativas de código aberto continuam a se aproximar cada vez mais do estado da arte. Todos podem recuperar informações. Todos podem gerar texto.
O novo eixo da competição? Chamada de ferramentas.
A chamada de ferramentas transforma os LLMs de consultores em atores. Ele compensa duas fraquezas críticas do modelo que os modelos de linguagem pura não podem superar.
Primeiro, orquestração de fluxo de trabalho. Os modelos se destacam em respostas únicas, mas lutam com processos com várias etapas e com estado. As ferramentas permitem que eles gerenciem fluxos de trabalho longos, acompanhando o progresso, lidando com erros, mantendo o contexto em dezenas de operações.
Em segundo lugar, integração do sistema. Os LLMs vivem em um mundo apenas de texto. As ferramentas permitem que eles interajam de forma previsível com sistemas externos, como bancos de dados, APIs e software corporativo, transformando a linguagem natural em ações executáveis.
No último mês, construí 58 ferramentas de IA diferentes.
Processadores de e-mail. Integradores de CRM. Atualizadores de noção. Assistentes de pesquisa. Cada ferramenta estende os recursos do modelo para um novo domínio.
O recurso mais importante para a IA é selecionar a ferramenta certa de forma rápida e correta. Cada etapa mal direcionada mata todo o fluxo de trabalho.
Quando digo "leia este e-mail da Y Combinator e encontre todas as startups que não estão no CRM", os LLMs modernos executam uma sequência complexa.
Um comando em inglês substitui todo um fluxo de trabalho. E este é apenas um simples.
Melhor ainda, o modelo, devidamente configurado com as ferramentas certas, pode verificar seu próprio trabalho se as tarefas foram concluídas no prazo. Esse loop de autoverificação cria confiabilidade em fluxos de trabalho que é difícil de alcançar de outra forma.
Multiplique isso por centenas de funcionários. Milhares de fluxos de trabalho. Os ganhos de produtividade aumentam exponencialmente.
Os vencedores no futuro mundo da IA serão aqueles que forem mais sofisticados em orquestrar ferramentas e rotear as consultas certas. Todas as vezes. Quando esses fluxos de trabalho forem previsíveis, todos nos tornaremos gerentes de agentes.

3,17K
2025 é o ano dos agentes, e a principal capacidade dos agentes são as ferramentas de chamada.
Ao usar o Claude Code, posso dizer à IA para vasculhar um boletim informativo, encontrar todos os links para startups, verificar se eles existem em nosso CRM, com um único comando. Isso pode envolver duas ou três ferramentas diferentes sendo chamadas.
Mas aqui está o problema: usar um modelo de base grande para isso é caro, muitas vezes limitado por taxa e dominado para uma tarefa de seleção.
Qual é a melhor maneira de construir um sistema agencial com chamada de ferramenta?
A resposta está em pequenos modelos de ação. A NVIDIA lançou um artigo convincente argumentando que "Modelos de linguagem pequena (SLMs) são suficientemente poderosos, inerentemente mais adequados e necessariamente mais econômicos para muitas invocações em sistemas agenciais".
Tenho testado diferentes modelos locais para validar um exercício de redução de custos. Comecei com um modelo de parâmetro Qwen3:30b, que funciona, mas pode ser bastante lento porque é um modelo muito grande, embora apenas 3 bilhões desses 30 bilhões de parâmetros estejam ativos ao mesmo tempo.
O artigo da NVIDIA recomenda o modelo Salesforce xLAM – uma arquitetura diferente chamada modelo de ação grande projetada especificamente para seleção de ferramentas.
Então, fiz um teste próprio, cada modelo chamando uma ferramenta para listar minhas tarefas da Asana.
Os resultados foram impressionantes: o xLAM completou tarefas em 2,61 segundos com 100% de sucesso, enquanto o Qwen levou 9,82 segundos com 92% de sucesso – quase quatro vezes mais.
Este experimento mostra o ganho de velocidade, mas há uma compensação: quanta inteligência deve viver no modelo versus nas próprias ferramentas. Este limitado
Com modelos maiores como o Qwen, as ferramentas podem ser mais simples porque o modelo tem melhor tolerância a erros e pode funcionar em torno de interfaces mal projetadas. O modelo compensa as limitações da ferramenta por meio do raciocínio de força bruta.
Com modelos menores, o modelo tem menos capacidade de se recuperar de erros, portanto, as ferramentas devem ser mais robustas e a lógica de seleção mais precisa. Isso pode parecer uma limitação, mas na verdade é um recurso.
Essa restrição elimina a taxa de erro composto de ferramentas encadeadas de LLM. Quando modelos grandes fazem chamadas de ferramentas sequenciais, os erros se acumulam exponencialmente.
Pequenos modelos de ação forçam um melhor design do sistema, mantendo o melhor dos LLMs e combinando-o com modelos especializados.
Essa arquitetura é mais eficiente, mais rápida e mais previsível.


5,31K
Por que a rodada inicial abaixo de US$ 5 milhões está encolhendo?
Há uma década, essas rodadas menores formavam a espinha dorsal do financiamento de startups, compreendendo mais de 70% de todos os negócios iniciais. Hoje, os dados do PitchBook revelam que esse número despencou para menos da metade.
Os números contam uma história dura. Os negócios abaixo de US$ 5 milhões caíram de 62,5% em 2015 para 37,5% em 2024. Essa queda de 29,5 pontos percentuais reformulou fundamentalmente a forma como as startups levantam seu primeiro capital institucional.
Três forças impulsionaram essa transformação. Podemos decompor o declínio para entender o que reduziu a pequena rodada de sementes e por que isso é importante para os fundadores hoje.

4,71K
Isso foi tão divertido, Mario. Obrigado por me receber no programa para falar sobre tudo o que está acontecendo no mercado!

Mario Gabriele 🦊22 de jul. de 2025
Nosso último episódio com Tomasz Tunguz está ao vivo!
A década dos dados
@ttunguz passou quase duas décadas transformando dados em insights de investimento. Depois de apoiar Looker, Expensify e Monte Carlo na Redpoint Ventures, ele lançou @Theoryvc em 2022 com uma visão ousada: construir uma "corporação investidora" onde pesquisadores, engenheiros e operadores se sentam ao lado de investidores, criando mapas de mercado em tempo real e ferramentas internas de IA. Seu fundo de estreia fechou em US$ 238 milhões, seguido apenas 19 meses depois por um segundo fundo de US$ 450 milhões. Centrada em dados, IA e infraestrutura de criptomoedas, a Theory opera no centro das mudanças tecnológicas mais importantes da atualidade. Exploramos como os dados estão remodelando o capital de risco, por que os modelos tradicionais de investimento estão sendo interrompidos e o que é necessário para construir uma empresa que não apenas preveja o futuro, mas ajude ativamente a criá-lo.
Ouça agora:
• YouTube:
• Spotify:
•Maçã:
Um grande obrigado aos incríveis patrocinadores que tornam o podcast possível:
✨ Brex — A solução bancária para startups:
✨ Generalist+ — Inteligência essencial para investidores e tecnólogos modernos:
Nós exploramos:
→ Como funciona o modelo de "corporação investidora" da Theory
→ Por que as exchanges de criptomoedas podem criar um caminho viável para os mercados públicos para empresas de software de pequena capitalização
→ A iminente crise de energia - por que os data centers podem consumir 15% da eletricidade dos EUA em cinco anos
→ a rápida ascensão das stablecoins à medida que os principais bancos encaminham de 5 a 10% dos dólares americanos por meio delas
→ Por que o Ethereum enfrenta um desafio existencial semelhante ao AWS perdendo terreno para o Azure na era da IA
→ Por que Tomasz acredita que o punhado de agentes de hoje se tornará 100+ colegas de trabalho digitais até o final do ano
→ Por que a Meta está apostando bilhões em óculos AR para mudar a forma como interagimos com as máquinas
→ Como a Theory Ventures usa a IA para acelerar a pesquisa de mercado, a análise de negócios e as decisões de investimento
… E muito mais!
8,01K
A OpenAI recebe em média 1 consulta por americano por dia.
O Google recebe cerca de 4 consultas por americano por dia.
Desde então, 50% das consultas de pesquisa do Google têm visões gerais de IA, o que significa que pelo menos 60% das pesquisas nos EUA agora são IA.
Demorou um pouco mais do que eu esperava para que isso acontecesse. Em 2024, previ que 50% da pesquisa do consumidor seria habilitada para IA. (
Mas a IA chegou à pesquisa.
Se os padrões de pesquisa do Google são uma indicação, há uma lei de potência no comportamento de pesquisa. A análise da SparkToro do comportamento de pesquisa do Google mostra que o terço superior dos americanos que pesquisam executa mais de 80% de todas as pesquisas - o que significa que o uso da IA provavelmente não é distribuído uniformemente - como no futuro.
Sites e empresas estão começando a sentir os impactos disso. O artigo do The Economist "A IA está matando a web. Alguma coisa pode salvá-lo?" captura o zeitgeist em uma manchete. (
A grande maioria dos americanos agora pesquisa com IA. Os efeitos de segunda ordem da mudança nos padrões de pesquisa estão chegando no segundo semestre deste ano e mais estarão perguntando: "O que aconteceu com o meu tráfego?" (
A IA é um novo canal de distribuição e aqueles que a aproveitarem ganharão participação de mercado.
- William Gibson viu muito mais longe no futuro!
- Isso é baseado em uma análise de ponto médio do gráfico SparkToro, é uma análise muito simples e tem algum erro como resultado.

8,88K
Melhores
Classificação
Favoritos
Em alta on-chain
Em alta no X
Principais fundos da atualidade
Mais notável