Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Tomasz Tunguz
GPT-5 logra una precisión del 94,6% en AIME 2025, lo que sugiere un razonamiento matemático casi humano.
Sin embargo, pídale que consulte su base de datos y las tasas de éxito se desploman a los adolescentes.
Los puntos de referencia de Spider 2.0 revelan una gran brecha en las capacidades de IA. Spider 2.0 es un punto de referencia integral de texto a SQL que prueba la capacidad de los modelos de IA para generar consultas SQL precisas a partir de preguntas de lenguaje natural en bases de datos del mundo real.
Si bien los grandes modelos de lenguaje han conquistado el trabajo de conocimiento en matemáticas, codificación y razonamiento, el texto a SQL sigue siendo obstinadamente difícil.
Los tres puntos de referencia de Spider 2.0 prueban la consulta de bases de datos del mundo real en diferentes entornos. Spider 2.0-Snow utiliza bases de datos Snowflake con 547 ejemplos de prueba, con una precisión máxima del 59,05%.
Spider 2.0-Lite abarca BigQuery, Snowflake y SQLite con otros 547 ejemplos, alcanzando solo el 37.84%. Spider 2.0-DBT prueba la generación de código contra DuckDB con 68 ejemplos, alcanzando un máximo del 39,71%.
Esta brecha de rendimiento no se debe a la falta de intentos. Desde noviembre de 2024, 56 presentaciones de 12 familias modelo han competido en estos puntos de referencia.
Claude, OpenAI, DeepSeek y otros han impulsado sus modelos contra estas pruebas. El progreso ha sido constante, de aproximadamente el 2% a aproximadamente el 60%, en los últimos nueve meses.
El rompecabezas se profundiza cuando se consideran las restricciones de SQL. SQL tiene un vocabulario limitado en comparación con el inglés, que tiene 600.000 palabras, o lenguajes de programación que tienen sintaxis y bibliotecas mucho más amplias para conocer. Además, hay mucho SQL para entrenar.
En todo caso, esto debería ser más fácil que las tareas de razonamiento abierto donde los modelos ahora sobresalen.
Sin embargo, incluso la generación perfecta de SQL no resolvería el verdadero desafío comercial. Cada empresa define los "ingresos" de manera diferente.
Marketing mide el costo de adquisición de clientes por gasto de campaña, ventas lo calcula utilizando los costos de los ejecutivos de cuentas y finanzas incluye los gastos de empleados completamente cargados. Estas diferencias semánticas crean una confusión que la precisión técnica no puede resolver.
Los resultados de Spider 2.0 apuntan a una verdad fundamental sobre el trabajo de datos. La competencia técnica en la sintaxis SQL es solo el punto de entrada.
El verdadero desafío radica en el contexto empresarial. Comprender qué significan los datos, cómo los diferentes equipos definen las métricas y cuándo son importantes los casos extremos. Como escribí en Semantic Cultivators, el puente entre los datos sin procesar y el significado comercial requiere un juicio humano que la IA actual no puede replicar.

8.79K
GPT-5 logra una precisión del 94,6% en AIME 2025, lo que sugiere un razonamiento matemático casi humano.
Sin embargo, pídale que consulte su base de datos y las tasas de éxito se desploman a los adolescentes.
Los puntos de referencia de Spider 2.0 revelan una gran brecha en las capacidades de IA. Spider 2.0 es un punto de referencia integral de texto a SQL que prueba la capacidad de los modelos de IA para generar consultas SQL precisas a partir de preguntas de lenguaje natural en bases de datos del mundo real.
Si bien los grandes modelos de lenguaje han conquistado el trabajo de conocimiento en matemáticas, codificación y razonamiento, el texto a SQL sigue siendo obstinadamente difícil.
Los tres puntos de referencia de Spider 2.0 prueban la consulta de bases de datos del mundo real en diferentes entornos. Spider 2.0-Snow utiliza bases de datos Snowflake con 547 ejemplos de prueba, con una precisión máxima del 59,05%.
Spider 2.0-Lite abarca BigQuery, Snowflake y SQLite con otros 547 ejemplos, alcanzando solo el 37.84%. Spider 2.0-DBT prueba la generación de código contra DuckDB con 68 ejemplos, alcanzando un máximo del 39,71%.
Esta brecha de rendimiento no se debe a la falta de intentos. Desde noviembre de 2024, 56 presentaciones de 12 familias modelo han competido en estos puntos de referencia.
Claude, OpenAI, DeepSeek y otros han impulsado sus modelos contra estas pruebas. El progreso ha sido constante, de aproximadamente el 2% a aproximadamente el 60%, en los últimos nueve meses.
El rompecabezas se profundiza cuando se consideran las restricciones de SQL. SQL tiene un vocabulario limitado en comparación con el inglés, que tiene 600.000 palabras, o lenguajes de programación que tienen sintaxis y bibliotecas mucho más amplias para conocer. Además, hay mucho SQL para entrenar.
En todo caso, esto debería ser más fácil que las tareas de razonamiento abierto donde los modelos ahora sobresalen.
Sin embargo, incluso la generación perfecta de SQL no resolvería el verdadero desafío comercial. Cada empresa define los "ingresos" de manera diferente.
Marketing mide el costo de adquisición de clientes por gasto de campaña, ventas lo calcula utilizando los costos de los ejecutivos de cuentas y finanzas incluye los gastos de empleados completamente cargados. Estas diferencias semánticas crean una confusión que la precisión técnica no puede resolver.
Los resultados de Spider 2.0 apuntan a una verdad fundamental sobre el trabajo de datos. La competencia técnica en la sintaxis SQL es solo el punto de entrada.
El verdadero desafío radica en el contexto empresarial. Comprender qué significan los datos, cómo los diferentes equipos definen las métricas y cuándo son importantes los casos extremos. Como escribí en Semantic Cultivators, el puente entre los datos sin procesar y el significado comercial requiere un juicio humano que la IA actual no puede replicar.

3.94K
Perplexity AI acaba de hacer una oferta no solicitada de $ 34.5 mil millones por el navegador Chrome de Google, intentando capitalizar el fallo antimonopolio pendiente que podría obligar a Google a deshacerse de su negocio de navegadores.
La comparación de la economía de Chrome con el acuerdo existente de Safari de Google revela por qué $ 34.5 mil millones infravalora el navegador.
Google paga a Apple entre 18.000 y 20.000 millones de dólares al año para seguir siendo el motor de búsqueda predeterminado de Safari¹, que atiende a aproximadamente 850 millones de usuarios². Esto se traduce en $ 21 por usuario por año.
La oferta de Perplexity valora a Chrome en $ 32 mil millones, que es $ 9 por usuario por año para sus 3.5 mil millones de usuarios³.
Si los usuarios de Chrome exigieran los mismos términos que el acuerdo de Google / Apple Safari, el potencial de ingresos anuales del navegador superaría los $ 73 mil millones.
Estos datos se basan en estimaciones públicas, pero son una aproximación.
Esto supone que Google pagaría a un nuevo propietario de Chrome una tarifa escalonada similar por la ubicación de búsqueda predeterminada. Dado un múltiplo de capitalización de mercado a ingresos de 5 a 6 veces, Chrome vale entre $ 172 mil millones y $ 630 mil millones, muy lejos de la oferta de $ 34.5 mil millones.
Chrome domina el mercado con una participación del 65 %⁴, en comparación con el 18 % de Safari. Una desinversión pondría en agitación el mercado de anuncios de búsqueda. El valor de mantener los presupuestos de los anunciantes es difícil de exagerar para la capitalización de mercado y la posición de Google en el ecosistema publicitario.
Si se ve obligado a vender Chrome, Google se enfrentaría a una elección existencial. Pague lo que sea necesario para seguir siendo el motor de búsqueda predeterminado, o vea cómo los competidores convierten su canal de distribución más valioso en un garrote contra él.
¿Cuánto vale eso? Una prima significativa a un simple múltiplo de ingresos.
¹ Bloomberg: Los pagos de Google a Apple alcanzaron los $ 20 mil millones en 2022 (
² ZipDo: Estadísticas esenciales de Apple Safari en 2024 (
³ Backlinko: Cuota de mercado de navegadores web en 2025 (
⁴ Statcounter: Cuota de mercado de navegadores en todo el mundo (

7.97K
En 1999, las empresas de internet se valoraban según el tráfico. Las métricas de las OPI giraban en torno a las visitas.
Luego, Google lanzó AdWords, un modelo publicitario basado en clics, y construyó un negocio de $273 mil millones en 2024.
Pero eso podría estar a punto de cambiar: el estudio de Pew Research de julio de 2025 revela que los usuarios hacen clic en solo el 8% de los resultados de búsqueda con resúmenes de IA, frente al 15% sin ellos, lo que representa una reducción del 47%. Solo el 1% hace clic desde dentro de los resúmenes de IA.
Los datos de Cloudflare muestran que las plataformas de IA rastrean contenido mucho más de lo que refieren tráfico: Anthropic rastrea 32,400 páginas por cada 1 referencia, mientras que los motores de búsqueda tradicionales escanean contenido solo un par de veces por visitante enviado.
El costo de servir contenido a los rastreadores de IA puede no ser enorme si se trata principalmente de texto.
El punto más importante es que los sistemas de IA desintermedian la relación entre el usuario y el editor. Los usuarios prefieren respuestas agregadas de IA en lugar de hacer clic en sitios web para encontrar sus respuestas.
Es lógico que la mayoría de los sitios web deberían esperar menos tráfico. ¿Cómo manejará su sitio web y su negocio esta situación?
Fuentes:
- Pew Research Center - Athena Chapekis, 22 de julio de 2025 (
- Cloudflare: El rastreo antes de la caída de las referencias (
- Cloudflare Radar: Perspectivas de IA - Relación de rastreo a referencia (
- Podcast: El valor cambiante del contenido en la era de la IA (

9.68K
GPT-5 se lanzó ayer. 94.6% en AIME 2025. 74.9% en SWE-bench.
A medida que nos acercamos a los límites superiores de estos benchmarks, mueren.
Lo que hace que GPT-5 y la próxima generación de modelos sean revolucionarios no es su conocimiento. Es saber cómo actuar. Para GPT-5 esto ocurre en dos niveles. Primero, decidir qué modelo usar. Pero segundo, y más importante, a través de la llamada a herramientas.
Hemos estado viviendo en una era donde los LLMs dominaron la recuperación y reensamblaje de conocimiento. La búsqueda de consumidores y la codificación, las aplicaciones iniciales más impactantes, son fundamentalmente desafíos de recuperación de conocimiento. Ambos organizan la información existente de nuevas maneras.
Hemos escalado esas colinas y, como resultado, la competencia es más intensa que nunca. Los modelos de Anthropic, OpenAI y Google están convergiendo en capacidades similares. Los modelos chinos y las alternativas de código abierto continúan acercándose cada vez más a la vanguardia. Todos pueden recuperar información. Todos pueden generar texto.
¿El nuevo eje de competencia? La llamada a herramientas.
La llamada a herramientas transforma a los LLMs de asesores a actores. Compensa dos debilidades críticas del modelo que los modelos de lenguaje puro no pueden superar.
Primero, la orquestación del flujo de trabajo. Los modelos sobresalen en respuestas de un solo intento, pero luchan con procesos multi-paso y con estado. Las herramientas les permiten gestionar flujos de trabajo largos, rastrear el progreso, manejar errores, mantener el contexto a través de docenas de operaciones.
Segundo, la integración del sistema. Los LLMs viven en un mundo solo de texto. Las herramientas les permiten interactuar de manera predecible con sistemas externos como bases de datos, APIs y software empresarial, convirtiendo el lenguaje natural en acciones ejecutables.
En el último mes he construido 58 herramientas de IA diferentes.
Procesadores de correo electrónico. Integradores de CRM. Actualizadores de Notion. Asistentes de investigación. Cada herramienta extiende las capacidades del modelo a un nuevo dominio.
La capacidad más importante para la IA es seleccionar la herramienta correcta de manera rápida y correcta. Cada paso mal dirigido mata todo el flujo de trabajo.
Cuando digo “lee este correo electrónico de Y Combinator y encuentra todas las startups que no están en el CRM”, los LLMs modernos ejecutan una secuencia compleja.
Un comando en inglés reemplaza todo un flujo de trabajo. Y este es solo uno simple.
Aún mejor, el modelo, correctamente configurado con las herramientas adecuadas, puede verificar su propio trabajo de que las tareas se completaron a tiempo. Este bucle de auto-verificación crea fiabilidad en los flujos de trabajo que es difícil de lograr de otra manera.
Multiplica esto a través de cientos de empleados. Miles de flujos de trabajo. Las ganancias de productividad se acumulan exponencialmente.
Los ganadores en el futuro mundo de la IA serán aquellos que sean más sofisticados en orquestar herramientas y dirigir las consultas correctas. Cada vez. Una vez que esos flujos de trabajo sean predecibles, es cuando todos nos convertiremos en gerentes de agentes.

3.16K
2025 es el año de los agentes, y la capacidad clave de los agentes es llamar herramientas.
Al usar Claude Code, puedo decirle a la IA que revise un boletín, encuentre todos los enlaces a startups, verifique que existan en nuestro CRM, con un solo comando. Esto puede implicar que se llamen dos o tres herramientas diferentes.
Pero aquí está el problema: usar un modelo de base grande para esto es costoso, a menudo tiene limitaciones de tasa y es excesivo para una tarea de selección.
¿Cuál es la mejor manera de construir un sistema agente con llamadas a herramientas?
La respuesta radica en modelos de acción pequeños. NVIDIA publicó un artículo convincente argumentando que “Los modelos de lenguaje pequeños (SLMs) son suficientemente poderosos, inherentemente más adecuados y necesariamente más económicos para muchas invocaciones en sistemas agentes.”
He estado probando diferentes modelos locales para validar un ejercicio de reducción de costos. Comencé con un modelo de parámetros Qwen3:30b, que funciona pero puede ser bastante lento porque es un modelo tan grande, aunque solo 3 mil millones de esos 30 mil millones de parámetros están activos en un momento dado.
El artículo de NVIDIA recomienda el modelo Salesforce xLAM: una arquitectura diferente llamada modelo de acción grande específicamente diseñado para la selección de herramientas.
Así que, realicé una prueba propia, cada modelo llamando a una herramienta para listar mis tareas de Asana.
Los resultados fueron sorprendentes: xLAM completó las tareas en 2.61 segundos con un 100% de éxito, mientras que Qwen tardó 9.82 segundos con un 92% de éxito, casi cuatro veces más.
Este experimento muestra la ganancia de velocidad, pero hay un compromiso: cuánta inteligencia debe residir en el modelo frente a las herramientas mismas. Esto es limitado.
Con modelos más grandes como Qwen, las herramientas pueden ser más simples porque el modelo tiene mejor tolerancia a errores y puede trabajar alrededor de interfaces mal diseñadas. El modelo compensa las limitaciones de las herramientas mediante razonamiento de fuerza bruta.
Con modelos más pequeños, el modelo tiene menos capacidad para recuperarse de errores, por lo que las herramientas deben ser más robustas y la lógica de selección más precisa. Esto puede parecer una limitación, pero en realidad es una característica.
Esta restricción elimina la tasa de error acumulativa de las herramientas encadenadas de LLM. Cuando los modelos grandes hacen llamadas secuenciales a herramientas, los errores se acumulan exponencialmente.
Los modelos de acción pequeños obligan a un mejor diseño del sistema, manteniendo lo mejor de los LLM y combinándolo con modelos especializados.
Esta arquitectura es más eficiente, más rápida y más predecible.


5.29K
¿Por qué se está reduciendo la ronda inicial de menos de $ 5 millones?
Hace una década, estas rondas más pequeñas formaban la columna vertebral de la financiación de startups, que comprendían más del 70% de todos los acuerdos iniciales. Hoy, los datos de PitchBook revelan que esa cifra se ha desplomado a menos de la mitad.
Los números cuentan una historia cruda. Los acuerdos de menos de 5 millones de dólares disminuyeron del 62,5% en 2015 al 37,5% en 2024. Esta caída de 29,5 puntos porcentuales remodeló fundamentalmente la forma en que las startups recaudan su primer capital institucional.
Tres fuerzas impulsaron esta transformación. Podemos descomponer el declive para entender qué redujo la pequeña ronda de semillas y por qué es importante para los fundadores hoy.

4.69K
Esto fue muy divertido, Mario. ¡Gracias por invitarme al programa para hablar sobre todo lo que sucede en el mercado!

Mario Gabriele 🦊22 jul 2025
¡Nuestro último episodio con Tomasz Tunguz está en vivo!
La década de los datos
@ttunguz ha pasado casi dos décadas convirtiendo los datos en información de inversión. Después de respaldar a Looker, Expensify y Monte Carlo en Redpoint Ventures, lanzó @Theoryvc en 2022 con una visión audaz: construir una "corporación inversora" donde investigadores, ingenieros y operadores se sienten junto a los inversores, creando mapas de mercado en tiempo real y herramientas de inteligencia artificial internas. Su fondo debut cerró en 238 millones de dólares, seguido solo 19 meses después por un segundo fondo de 450 millones de dólares. Centrado en datos, inteligencia artificial e infraestructura criptográfica, Theory opera en el corazón de los cambios tecnológicos más importantes de la actualidad. Exploramos cómo los datos están remodelando el capital de riesgo, por qué se están alterando los modelos de inversión tradicionales y qué se necesita para construir una empresa que no solo prediga el futuro, sino que ayude activamente a crearlo.
Escucha ahora:
• YouTube:
• Spotify:
•Manzana:
Un gran agradecimiento a los increíbles patrocinadores que hacen posible el podcast:
✨ Brex: la solución bancaria para startups:
✨ Generalist+ — Inteligencia esencial para inversores y tecnólogos modernos:
Exploramos:
→ Cómo funciona el modelo de "corporación inversora" de Theory
→ Por qué los exchanges de criptomonedas podrían crear un camino viable hacia los mercados públicos para las empresas de software de pequeña capitalización
→ La inminente crisis energética: por qué los centros de datos podrían consumir el 15% de la electricidad de EE. UU. en cinco años
→ rápido ascenso de las stablecoins a medida que los principales bancos enrutan entre el 5 y el 10% de los dólares estadounidenses a través de ellas
→ Por qué Ethereum se enfrenta a un desafío existencial similar a AWS perdiendo terreno frente a Azure en la era de la IA
→ Por qué Tomasz cree que el puñado de agentes de hoy se convertirá en 100+ compañeros de trabajo digitales para fin de año
→ Por qué Meta está apostando miles de millones en gafas de realidad aumentada para cambiar la forma en que interactuamos con las máquinas
→ Cómo Theory Ventures utiliza la IA para acelerar la investigación de mercado, el análisis de acuerdos y las decisiones de inversión
… ¡Y mucho más!
8K
OpenAI recibe en promedio 1 consulta por estadounidense por día.
Google recibe alrededor de 4 consultas por estadounidense por día.
Desde entonces, el 50% de las consultas de búsqueda de Google tienen descripciones generales de IA, esto significa que al menos el 60% de las búsquedas de EE. UU. ahora son IA.
Ha tomado un poco más de tiempo de lo que esperaba para que esto suceda. En 2024, predije que el 50% de las búsquedas de los consumidores estarían habilitadas por IA. (
Pero la IA ha llegado en la búsqueda.
Si los patrones de búsqueda de Google son una indicación, hay una ley de potencia en el comportamiento de búsqueda. El análisis de SparkToro sobre el comportamiento de búsqueda de Google muestra que el tercio superior de los estadounidenses que realizan búsquedas ejecutan más del 80% de todas las búsquedas, lo que significa que es probable que el uso de la IA no se distribuya de manera uniforme, como en el futuro.
Los sitios web y las empresas están comenzando a sentir los impactos de esto. El artículo de The Economist "La IA está matando la web. ¿Puede algo salvarlo?" captura el espíritu de la época en un titular. (
Una gran mayoría de los estadounidenses ahora buscan con IA. Los efectos de segundo orden de los cambios en los patrones de búsqueda llegarán en la segunda mitad de este año y más se preguntarán: "¿Qué pasó con mi tráfico?" (
La IA es un nuevo canal de distribución y aquellos que lo aprovechen ganarán cuota de mercado.
- ¡William Gibson vio mucho más lejos en el futuro!
- Esto se basa en un análisis de punto medio del gráfico de SparkToro, es un análisis muy simple y, como resultado, tiene algún error.

8.87K
Populares
Ranking
Favoritas
Onchain en tendencia
Tendencia en X
Principales fondos recientes
Más destacadas