Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Harj Taggar
Harj Taggar republicó
Hay una gran ventaja en ser una startup presencial en SF en este momento: Proximidad a los laboratorios de IA, acceso temprano a modelos, cercanía a personas en la vanguardia, acceso a capital. Si se lanza un nuevo modelo y tu equipo es más rápido en integrarlo, eso podría ser fácilmente la diferencia entre adquirir cientos de nuevos usuarios en un solo día o no.
6,93K
Harj Taggar republicó
El cofundador y CEO de Figma, Dylan Field (@zoink), sobre cómo la IA transformará el diseño y por qué la habilidad y la atención al detalle serán los diferenciadores definitivos.
En la AI Startup School en San Francisco.
01:38 – Cómo Dylan y Evan empezaron Figma
02:58 – WebGL: De juegos a herramientas
04:10 – Comprando tiempo para construir
05:48 – Manteniéndose motivado durante la exploración inicial
06:10 – Correos fríos, retroalimentación temprana y primeros usuarios
08:24 – Momentos de lanzamiento y lecciones sobre el envío temprano
10:08 – Cultura de restricciones y resolución creativa de problemas
10:50 – Reconociendo el tirón del mercado del producto
13:32 – Por qué el diseño es el diferenciador en la era de la IA
16:34 – Lanzamientos de productos de IA de Figma y expansión más allá del diseño
18:56 – La difuminación del diseño, desarrollo y producto
21:00 – La "era MS-DOS" de las interfaces de IA y las superficies futuras
23:26 – El papel del diseño en la investigación de IA y el futuro de los diseñadores
27:36 – Preguntas y respuestas del público: herramientas de IA, código abierto, principios y consejos
170,37K
Harj Taggar republicó
A veces es difícil comprender la importancia de las actualizaciones de razonamiento y lógica que están comenzando a surgir en modelos potentes, como GPT-5. Aquí hay un *ejemplo muy simple* de cuán poderosos se están volviendo estos modelos.
Tomé un documento de la transcripción de una llamada de ganancias reciente de NVIDIA que tenía 23 páginas de largo y 7,800 palabras. Tomé parte de la frase "y el margen bruto mejorará y volverá a los medios de los 70" y modifiqué "medios de los 70" a "medios de los 60".
Para un analista financiero que esté remotamente atento, esto parecería fuera de lugar, porque los márgenes no "mejorarían y volverían" a un número más bajo que el que se describe como un número más alto en otro lugar. Pero probablemente el 95% de las personas que lean este comunicado de prensa no habrían notado la modificación porque encaja fácilmente en las otras 7,800 palabras mencionadas.
Con Box AI, probando una variedad de modelos de IA, luego pregunté a una serie de modelos "¿Hay algún error lógico en este documento? Por favor, proporciona una respuesta en una oración."
GPT-4.1, GPT-4.1 mini y un puñado de otros modelos que eran de última generación hace ~6 meses generalmente regresaron y dijeron que no había errores lógicos en el documento. Para estos modelos, el documento probablemente parece coherente y sigue lo que esperaría que fuera una transcripción de ganancias, así que nada realmente destaca para ellos sobre qué prestar atención - una especie de alucinación inversa.
GPT-5, por otro lado, descubrió rápidamente el problema y respondió con:
"Sí — el documento contiene una inconsistencia interna sobre la guía de margen bruto, en un momento diciendo que los márgenes "volverán a los medios de los 60" y más tarde diciendo que estarán "en los medios de los 70" más adelante este año."
Increíblemente, esto sucedió con GPT-5, GPT-5 mini y, notablemente, *incluso* GPT-5 nano. Ten en cuenta que los tokens de salida de GPT-5 nano están valorados en 1/20 del precio de los tokens de GPT-4.1. Así que, más inteligente (en este caso de uso) por el 5% del costo.
Ahora, aunque hacer revisiones de errores en documentos comerciales no es a menudo una ocurrencia diaria para cada trabajador del conocimiento, estos tipos de problemas aparecen de diversas maneras al tratar con grandes conjuntos de datos no estructurados, como documentos financieros, contratos, transcripciones, informes y más. Puede ser encontrar un hecho, descubrir una falacia lógica, ejecutar un hipotético o requerir un razonamiento deductivo sofisticado.
Y la capacidad de aplicar más lógica y razonamiento a los datos empresariales se vuelve especialmente crítica al desplegar Agentes de IA en la empresa. Así que, es asombroso ver los avances en este espacio en este momento, y esto va a abrir un montón más de casos de uso para las empresas.
193,67K
Harj Taggar republicó
¡Estamos organizando un evento de Ingeniería de Contexto en SF!
Aprende cómo los equipos de IA aplicada líderes están diseñando sus ventanas de contexto. Escucha a:
Jake Heller, CEO @Casetext
Beyang Liu, CTO @Sourcegraph
Sam Bhagwat, CEO @Mastra_ai
Jeff Huber, CEO @trychroma
Confirma tu asistencia:

97,93K
Harj Taggar republicó
Hoy se ha lanzado un nuevo laboratorio de investigación en IA llamado @blankbio_. Están construyendo nuevos modelos fundamentales para el mRNA y son uno de los equipos técnicos más fuertes con los que he trabajado.
Estoy particularmente emocionado por los resultados de su nuevo modelo y la amplia gama de áreas de aplicación para él.
29,22K
Parte superior
Clasificación
Favoritos
En tendencia on-chain
En tendencia en X
Principales fondos recientes
Más destacado