Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Harj Taggar
Harj Taggar reposteó
Hay una gran ventaja en ser una startup presencial en SF en este momento: Proximidad a los laboratorios de IA, acceso temprano a modelos, cercanía a personas en la vanguardia, acceso a capital. Si se lanza un nuevo modelo y tu equipo es más rápido en integrarlo, eso podría ser fácilmente la diferencia entre adquirir cientos de nuevos usuarios en un solo día o no.
6.93K
Harj Taggar reposteó
El cofundador y CEO de Figma, Dylan Field (@zoink), sobre cómo la IA transformará el diseño y por qué la habilidad y la atención al detalle serán los diferenciadores definitivos.
En la AI Startup School en San Francisco.
01:38 – Cómo Dylan y Evan comenzaron Figma
02:58 – WebGL: De juegos a herramientas
04:10 – Comprando tiempo para construir
05:48 – Manteniéndose motivado a través de la exploración temprana
06:10 – Correos electrónicos fríos, retroalimentación temprana y primeros usuarios
08:24 – Momentos de lanzamiento y lecciones sobre enviar temprano
10:08 – Cultura de restricciones y resolución creativa de problemas
10:50 – Reconociendo la atracción del mercado del producto
13:32 – Por qué el diseño es el diferenciador en la era de la IA
16:34 – Lanzamientos de productos de IA de Figma y expansión más allá del diseño
18:56 – La difuminación del diseño, desarrollo y producto
21:00 – La "era MS-DOS" de las interfaces de IA y superficies futuras
23:26 – El papel del diseño en la investigación de IA y el futuro de los diseñadores
27:36 – Preguntas y respuestas del público: herramientas de IA, código abierto, principios y consejos
170.37K
Harj Taggar reposteó
A veces es difícil comprender la importancia de las actualizaciones de razonamiento y lógica que están comenzando a surgir en modelos poderosos, como GPT-5. Aquí hay un *ejemplo muy simple* de cuán poderosos se están volviendo estos modelos.
Tomé un documento de la transcripción de una llamada de ganancias reciente de NVIDIA que tenía 23 páginas de largo y 7,800 palabras. Tomé parte de la frase "y el margen bruto mejorará y volverá a los medios 70" y modifiqué "medios 70" a "medios 60".
Para un analista financiero que esté remotamente sintonizado, esto parecería fuera de lugar, porque los márgenes no "mejorarían y volverían" a un número más bajo que el que se describe como un número más alto en otro lugar. Pero probablemente el 95% de las personas que lean este comunicado de prensa no habrían notado la modificación porque encaja fácilmente en las otras 7,800 palabras mencionadas.
Con Box AI, probando una variedad de modelos de IA, luego pregunté a una serie de modelos "¿Hay algún error lógico en este documento? Por favor, proporciona una respuesta en una oración."
GPT-4.1, GPT-4.1 mini y un puñado de otros modelos que eran de última generación hace ~6 meses generalmente regresaron y dijeron que no había errores lógicos en el documento. Para estos modelos, el documento probablemente parece coherente y sigue lo que esperaría que fuera una transcripción de ganancias, así que nada realmente destaca para ellos sobre qué prestar atención - una especie de alucinación inversa.
GPT-5, por otro lado, descubrió rápidamente el problema y respondió con:
"Sí — el documento contiene una inconsistencia interna sobre la guía de margen bruto, en un momento diciendo que los márgenes "volverán a los medios 60" y más tarde diciendo que estarán "en los medios 70" más tarde este año."
Increíblemente, esto sucedió con GPT-5, GPT-5 mini y, notablemente, *incluso* GPT-5 nano. Ten en cuenta que los tokens de salida de GPT-5 nano están valorados en 1/20 del costo de los tokens de GPT-4.1. Así que, más inteligente (en este caso de uso) por el 5% del costo.
Ahora, aunque hacer revisiones de errores en documentos comerciales no es a menudo una ocurrencia diaria para cada trabajador del conocimiento, estos tipos de problemas aparecen de diversas maneras al tratar con grandes conjuntos de datos no estructurados, como documentos financieros, contratos, transcripciones, informes y más. Puede ser encontrar un hecho, descubrir una falacia lógica, ejecutar un hipotético o requerir un razonamiento deductivo sofisticado.
Y la capacidad de aplicar más lógica y razonamiento a los datos empresariales se vuelve especialmente crítica al desplegar Agentes de IA en la empresa. Así que, es asombroso ver los avances en este espacio en este momento, y esto va a abrir un montón más de casos de uso para las empresas.
193.67K
Harj Taggar reposteó
¡Estamos organizando un evento de Ingeniería de Contexto en SF!
Aprende cómo los equipos de IA aplicada líderes están diseñando sus ventanas de contexto. Escucha a:
Jake Heller, CEO @Casetext
Beyang Liu, CTO @Sourcegraph
Sam Bhagwat, CEO @Mastra_ai
Jeff Huber, CEO @trychroma
Confirma tu asistencia:

97.93K
Harj Taggar reposteó
Hoy se lanzó un nuevo laboratorio de investigación de IA llamado @blankbio_. Están construyendo nuevos modelos fundamentales para el mRNA y son uno de los equipos técnicos más fuertes con los que he trabajado.
Estoy particularmente emocionado por los nuevos resultados de su modelo y la amplia gama de áreas de aplicación para ello.
29.22K
Populares
Ranking
Favoritas
Onchain en tendencia
Tendencia en X
Principales fondos recientes
Más destacadas