Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Harj Taggar
Harj Taggar a reposté
Il y a un énorme avantage à être une startup sur place à SF en ce moment : Proximité des laboratoires d'IA, accès précoce aux modèles, proximité des personnes à la pointe, accès au capital. Si un nouveau modèle est lancé et que votre équipe est plus rapide à l'intégrer, cela pourrait facilement faire la différence entre l'acquisition de centaines de nouveaux utilisateurs en une seule journée ou non.
6,93K
Harj Taggar a reposté
Le co-fondateur et PDG de Figma, Dylan Field (@zoink), sur la façon dont l'IA va transformer le design et pourquoi l'artisanat et l'attention aux détails seront les véritables différenciateurs.
À l'AI Startup School à San Francisco.
01:38 – Comment Dylan et Evan ont commencé Figma
02:58 – WebGL : Des jeux aux outils
04:10 – Acheter du temps pour construire
05:48 – Rester motivé à travers l'exploration précoce
06:10 – Emails à froid, premiers retours et premiers utilisateurs
08:24 – Timing de lancement et leçons sur l'expédition précoce
10:08 – Culture des contraintes et résolution créative de problèmes
10:50 – Reconnaître l'attraction produit-marché
13:32 – Pourquoi le design est le différenciateur à l'ère de l'IA
16:34 – Lancements de produits IA de Figma et expansion au-delà du design
18:56 – Le flou entre design, développement et produit
21:00 – L'ère "MS-DOS" des interfaces IA et les surfaces futures
23:26 – Le rôle du design dans la recherche en IA et l'avenir des designers
27:36 – Questions-réponses avec le public : outils IA, open source, principes et conseils
170,37K
Harj Taggar a reposté
Il est parfois difficile de saisir l'importance des mises à jour de raisonnement et de logique qui commencent à émerger dans des modèles puissants, comme GPT-5. Voici un *très simple* exemple de la puissance de ces modèles.
J'ai pris un document de transcription d'appel de résultats d'NVIDIA récent qui faisait 23 pages et contenait 7 800 mots. J'ai pris une partie de la phrase "et la marge brute va s'améliorer et revenir dans les mid-70s" et j'ai modifié "mid-70s" en "mid-60s".
Pour un analyste financier à l'écoute, cela semblerait déplacé, car les marges ne pourraient pas "s'améliorer et revenir" à un chiffre inférieur à celui décrit comme un chiffre supérieur ailleurs. Mais probablement 95 % des personnes lisant ce communiqué de presse n'auraient pas remarqué la modification car elle s'intègre facilement dans les autres 7 800 mots mentionnés.
Avec Box AI, en testant une variété de modèles d'IA, j'ai ensuite demandé à une série de modèles "Y a-t-il des erreurs logiques dans ce document ? Veuillez fournir une réponse en une phrase."
GPT-4.1, GPT-4.1 mini, et une poignée d'autres modèles qui étaient à la pointe de la technologie il y a environ 6 mois sont généralement revenus en disant qu'il n'y avait pas d'erreurs logiques dans le document. Pour ces modèles, le document semble probablement cohérent et suit ce à quoi ils s'attendraient pour une transcription de résultats, donc rien ne se démarque vraiment pour eux sur quoi prêter attention - une sorte d'hallucination inversée.
GPT-5, en revanche, a rapidement découvert le problème et a répondu :
"Oui — le document contient une incohérence interne concernant les prévisions de marge brute, disant à un moment que les marges "retourneront dans les mid-60s" et plus tard disant qu'elles seront "dans les mid-70s" plus tard cette année."
Étonnamment, cela s'est produit avec GPT-5, GPT-5 mini, et, remarquablement, *même* GPT-5 nano. Gardez à l'esprit que les tokens de sortie de GPT-5 nano sont tarifés à 1/20 du prix des tokens de GPT-4.1. Donc, plus intelligent (pour ce cas d'utilisation) pour 5 % du coût.
Maintenant, bien que faire des revues d'erreurs sur des documents commerciaux ne soit pas souvent une occurrence quotidienne pour chaque travailleur du savoir, ces types de problèmes apparaissent de diverses manières lorsqu'on traite de grands ensembles de données non structurées, comme des documents financiers, des contrats, des transcriptions, des rapports, et plus encore. Cela peut être de trouver un fait, de comprendre une fallacie logique, de faire une hypothèse, ou de nécessiter un raisonnement déductif sophistiqué.
Et la capacité d'appliquer plus de logique et de raisonnement aux données d'entreprise devient particulièrement critique lors du déploiement d'agents IA dans l'entreprise. Donc, c'est incroyable de voir les avancées dans cet espace en ce moment, et cela va ouvrir un tas de nouveaux cas d'utilisation pour les entreprises.
193,67K
Harj Taggar a reposté
Nous organisons un événement sur l'ingénierie du contexte à SF !
Découvrez comment les équipes d'IA appliquée de premier plan conçoivent leurs fenêtres de contexte. Écoutez :
Jake Heller, PDG @Casetext
Beyang Liu, CTO @Sourcegraph
Sam Bhagwat, PDG @Mastra_ai
Jeff Huber, PDG @trychroma
RSVP :

97,93K
Harj Taggar a reposté
Un nouveau laboratoire de recherche en IA appelé @blankbio_ a été lancé aujourd'hui. Ils construisent de nouveaux modèles fondamentaux pour l'ARNm et font partie des équipes techniques les plus solides avec lesquelles j'ai travaillé.
Je suis particulièrement enthousiaste à propos de leurs nouveaux résultats de modèle et de la large gamme de domaines d'application pour cela.
29,22K
Meilleurs
Classement
Favoris
Tendance on-chain
Tendance sur X
Récents financements de premier plan
Les plus notables