Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Harj Taggar
Harj Taggar ha ripubblicato
Ambral (@ambral_ai) sta costruendo il primo centro di controllo per le missioni dei clienti. È un team di gestione degli account basato sull'IA, progettato per aiutarti a massimizzare i ricavi da ogni cliente.
Congratulazioni per il lancio, @Sambrickman_ e @JackStettner!
11,13K
Harj Taggar ha ripubblicato
C'è un enorme vantaggio nell'essere una startup in presenza a San Francisco in questo momento: Prossimità ai laboratori di intelligenza artificiale, accesso anticipato ai modelli, vicinanza a persone all'avanguardia, accesso al capitale. Se un nuovo modello viene rilasciato e il tuo team è più veloce nell'integrarlo, questo potrebbe facilmente fare la differenza tra acquisire centinaia di nuovi utenti in un solo giorno o meno.
6,93K
Harj Taggar ha ripubblicato
Il co-fondatore e CEO di Figma, Dylan Field (@zoink), su come l'IA trasformerà il design e perché l'abilità e l'attenzione ai dettagli saranno i veri differenziali.
All'AI Startup School di San Francisco.
01:38 – Come Dylan ed Evan hanno iniziato Figma
02:58 – WebGL: Dai giochi agli strumenti
04:10 – Comprare tempo per costruire
05:48 – Rimanere motivati durante le prime esplorazioni
06:10 – Email fredde, feedback iniziali e primi utenti
08:24 – Tempistiche di lancio e lezioni sullo spedire presto
10:08 – Cultura delle restrizioni e problem-solving creativo
10:50 – Riconoscere il pull del mercato del prodotto
13:32 – Perché il design è il differenziale nell'era dell'IA
16:34 – I lanci dei prodotti AI di Figma e l'espansione oltre il design
18:56 – La fusione di design, sviluppo e prodotto
21:00 – L'era "MS-DOS" delle interfacce AI e le superfici future
23:26 – Il ruolo del design nella ricerca sull'IA e il futuro dei designer
27:36 – Domande e risposte del pubblico: strumenti AI, open source, principi e consigli
170,37K
Harj Taggar ha ripubblicato
A volte è difficile afferrare il significato degli aggiornamenti di ragionamento e logica che stanno iniziando a emergere in modelli potenti, come GPT-5. Ecco un *esempio molto semplice* di quanto siano potenti questi modelli.
Ho preso un documento di trascrizione della chiamata sugli utili di NVIDIA recente che era lungo 23 pagine e conteneva 7.800 parole. Ho preso parte della frase "e il margine lordo migliorerà e tornerà ai medi 70" e ho modificato "medi 70" in "medi 60".
Per un analista finanziario che segue da remoto, questo sembrerebbe fuori luogo, perché i margini non "miglioreranno e torneranno" a un numero inferiore rispetto a quello descritto come un numero più alto altrove. Ma probabilmente il 95% delle persone che leggono questo comunicato stampa non avrebbe notato la modifica perché si inserisce facilmente negli altri 7.800 parole menzionate.
Con Box AI, testando una varietà di modelli di AI, ho poi chiesto a una serie di modelli "Ci sono errori logici in questo documento? Per favore fornisci una risposta in una frase."
GPT-4.1, GPT4.1 mini e un pugno di altri modelli che erano all'avanguardia solo ~6 mesi fa generalmente hanno risposto che non c'erano errori logici nel documento. Per questi modelli, il documento probabilmente sembra coerente e segue ciò che ci si aspetterebbe da una trascrizione degli utili, quindi nulla spicca davvero per loro su cosa prestare attenzione - una sorta di allucinazione inversa.
GPT-5, d'altra parte, ha rapidamente scoperto il problema e ha risposto con:
"Sì — il documento contiene un'incoerenza interna riguardo alla guida sul margine lordo, dicendo in un certo punto che i margini "torneranno ai medi 60" e successivamente dicendo che saranno "nei medi 70" più tardi quest'anno."
Incredibilmente, questo è successo con GPT-5, GPT-5 mini e, notevolmente, *anche* GPT-5 nano. Tieni presente che i token di output di GPT-5 nano sono prezzi a 1/20 del costo dei token di GPT-4.1. Quindi, più intelligente (in questo caso d'uso) per il 5% del costo.
Ora, mentre fare revisioni sugli errori nei documenti aziendali non è spesso un'attività quotidiana per ogni lavoratore della conoscenza, questi tipi di problemi si presentano in vari modi quando si tratta di grandi set di dati non strutturati, come documenti finanziari, contratti, trascrizioni, rapporti e altro. Può trattarsi di trovare un fatto, capire un errore logico, eseguire un'ipotesi o richiedere un ragionamento deduttivo sofisticato.
E la capacità di applicare più logica e ragionamento ai dati aziendali diventa particolarmente critica quando si distribuiscono agenti AI nell'impresa. Quindi, è sorprendente vedere i progressi in questo campo in questo momento, e questo aprirà molte più possibilità per le aziende.
193,67K
Harj Taggar ha ripubblicato
Stiamo organizzando un evento di Context Engineering a SF!
Scopri come i principali team di AI applicata stanno ingegnerizzando le loro finestre di contesto. Ascolta:
Jake Heller, CEO @Casetext
Beyang Liu, CTO @Sourcegraph
Sam Bhagwat, CEO @Mastra_ai
Jeff Huber, CEO @trychroma
RSVP:

97,93K
Harj Taggar ha ripubblicato
Oggi è stato lanciato un nuovo laboratorio di ricerca sull'IA chiamato @blankbio_. Stanno costruendo nuovi modelli fondamentali per l'mRNA e sono uno dei team tecnici più forti con cui ho lavorato.
Sono particolarmente entusiasta dei risultati del loro nuovo modello e della vasta gamma di aree di applicazione per esso.
29,22K
Principali
Ranking
Preferiti
On-chain di tendenza
Di tendenza su X
Principali fondi recenti
Più popolari