Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Harj Taggar
Harj Taggar repostou
Há uma enorme vantagem em ser uma startup presencial em SF agora: proximidade com os laboratórios de IA, acesso antecipado a modelos, proximidade com pessoas de ponta, acesso a capital. Se um novo modelo for lançado e sua equipe for mais rápida para integrar, isso pode facilmente ser a diferença entre adquirir centenas de novos usuários em um único dia ou não.
6,93K
Harj Taggar repostou
O cofundador e CEO da Figma, Dylan Field (@zoink), fala sobre como a IA transformará o design e por que o artesanato e a atenção aos detalhes serão os principais diferenciais.
Na AI Startup School em San Francisco.
01:38 - Como Dylan e Evan começaram Figma
02:58 - WebGL: De jogos a ferramentas
04:10 - Comprando tempo para construir
05:48 - Mantendo-se motivado através da exploração inicial
06:10 - E-mails frios, feedback antecipado e primeiros usuários
08:24 - Cronograma de lançamento e lições sobre envio antecipado
10:08 - Cultura de Restrições e Resolução Criativa de Problemas
10:50 - Reconhecendo a atração do produto no mercado
13:32 - Por que o design é o diferencial na era da IA
16:34 - Lançamentos de produtos de IA da Figma e expansão além do design
18:56 - A indefinição de design, desenvolvimento e produto
21:00 – A "Era MS-DOS" das Interfaces de IA e Superfícies Futuras
23:26 - O papel do design na pesquisa de IA e o futuro dos designers
27:36 – Perguntas e respostas do público: Ferramentas de IA, código aberto, princípios e conselhos
170,37K
Harj Taggar repostou
Às vezes é difícil entender o significado das atualizações de raciocínio e lógica que estão começando a surgir em modelos poderosos, como o GPT-5. Aqui está um exemplo * muito simples * de como esses modelos estão ficando poderosos.
Peguei um documento recente de transcrição da teleconferência de ganhos da NVIDIA que tinha 23 páginas e 7.800 palavras. Peguei parte da frase "e a margem bruta vai melhorar e voltar a meados dos anos 70" e modifiquei "meados dos anos 70" para "meados dos anos 60".
Para um analista financeiro remotamente sintonizado, isso pareceria fora de lugar, porque as margens não "melhorariam e retornariam" a um número menor do que o descrito como um número maior em outros lugares. Mas provavelmente 95% das pessoas que lêem este comunicado de imprensa não teriam percebido a modificação porque ela se encaixa facilmente nas outras 7.800 palavras mencionadas.
Com o Box AI, testando uma variedade de modelos de IA, perguntei a uma série de modelos "Há algum erro lógico neste documento? Por favor, forneça uma resposta de uma frase."
GPT-4.1, GPT4.1 mini e um punhado de outros modelos que eram de última geração há apenas ~ 6 meses geralmente voltaram e retornaram que não havia erros lógicos no documento. Para esses modelos, o documento provavelmente parece coerente e segue o que seria de esperar que fosse uma transcrição de ganhos, então nada realmente se destaca para eles sobre o que prestar atenção - uma espécie de alucinação reversa.
O GPT-5, por outro lado, descobriu rapidamente o problema e respondeu com:
"Sim - o documento contém uma inconsistência interna sobre a orientação da margem bruta, em um ponto dizendo que as margens "retornarão a meados dos anos 60" e depois dizendo que estarão "em meados dos anos 70" ainda este ano."
Surpreendentemente, isso aconteceu com GPT-5, GPT-5 mini e, notavelmente, *até* GPT-5 nano. Lembre-se de que os tokens de saída do GPT-5 nano custam 1/20 dos tokens do GPT-4.1. Portanto, mais inteligente (neste caso de uso) por 5% do custo.
Agora, embora fazer revisões de erros em documentos comerciais não seja uma ocorrência diária para todos os trabalhadores do conhecimento, esses tipos de problemas aparecem de várias maneiras ao lidar com grandes conjuntos de dados não estruturados, como documentos financeiros, contratos, transcrições, relatórios e muito mais. Pode ser encontrar um fato, descobrir uma falácia lógica, executar uma hipótese ou exigir um raciocínio dedutivo sofisticado.
E a capacidade de aplicar mais lógica e raciocínio aos dados corporativos torna-se especialmente crítica ao implantar agentes de IA na empresa. Portanto, é incrível ver os avanços neste espaço agora, e isso abrirá muito mais casos de uso para as empresas.
193,67K
Harj Taggar repostou
Estamos organizando um evento de Engenharia de Contexto em SF!
Saiba como as principais equipes de IA aplicada estão projetando suas janelas de contexto. Ouça de:
Jake Heller, CEO @Casetext
Beyang Liu, diretor de tecnologia @Sourcegraph
Sam Bhagwat, CEO @Mastra_ai
Jeff Huber, CEO @trychroma
RSVP:

97,93K
Harj Taggar repostou
Um novo laboratório de pesquisa de IA chamado @blankbio_ lançado hoje. Eles estão construindo novos modelos de base para mRNA e são uma das equipes técnicas mais fortes com quem trabalhei.
Estou particularmente animado com os resultados do novo modelo e com o amplo conjunto de áreas de aplicação para ele.
29,22K
Melhores
Classificação
Favoritos
Em alta on-chain
Em alta no X
Principais fundos da atualidade
Mais notável