Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Harj Taggar
Harj Taggar republicou
Há uma enorme vantagem em ser uma startup presencial em SF neste momento: Proximidade aos laboratórios de IA, acesso antecipado a modelos, proximidade com pessoas na vanguarda, acesso a capital. Se um novo modelo for lançado e a sua equipe for mais rápida a integrar, isso pode facilmente ser a diferença entre adquirir centenas de novos usuários em um único dia ou não.
6,93K
Harj Taggar republicou
O co-fundador e CEO da Figma, Dylan Field (@zoink), sobre como a IA transformará o design e por que a habilidade e a atenção aos detalhes serão os principais diferenciadores.
Na AI Startup School em São Francisco.
01:38 – Como Dylan e Evan Começaram a Figma
02:58 – WebGL: De Jogos a Ferramentas
04:10 – Comprando Tempo para Construir
05:48 – Mantendo-se Motivado Durante a Exploração Inicial
06:10 – E-mails Frio, Feedback Inicial & Primeiros Usuários
08:24 – O Tempo de Lançamento e Lições sobre Lançar Cedo
10:08 – Cultura de Restrições & Resolução Criativa de Problemas
10:50 – Reconhecendo o Pull do Produto-Mercado
13:32 – Por que o Design é o Diferenciador na Era da IA
16:34 – Lançamentos de Produtos de IA da Figma & Expansão Além do Design
18:56 – O Desvanecimento do Design, Desenvolvimento e Produto
21:00 – A "Era MS-DOS" das Interfaces de IA & Superfícies Futuras
23:26 – O Papel do Design na Pesquisa de IA & o Futuro dos Designers
27:36 – Perguntas e Respostas da Audiência: Ferramentas de IA, Código Aberto, Princípios e Conselhos
170,37K
Harj Taggar republicou
Às vezes, é difícil compreender a importância das atualizações de raciocínio e lógica que estão começando a surgir em modelos poderosos, como o GPT-5. Aqui está um *exemplo muito simples* de quão poderosos esses modelos estão se tornando.
Peguei um documento de transcrição da chamada de resultados da NVIDIA que tinha 23 páginas e 7.800 palavras. Peguei parte da frase "e a margem bruta irá melhorar e retornar para os 70% intermediários" e modifiquei "70% intermediários" para "60% intermediários".
Para um analista financeiro que esteja remotamente sintonizado, isso pareceria fora de lugar, porque as margens não "melhorariam e retornariam" para um número mais baixo do que o descrito como um número mais alto em outro lugar. Mas provavelmente 95% das pessoas que leem este comunicado de imprensa não teriam notado a modificação porque se encaixa facilmente nas outras 7.800 palavras mencionadas.
Com o Box AI, testando uma variedade de modelos de IA, então perguntei a uma série de modelos "Existem erros lógicos neste documento? Por favor, forneça uma resposta em uma frase."
GPT-4.1, GPT-4.1 mini e um punhado de outros modelos que eram de ponta há cerca de 6 meses geralmente retornaram que não havia erros lógicos no documento. Para esses modelos, o documento provavelmente parece coerente e segue o que se esperaria de uma transcrição de resultados, então nada realmente se destaca para eles sobre o que prestar atenção - uma espécie de alucinação reversa.
O GPT-5, por outro lado, rapidamente descobriu o problema e respondeu com:
"Sim — o documento contém uma inconsistência interna sobre a orientação da margem bruta, em um ponto dizendo que as margens irão “retornar para os 60% intermediários” e mais tarde dizendo que estarão “nos 70% intermediários” ainda este ano."
Incrivelmente, isso aconteceu com o GPT-5, GPT-5 mini e, notavelmente, *até mesmo* o GPT-5 nano. Tenha em mente que os tokens de saída do GPT-5 nano são precificados a 1/20 do preço dos tokens do GPT-4.1. Portanto, mais inteligente (neste caso de uso) por 5% do custo.
Agora, embora fazer revisões de erros em documentos de negócios não seja uma ocorrência diária para cada trabalhador do conhecimento, esses tipos de problemas aparecem de várias maneiras ao lidar com grandes conjuntos de dados não estruturados, como documentos financeiros, contratos, transcrições, relatórios e mais. Pode ser encontrar um fato, descobrir uma falácia lógica, executar um hipotético ou exigir raciocínio dedutivo sofisticado.
E a capacidade de aplicar mais lógica e raciocínio aos dados empresariais torna-se especialmente crítica ao implantar Agentes de IA na empresa. Portanto, é incrível ver os avanços neste espaço agora, e isso vai abrir uma tonelada de novos casos de uso para as empresas.
193,67K
Harj Taggar republicou
Estamos a organizar um evento de Engenharia de Contexto em SF!
Aprenda como as principais equipas de IA aplicada estão a engenheirar as suas janelas de contexto. Ouça:
Jake Heller, CEO @Casetext
Beyang Liu, CTO @Sourcegraph
Sam Bhagwat, CEO @Mastra_ai
Jeff Huber, CEO @trychroma
Confirme a sua presença:

97,93K
Harj Taggar republicou
Um novo laboratório de pesquisa em IA chamado @blankbio_ foi lançado hoje. Eles estão a construir novos modelos fundamentais para mRNA e são uma das equipas técnicas mais fortes com as quais trabalhei.
Estou particularmente entusiasmado com os novos resultados do seu modelo e com a ampla gama de áreas de aplicação para ele.
29,22K
Top
Classificação
Favoritos
Tendências on-chain
Popular no X
Principais financiamentos atuais
Mais notável