Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Paul Graham
Paul Graham republicou
Às vezes, é difícil compreender a importância das atualizações de raciocínio e lógica que estão começando a surgir em modelos poderosos, como o GPT-5. Aqui está um *exemplo muito simples* de quão poderosos esses modelos estão se tornando.
Peguei um documento de transcrição da chamada de resultados da NVIDIA que tinha 23 páginas e 7.800 palavras. Peguei parte da frase "e a margem bruta irá melhorar e retornar para os 70% intermediários" e modifiquei "70% intermediários" para "60% intermediários".
Para um analista financeiro que esteja remotamente sintonizado, isso pareceria fora de lugar, porque as margens não "melhorariam e retornariam" para um número mais baixo do que o descrito como um número mais alto em outro lugar. Mas provavelmente 95% das pessoas que leem este comunicado de imprensa não teriam notado a modificação porque se encaixa facilmente nas outras 7.800 palavras mencionadas.
Com o Box AI, testando uma variedade de modelos de IA, então perguntei a uma série de modelos "Existem erros lógicos neste documento? Por favor, forneça uma resposta em uma frase."
GPT-4.1, GPT-4.1 mini e um punhado de outros modelos que eram de ponta há cerca de 6 meses geralmente retornaram que não havia erros lógicos no documento. Para esses modelos, o documento provavelmente parece coerente e segue o que se esperaria de uma transcrição de resultados, então nada realmente se destaca para eles sobre o que prestar atenção - uma espécie de alucinação reversa.
O GPT-5, por outro lado, rapidamente descobriu o problema e respondeu com:
"Sim — o documento contém uma inconsistência interna sobre a orientação da margem bruta, em um ponto dizendo que as margens irão “retornar para os 60% intermediários” e mais tarde dizendo que estarão “nos 70% intermediários” ainda este ano."
Incrivelmente, isso aconteceu com o GPT-5, GPT-5 mini e, notavelmente, *até mesmo* o GPT-5 nano. Tenha em mente que os tokens de saída do GPT-5 nano são precificados a 1/20 do preço dos tokens do GPT-4.1. Portanto, mais inteligente (neste caso de uso) por 5% do custo.
Agora, embora fazer revisões de erros em documentos de negócios não seja uma ocorrência diária para cada trabalhador do conhecimento, esses tipos de problemas aparecem de várias maneiras ao lidar com grandes conjuntos de dados não estruturados, como documentos financeiros, contratos, transcrições, relatórios e mais. Pode ser encontrar um fato, descobrir uma falácia lógica, executar um hipotético ou exigir raciocínio dedutivo sofisticado.
E a capacidade de aplicar mais lógica e raciocínio aos dados empresariais torna-se especialmente crítica ao implantar Agentes de IA na empresa. Portanto, é incrível ver os avanços neste espaço agora, e isso vai abrir uma tonelada de novos casos de uso para as empresas.
105,99K
Paul Graham republicou
Estamos a organizar um evento de Engenharia de Contexto em SF!
Aprenda como as principais equipas de IA aplicada estão a engenheirar as suas janelas de contexto. Ouça:
Jake Heller, CEO @Casetext
Beyang Liu, CTO @Sourcegraph
Sam Bhagwat, CEO @Mastra_ai
Jeff Huber, CEO @trychroma
Confirme a sua presença:

65,02K
Hoje conheci um fundador que disse que agora escreve 10.000 linhas de código por dia graças à IA. Este é provavelmente o caso limite. Ele é um programador de destaque, conhece muito bem as ferramentas de IA e está a falar de um dia de 12 horas. Mas ele não é ingênuo. Não se trata de 10.000 linhas de código cheio de erros.
123,24K
Top
Classificação
Favoritos
Tendências on-chain
Popular no X
Principais financiamentos atuais
Mais notável