Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Paul Graham
Paul Graham repostou
Às vezes é difícil entender o significado das atualizações de raciocínio e lógica que estão começando a surgir em modelos poderosos, como o GPT-5. Aqui está um exemplo * muito simples * de como esses modelos estão ficando poderosos.
Peguei um documento recente de transcrição da teleconferência de ganhos da NVIDIA que tinha 23 páginas e 7.800 palavras. Peguei parte da frase "e a margem bruta vai melhorar e voltar a meados dos anos 70" e modifiquei "meados dos anos 70" para "meados dos anos 60".
Para um analista financeiro remotamente sintonizado, isso pareceria fora de lugar, porque as margens não "melhorariam e retornariam" a um número menor do que o descrito como um número maior em outros lugares. Mas provavelmente 95% das pessoas que lêem este comunicado de imprensa não teriam percebido a modificação porque ela se encaixa facilmente nas outras 7.800 palavras mencionadas.
Com o Box AI, testando uma variedade de modelos de IA, perguntei a uma série de modelos "Há algum erro lógico neste documento? Por favor, forneça uma resposta de uma frase."
GPT-4.1, GPT4.1 mini e um punhado de outros modelos que eram de última geração há apenas ~ 6 meses geralmente voltaram e retornaram que não havia erros lógicos no documento. Para esses modelos, o documento provavelmente parece coerente e segue o que seria de esperar que fosse uma transcrição de ganhos, então nada realmente se destaca para eles sobre o que prestar atenção - uma espécie de alucinação reversa.
O GPT-5, por outro lado, descobriu rapidamente o problema e respondeu com:
"Sim - o documento contém uma inconsistência interna sobre a orientação da margem bruta, em um ponto dizendo que as margens "retornarão a meados dos anos 60" e depois dizendo que estarão "em meados dos anos 70" ainda este ano."
Surpreendentemente, isso aconteceu com GPT-5, GPT-5 mini e, notavelmente, *até* GPT-5 nano. Lembre-se de que os tokens de saída do GPT-5 nano custam 1/20 dos tokens do GPT-4.1. Portanto, mais inteligente (neste caso de uso) por 5% do custo.
Agora, embora fazer revisões de erros em documentos comerciais não seja uma ocorrência diária para todos os trabalhadores do conhecimento, esses tipos de problemas aparecem de várias maneiras ao lidar com grandes conjuntos de dados não estruturados, como documentos financeiros, contratos, transcrições, relatórios e muito mais. Pode ser encontrar um fato, descobrir uma falácia lógica, executar uma hipótese ou exigir um raciocínio dedutivo sofisticado.
E a capacidade de aplicar mais lógica e raciocínio aos dados corporativos torna-se especialmente crítica ao implantar agentes de IA na empresa. Portanto, é incrível ver os avanços neste espaço agora, e isso abrirá muito mais casos de uso para as empresas.
93,63K
Paul Graham repostou
Estamos organizando um evento de Engenharia de Contexto em SF!
Saiba como as principais equipes de IA aplicada estão projetando suas janelas de contexto. Ouça de:
Jake Heller, CEO @Casetext
Beyang Liu, diretor de tecnologia @Sourcegraph
Sam Bhagwat, CEO @Mastra_ai
Jeff Huber, CEO @trychroma
RSVP:

65,01K
Conheci um fundador hoje que disse que escreve 10.000 linhas de código por dia agora graças à IA. Este é provavelmente o caso limite. Ele é um programador famoso, conhece muito bem as ferramentas de IA e está falando de um dia de 12 horas. Mas ele não é ingênuo. Não são 10.000 linhas de porcaria cheia de bugs.
123,23K
Melhores
Classificação
Favoritos
Em alta on-chain
Em alta no X
Principais fundos da atualidade
Mais notável