Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
pré-CoT era o melhor porque você tinha liberdade para estruturar o CoT como quisesse. GPT4-0314 foi incrível para isso.
Uma vez que eles assaram no CoT, as coisas começaram a piorar. Todos os prompts ficaram sujeitos às mesmas abstrações.
Tudo o que ele faz é inundar a janela de contexto para orientar as saídas.
Mesmo no gpt 3.5, as pessoas sabiam que as melhores saídas vinham depois de "preparar a bomba" para fornecer algum quadro.
A obsessão em ser capaz de acertar tudo tornou o produto menos maleável.

8 de ago., 07:29
O raciocínio da cadeia de pensamento dos LLMs é uma miragem?
... Nossos resultados revelam que o raciocínio CoT é uma miragem frágil que desaparece quando é empurrado para além das distribuições de treinamento. Este trabalho oferece uma compreensão mais profunda de por que e quando o raciocínio CoT falha, enfatizando o desafio contínuo de alcançar um raciocínio genuíno e generalizável.
... Nossas descobertas revelam que o raciocínio CoT funciona efetivamente quando aplicado a in-distribution ou near
dados em distribuição, mas torna-se frágil e propenso a falhas, mesmo sob mudanças moderadas de distribuição.
Em alguns casos, os LLMs geram etapas de raciocínio fluentes, mas logicamente inconsistentes. Os resultados sugerem que o que parece ser um raciocínio estruturado pode ser uma miragem, emergindo de padrões memorizados ou interpolados nos dados de treinamento, em vez de inferência lógica.
... Juntas, essas descobertas sugerem que os LLMs não são raciocinadores de princípios, mas sim simuladores sofisticados de texto semelhante ao raciocínio.

1,68K
Melhores
Classificação
Favoritos