O Raciocínio Chain-of-Thought dos LLMs é uma Ilusão? ... Nossos resultados revelam que o raciocínio CoT é uma ilusão frágil que desaparece quando é levado além das distribuições de treinamento. Este trabalho oferece uma compreensão mais profunda de por que e quando o raciocínio CoT falha, enfatizando o desafio contínuo de alcançar um raciocínio genuíno e generalizável. ... Nossas descobertas revelam que o raciocínio CoT funciona efetivamente quando aplicado a dados dentro da distribuição ou próximos da distribuição, mas torna-se frágil e propenso a falhas mesmo sob mudanças moderadas de distribuição. Em alguns casos, os LLMs geram passos de raciocínio fluentes, mas logicamente inconsistentes. Os resultados sugerem que o que parece ser um raciocínio estruturado pode ser uma ilusão, emergindo de padrões memorizados ou interpolados nos dados de treinamento, em vez de inferência lógica. ... Juntas, essas descobertas sugerem que os LLMs não são raciocinadores principiais, mas sim simuladores sofisticados de texto semelhante ao raciocínio.
2508.01191v2.pdf
43,96K