¿Es el razonamiento de cadena de pensamiento de los LLMs un espejismo? ... Nuestros resultados revelan que el razonamiento CoT es un espejismo frágil que desaparece cuando se empuja más allá de las distribuciones de entrenamiento. Este trabajo ofrece una comprensión más profunda de por qué y cuándo falla el razonamiento CoT, enfatizando el desafío continuo de lograr un razonamiento genuino y generalizable. ... Nuestros hallazgos revelan que el razonamiento CoT funciona de manera efectiva cuando se aplica a datos dentro de la distribución o cerca de ella, pero se vuelve frágil y propenso a fallos incluso bajo cambios moderados en la distribución. En algunos casos, los LLMs generan pasos de razonamiento fluidos pero lógicamente inconsistentes. Los resultados sugieren que lo que parece ser un razonamiento estructurado puede ser un espejismo, emergiendo de patrones memorizados o interpolados en los datos de entrenamiento en lugar de inferencia lógica. ... Juntos, estos hallazgos sugieren que los LLMs no son razonadores con principios, sino más bien simuladores sofisticados de texto similar al razonamiento.
2508.01191v2.pdf
43,95K