Le raisonnement par chaîne de pensée des LLMs est-il un mirage ? ... Nos résultats révèlent que le raisonnement CoT est un mirage fragile qui disparaît lorsqu'il est poussé au-delà des distributions d'entraînement. Ce travail offre une compréhension plus profonde des raisons pour lesquelles et des moments où le raisonnement CoT échoue, soulignant le défi permanent d'atteindre un raisonnement véritable et généralisable. ... Nos découvertes révèlent que le raisonnement CoT fonctionne efficacement lorsqu'il est appliqué à des données dans la distribution ou proches de la distribution, mais devient fragile et sujet à l'échec même sous des changements de distribution modérés. Dans certains cas, les LLMs génèrent des étapes de raisonnement fluides mais logiquement inconsistantes. Les résultats suggèrent que ce qui semble être un raisonnement structuré peut être un mirage, émergeant de motifs mémorisés ou interpolés dans les données d'entraînement plutôt que d'une inférence logique. ... Ensemble, ces résultats suggèrent que les LLMs ne sont pas des raisonneurs principiels mais plutôt des simulateurs sophistiqués de textes ressemblant à du raisonnement.
2508.01191v2.pdf
43,96K