LLMs können gut zu argumentieren scheinen, aber ein einzelnes falsches Token kann die gesamte Ausgabe entgleisen lassen. Unsere neue Arbeit zeigt, dass die Token-Ebene-Memorierung eine Hauptursache für das Scheitern ist, insbesondere unter Verteilungsverschiebung. Einführung: STIM 🔍🧠 🧵 #NLProc
14,86K